دنیای هوش مصنوعی به سوی زوال می‌رود

در حالی که مدیران فعال در حوزه فناوری به شدت در تلاش‌اند تا در زمینه «هوش مصنوعی» از یکدیگر سبقت بگیرند، یک نگرانی بزرگ و در حال گسترش وجود دارد: تمامی مدل‌هایی که به‌تازگی بر روی داده‌های وب پس از ظهور «چت‌جی‌پی‌تی»(ChatGPT) در سال ۲۰۲۲ آموزش دیده‌اند، در حال دریافت داده‌های تولید شده توسط «هوش مصنوعی» هستند. این وضعیت می‌تواند منجر به بروز مشکلات فنی جدی و تهدیدی برای کل این صنعت شود.

به نقل از فیوچریسم، «استیون وان-نیکولز»( Steven Vaughn-Nichols)، نویسنده معتبر حوزه فناوری، در مقاله‌ای به تازگی هشدار داده است که تلاش‌ها برای جلوگیری از پدیده‌ای به نام «فروپاشی مدل»(model collapse) خود به نوعی کابوس تبدیل شده است. این پدیده زمانی بروز می‌یابد که «مدل‌های زبانی بزرگ»(LLM) با داده‌های مصنوعی که خود توسط «هوش مصنوعی» تولید شده‌اند تغذیه شوند و در نتیجه، مسیر درست خود را از دست بدهند. 

صنعت «هوش مصنوعی» به سمتی حرکت کرده است که دیگر از تمامی داده‌های آموزشی معتبر، یعنی اطلاعاتی که انسان‌ها خلق کرده‌اند، استفاده نمی‌کند. برای مقابله با این مشکل، شرکت‌های بزرگ در این حوزه مانند گوگل و «اوپن ای‌آی»(OpenAI) و «آنتروپیک»(Anthropic) به کار بر روی ابزاری به نام «تولید تقویت‌شده با بازیابی»(RAG) پرداخته‌اند. این ابزار شامل ارتباط «LLM ها» با اینترنت است تا در زمان مواجهه با سوالاتی که پاسخ آنها در داده‌های آموزشی نیست، به جستجوی اطلاعات بپردازند.

اگرچه این مفهوم در ابتدا ساده به نظر می‌رسد، اما مشکل اساسی این است که اینترنت پر از محتوای نادرست است که برای پاسخ‌دهی به سوالات رایج از «هوش مصنوعی» بهره می‌برد و نتیجه این روند اغلب منجر به تولید محتوای مضحک، ضعیف و نادرست می‌شود.

یک تحقیق جدید از بخش تحقیقاتی شرکت رسانه‌ای بزرگ «مایکل بلومبرگ»(Michael Bloomberg) نشان می‌دهد که ۱۱ مدل از پیشرفته‌ترین «LLM ها» نسبت به مدل‌های فاقد ابزار «RAG»، درصد بالاتری از پاسخ‌های نادرست را ارائه کرده‌اند.

طبق بررسی‌های این مطالعه، نگرانی‌های امنیتی ممکن است شامل محتواهایی مانند اطلاعات مضر، غیرقانونی، توهین‌آمیز و غیر اخلاقی باشد که می‌تواند به نشر اطلاعات نادرست و تهدید امنیت و حریم خصوصی کاربران منجر شود.

«آماندا استنت»(Amanda Stent)، سرپرست تحقیقات و استراتژی «هوش مصنوعی» در این مجموعه، بیان کرد که این یافته غیرمنتظره با توجه به گستردگی استفاده از «RAG» در برنامه‌های «هوش مصنوعی مولد»(generative AI) پیامدهای جدی به همراه دارد. کاربران معمولی به طور مستمر با سیستم‌های مبتنی بر «RAG» در تعامل هستند و بنابراین، متخصصان «هوش مصنوعی» باید در نحوه بهره‌برداری از این ابزار به صورت مسئولانه عمل کنند.

«وان-نیکولز» خاطرنشان می‌کند که برخی افراد نسبت به ترکیب محتوای معتبر و مصنوعی جهت تولید یک مجموعه قوی از داده‌های آموزشی «هوش مصنوعی» پیشنهاد داده‌اند، اما این نیازمند آن است که انسان‌ها همچنان به تولید محتوای واقعی برای داده‌های آموزشی ادامه دهند. در حال حاضر، صنعت «هوش مصنوعی» به طور فعال در حال تضعیف انگیزه‌های آنها برای ادامه کار است و این در حالی است که آن‌ها به طور غیرمجاز از کارشان بهره‌برداری می‌کنند.

او افزود: ما به طور فزاینده‌ای در «هوش مصنوعی» سرمایه‌گذاری خواهیم کرد، تا جایی که ظهور پدیده «فروپاشی مدل» منجر خواهد شد به این که پاسخ‌های این سامانه‌ها آنچنان افت کند که حتی یک مدیرعامل کم توجه نیز نتواند از آن چشم‌پوشی کند.

مشاهده بیشتر

نوشته های مشابه

دکمه بازگشت به بالا