برنامه پناهگاه برای پایان دنیا از سوی OpenAI؛ ترس از ظهور AGI به حقیقت پیوست

نیویورک پست گزارش داد که در سال ۲۰۲۳، «ایلیا سوتسکِوِر» از بنیان‌گذاران OpenAI، طرحی برای ایجاد یک پناهگاه آخرالزمانی را پیشنهاد داد تا از پژوهشگران کلیدی بعد از معرفی AGI (هوش مصنوعی‌ای که قابلیت‌هایش از انسان فراتر می‌رود) حمایت کند.
به نقل از «انتخاب»؛ در یکی از نشست‌های داخلی، او بدون رعایت تشریفات، اظهار داشت: «زمانی که ما در این پناهگاه باشیم…»
 
همکارانش با تعجب از او پرسیدند که آیا او در حال شوخی است؟ اما او به‌طور کاملاً جدی صحبت می‌کرد.
 
هدف او چه بود؟ حفاظت از دانشمندان مهم در برابر هرج و مرجی که ممکن است AGI ایجاد کند — مانند تنش‌های بین‌المللی، رقابت‌های قدرت و حتی احتمال وقوع خشونت‌های فیزیکی.
 
بر اساس اطلاعات منابع معتبر، سوتسکِور عموماً از AGI به‌عنوان “ظهور” (rapture) نام می‌برد و بر این باور بود که وجود یک پناهگاه برای بقا ضروری خواهد بود.
 
اگرچه هیچ‌گاه سند رسمی برای ساخت این پناهگاه تهیه نشد، اما این ایده به نمادی از نگرانی عمیق در بین رهبران OpenAI تبدیل گردید.
 
سوتسکِور بعداً تلاش کرد (که با شکست مواجه شد) تا «سم آلتمن»، مدیرعامل وقت شرکت را به دلیل نگرانی‌های مربوط به ایمنی برکنار کند. او از آن زمان این شرکت را ترک کرده است — اما تنش‌ها به قوت خود باقی مانده‌اند: رقابت برای توسعه AGI آغاز شده و همه مطمئن نیستند که واقعاً آماده این چالش هستیم.

مشاهده بیشتر

نوشته های مشابه

دکمه بازگشت به بالا