برنامه پناهگاه برای پایان دنیا از سوی OpenAI؛ ترس از ظهور AGI به حقیقت پیوست

نیویورک پست گزارش داد که در سال ۲۰۲۳، «ایلیا سوتسکِوِر» از بنیانگذاران OpenAI، طرحی برای ایجاد یک پناهگاه آخرالزمانی را پیشنهاد داد تا از پژوهشگران کلیدی بعد از معرفی AGI (هوش مصنوعیای که قابلیتهایش از انسان فراتر میرود) حمایت کند.
به نقل از «انتخاب»؛ در یکی از نشستهای داخلی، او بدون رعایت تشریفات، اظهار داشت: «زمانی که ما در این پناهگاه باشیم…»
همکارانش با تعجب از او پرسیدند که آیا او در حال شوخی است؟ اما او بهطور کاملاً جدی صحبت میکرد.
هدف او چه بود؟ حفاظت از دانشمندان مهم در برابر هرج و مرجی که ممکن است AGI ایجاد کند — مانند تنشهای بینالمللی، رقابتهای قدرت و حتی احتمال وقوع خشونتهای فیزیکی.
بر اساس اطلاعات منابع معتبر، سوتسکِور عموماً از AGI بهعنوان “ظهور” (rapture) نام میبرد و بر این باور بود که وجود یک پناهگاه برای بقا ضروری خواهد بود.
اگرچه هیچگاه سند رسمی برای ساخت این پناهگاه تهیه نشد، اما این ایده به نمادی از نگرانی عمیق در بین رهبران OpenAI تبدیل گردید.
سوتسکِور بعداً تلاش کرد (که با شکست مواجه شد) تا «سم آلتمن»، مدیرعامل وقت شرکت را به دلیل نگرانیهای مربوط به ایمنی برکنار کند. او از آن زمان این شرکت را ترک کرده است — اما تنشها به قوت خود باقی ماندهاند: رقابت برای توسعه AGI آغاز شده و همه مطمئن نیستند که واقعاً آماده این چالش هستیم.