تغییر رویکرد گوگل در به کارگیری هوش مصنوعی برای اهداف نظامی و نظارتی

شرکت گوگل تغییراتی بنیادین در «اصول استفاده از هوش مصنوعی» خود اعمال کرده است.
براساس گزارش پس از معرفی نخستین هوش مصنوعی خود در سال ۲۰۱۸، گوگل یکی از مهم ترین تغییرات را در اصول هوش مصنوعی به انجام رسانده است. این غول فناوری اطلاعات، متن اصول خود را بازنگری و برخی از تعهدات قبلی خود را حذف نموده است. پیشتر، این شرکت متعهد شده بود که ابزارهای هوش مصنوعی را برای موارد نظامی یا سیستم های نظارتی «طراحی یا مستقر» نکند و در حال حاضر، این تعهد تغییر یافته است. پیش از این، این دستورالعمل در بخشی با عنوان «برنامه هایی که ما دنبال نمی کنیم» وجود داشت که در نسخه جدید سند دیگر دیده نمی شود.
به نقل از انگجت، اکنون بخشی به عنوان «توسعه و استقرار مسئولانه» معرفی شده است. در این بخش، گوگل اذعان می کند که «نظارت انسانی مناسب، بررسی دقیق و مکانیزم های بازخوردی را برای تطابق با اهداف کاربر، وظایف اجتماعی و اصول پذیرفته شده حقوق بین الملل و حقوق بشر به کار خواهد گرفت».
این تعهد اکنون به مراتب کلی تر از تعهدات قبلی است که این شرکت در نسخه پیشین اصول هوش مصنوعی مطرح کرده بود. برای نمونه، در مورد سلاح ها، این شرکت پیشتر اعلام کرده بود که هوش مصنوعی را برای «سلاح ها یا فناوری هایی که هدف یا پیاده سازی آنها منجر به آسیب مستقیم به افراد می شود» نخواهد ساخت. در خصوص فناوری های نظارتی هوش مصنوعی، هم بیان کرده بود که این تکنولوژی ها را توسعه نخواهد داد اگر که «هُنجارهای پذیرفته شده بین المللی» را نقض کند.
دمیس حسابیس (Demis Hassabis)، مدیرعامل دیپ مایند (DeepMind) و جیمز مانیکا (James Manyika)، معاون ارشد حوزه تحقیقات، آزمایشگاه ها، فناوری و جامعه در گوگل، نتیجه گیری کرده اند که ظهور هوش مصنوعی به عنوان یک «فناوری چندمنظوره» ایجاب می کند تا سیاست ها دگرگون شوند.
این دو نفر در بیانیه ای تصریح کرده اند: ما بر این باوریم که دموکراسی باید محوری در زمینه توسعه هوش مصنوعی باشد و ارزش های اساسی مانند آزادی، برابری و احترام به حقوق بشر را مدنظر قرار دهد. همچنین معتقدیم که شرکت ها، دولت ها و سازمان هایی که به این اصول پایبند هستند، باید به یکدیگر بپیوندند تا هوش مصنوعی ای را ایجاد کنند که از افراد حمایت کند، رشد جهانی را تقویت بخشد و امنیت ملی را پاس بدارد. با هدایت این اصول هوش مصنوعی، همچنان بر تحقیق و کاربردهای هوش مصنوعی که با مأموریت، تمرکز علمی و زمینه های تخصصی ما همخوانی دارد، متمرکز خواهیم بود و سعی می کنیم با قوانین معتبر بین المللی و حقوق بشر سازگار بمانیم و همواره این موضوع را زیرنظر داشته باشیم که آیا منافع بر خطرات احتمالی ارجحیت دارد یا خیر.
زمانی که گوگل برای اولین بار اصول هوش مصنوعی خود را در سال ۲۰۱۸ ارائه کرد، این اقدام ناشی از حواشی قرارداد controversially ماون (Maven) بود. این توافق جنجالی مربوط به یک پروژه دولتی بود که در آن صورت تمدید گوگل، این شرکت نرم افزار هوش مصنوعی را برای تحلیل فیلم های پهپادها در اختیار وزارت دفاع قرار می داد. در اعتراض به این قرارداد، ده ها کارمند گوگل استعفا کردند و هزاران نفر دیگر با امضای طوماری نظر منفی خود را ابراز کردند. هنگامی که گوگل در نهایت اصول جدید خود را منتشر کرد، ساندار پیچای، مدیرعامل شرکت، به کارکنان گفت که امیدوار است مقاومت آنها در طول زمان ادامه یابد.
با این حال، تا سال ۲۰۲۱، گوگل دوباره به دنبال قراردادهای نظامی بازگشته است.