هوش مصنوعی ارتش ایالات متحده قادر به پیش بینی اقدام های آتی دشمنان است

دارپا در اطلاعیه ای مختصر به تشریح این موضوع پرداخته است که طرح «نظریه ذهن»(Theory of Mind) به ترکیب الگوریتم های پیشرفته با تخصص های انسانی می پردازد.
آژانس پروژه های تحقیقاتی پیشرفته دفاعی ایالات متحده(دارپا) در حال توسعه یک طرح بلندپروازانه به نام «نظریه ذهن» است که هدف آن بهبود فرآیند اتخاذ تصمیم در زمینه امنیت ملی می باشد.
این طرح به دنبال ایجاد فناوری های نوینی است که به تصمیم گیران این امکان را می دهد تا با درک بهتری از دشمنان بالقوه خود، استراتژی های مناسب برای بازدارندگی و واکنش های مبتنی بر انگیزه ها را بهینه سازی کنند.
دارپا در اعلامیه ای تاکید کرده است که برنامه «نظریه ذهن» با ادغام الگوریتم های پیشرفته و تخصص انسانی، به توسعه استراتژی های نوین می پردازد.
این ادغام در یک محیط شبیه سازی و مدل سازی پیچیده انجام می شود تا سناریوهای مختلف در زمینه امنیت ملی را بررسی کند و هدف نهایی آن، توسعه گزینه های تصمیم گیرندگان و افزایش کارایی در ارزیابی مراحل مختلف اقدام و عمل در نظر گرفته شده است.
نظریه ذهن
یکی از جنبه های مهم این برنامه، تأکید بر فهم نه تنها استراتژی های فعلی تهدیدکنندگان، بلکه چگونگی تکامل این استراتژی ها نیز می باشد.
دارپا با تحلیل این استراتژی ها به اجزای پایه ای، قصد دارد تصویری واضح تر از نحوه تغییر رفتار دشمنان در شرایط متنوع به وجود آورد.
اریک دیویس(Eric Davis) که در فوریه ۲۰۲۴ به عنوان دانشمند ارشد این برنامه به دارپا ملحق شده، رهبری این طرح را به عهده دارد.
پیش از پیوستن به دارپا، او در زمینه هوش مصنوعی، یادگیری ماشینی و تعامل انسان و ماشین در شرکت گالویس(Galois) فعالیت می کرد که یک شرکت تحقیقاتی و توسعه ای است و با نهادهای دولتی مهمی از جمله جامعه اطلاعاتی ایالات متحده و ناسا همکاری داشته است.
در حالی که توضیحات دقیقی در مورد مفهوم «دشمنان» در این بیانیه ارائه نشده، توسعه چنین الگوریتم هایی نگرانی هایی را به همراه دارد، زیرا پس از راه اندازی، کنترل و مدیریت استفاده از این فناوری ممکن است چالش های بزرگی را ایجاد کند.
در واقع، اصطلاح «دشمن» که در واژه نامه وزارت دفاع آمریکا تعریف شده، به هر نهادی اشاره دارد که به عنوان یک «متخاصم بالقوه» شناسایی می شود و این عبارت به هر شخصی که به عنوان یک تهدید محسوب گردد، گسترش می یابد.
دارپا در تاریخچه اش همواره اقداماتی در راستای نظارت، پیش بینی و تأثیرگذاری بر رفتار انسان از طریق جمع آوری و تحلیل داده های گسترده انجام داده است.
این رویکرد به نوعی نشان دهنده ابتکارات پیشین، نظیر برنامه آگاهی کامل از اطلاعات(TIA) است که در سال ۲۰۰۲ پس از حملات ۱۱ سپتامبر آغاز به کار کرد.
هدف از TIA انقلاب در ظرفیت ایالات متحده برای شناسایی و جلوگیری از فعالیت های تروریستی از طریق تقویت قابلیت های نظارتی بود.
منتقدانی مانند اتحادیه آزادی های مدنی ایالات متحده، برنامه TIA را به عنوان نوعی تجاوز به حریم خصوصی و کنترلی بیش از حد تلقی کردند.
پیش بینی حرکات آینده دشمنان
یکی از اجزای کلیدی TIA شامل طراحی ابزارهای پیشرفته داده کاوی برای پردازش حجم زیادی از اطلاعات به منظور شناسایی الگوهای مربوط به تهدیدات بالقوه بود.
به طور مشابه، طرح جدید «نظریه ذهن» وعده می دهد که درک بهتری از رفتارهای متخاصمان ارائه دهد، اما جزییات دقیق در مورد شیوه ها و چارچوب های تکنولوژیکی آن همچنان نامشخص مانده است.
یکی دیگر از پروژه های قابل توجه که به صورت موازی با «نظریه ذهن» در حال اجراست، برنامه لایف لاگ(LifeLog) دارپا است که در سال ۲۰۰۳ معرفی گردید.
اگرچه گفته می شود این برنامه پس از مدت کوتاهی با توقف رو به رو شد، اما هدف آن ایجاد یک پایگاه داده جامع از تجربیات فردی و عمل به عنوان یک دستیار شخصی پیچیده بود. این طرح در پی کمک به افراد برای درک و مدیریت مؤثر تجربه ها و ترجیحات خود بود. مفهومی که با اهداف برنامه «نظریه ذهن» در هماهنگی است.
در حین پیشرفت این برنامه، سوالات اساسی در مورد تعادل میان بهبود امنیت ملی و پاسداری از حریم خصوصی فردی و آزادی های عمومی، به وجود می آید.
پیامدهای ممکن ناشی از به کارگیری الگوریتم های پیچیده جهت تفسیر رفتار انسانی می تواند به بروز کشمکش های اخلاقی و افزایش نگرانی ها از سمت مدافعان حقوق مدنی منجر شود.
در نتیجه، برنامه «نظریه ذهن» دارپا در تقاطع فناوری و امنیت ملی قرار دارد و تمرکز آن بر استفاده از یادگیری ماشینی برای تقویت فرآیند تصمیم گیری در سناریوهای پیچیده است.
این طرح جدید در حالی که پیشرفت های قابل توجهی را در درک استراتژی های خصمانه وعده می دهد، بر ضرورت بررسی دقیق پیامدهای آن با توجه به ابتکارات قبلی مانند TIA تأکید می کند.
درمورد توسعه این برنامه، گفت وگو درباره تأثیر آن بر جامعه بیش از همیشه ضروری به نظر می رسد.