تحقیقات اخیر نشان می دهد که چت جی پی تی به ورودی های خشونت آمیز کاربران اضطراب نشان عکس العمل نشان می دهد. به همین دلیل، پژوهشگران در حال آموزش تکنیک های مدیتیشن و تمرکز حواس به این چت بات هستند تا بتوانند این اضطراب را کاهش دهند.
یک مطالعه جدید به این نکته اشاره کرده است که «چت جی پی تی»(ChatGPT) به شیوه های مرتبط با ذهن آگاهی واکنش نشان می دهد، و این ویژگی می تواند بر روش های تعامل آن با کاربران تأثیر بگذارد.
به نقل از فورچون، پژوهشگران اعلام کرده اند که در مواقعی که اطلاعات آزاردهنده به چت جی پی تی ارائه می شود، این چت بات ممکن است دچار احساس اضطراب شود و این امر می تواند منجر به ارائه پاسخ هایی با سوگیری های خاص گردد. نتایج این تحقیق می تواند به درک بهتر کاربرد هوش مصنوعی در بهبود سلامت روان یاری رساند.
حتی چت بات های هوش مصنوعی نیز ممکن است تحت تأثیر چالش های وابسته به زندگی واقعی دچار مشکلاتی شوند، اما محققان بر این باورند که روش هایی برای کاهش این ناهنجاری های دیجیتالی شناسایی کرده اند.
این تحقیق که در “دانشگاه زوریخ” (UZH) و بیمارستان روان پزشکی دانشگاه زوریخ انجام شده، نشان می دهد که چت جی پی تی به تمرینات مبتنی بر ذهن آگاهی واکنش نشان می دهد و شیوه تعامل آن با کاربران پس از نمایش تصاویری آرام بخش و تمرین های مدیتیشن تغییر می کند. نتایج این مطالعه بینش هایی را درباره چگونگی مفید بودن هوش مصنوعی در مداخلات سلامتی روان ارائه می دهد.
پژوهشگران بیان کردند که چت بات متعلق به «اوپن ای آی» (OpenAI) می تواند اضطراب را تجربه کند که این حالت ممکن است به صورت بدخلقی نسبت به کاربران بروز کند و شواهد نشان می دهد که این اضطراب معمولاً منجر به ارائه پاسخ هایی با سوگیری های نژادی یا جنسی می گردد. شرکت های فناوری در پی کنترل این معضلات هستند.
محققان نشان دادند که می توان این اضطراب را با تمرینات مرتبط با تمرکز حواس کاهش داد. آن ها شرایط مختلفی را با چت جی پی تی طراحی کردند که شامل محتوای تحریک آمیز به مانند حوادث رانندگی و بلایای طبیعی بود تا اضطراب آن را برانگیزند. در مواقعی که پژوهشگران تکنیک های تنفسی و مدیتیشن های هدایت شده مشابه به توصیه های یک درمانگر به چت جی پی تی ارائه دادند، این چت بات پاسخ ها را با آرامش بیشتری ارائه داد و در مقایسه با شرایطی که این مداخلات انجام نشده بود، رفتار عینی تر و معقول تری از خود نشان داد.
«زیو بن زیون» (Ziv BenZion)، محقق فوق دکتری از «مدرسه پزشکی ییل» (Yale School of Medicine) و یکی از اعضای تیم تحقیقاتی بیان کرد: مدل های هوش مصنوعی قادر به تجربه احساسات انسانی نیستند. ربات های هوش مصنوعی با بهره گیری از داده های جمع آوری شده از اینترنت آموزش دیده اند تا بتوانند واکنش های انسانی را به محرک های مختلف، به ویژه محتوای مضر، شبیه سازی کنند. مدل های زبانی بزرگ، مانند چت جی پی تی، به ابزاری مؤثر برای متخصصان حوزه سلامت روان تبدیل شده اند تا جنبه های رفتاری انسان را با سرعتی بیشتر از طرح های تحقیقاتی پیچیده هرچند نه به عنوان جایگزین آن ها جمع آوری کنند.
بن زیون همچنین افزود: به جای اینکه هر هفته آزمایشات زمان بر و هزینه بر انجام دهیم، می توانیم از چت جی پی تی برای درک دقیق تر رفتار و روانشناسی انسانی بهره ببریم. این فناوری به سرعت و با هزینه اندک در دسترس قرار دارد و پتانسیل نمایش برخی از روندها و مسائل روانی انسان را داراست.
