به‌کارگیری ChatGPT در روان‌درمانی توصیه نمی‌شود

هرچند که ChatGPT یک فناوری پیشرفته و مجهز به داده‌های وسیع در زمینه‌های مختلف می‌باشد، باید به این نکته توجه کرد که این ابزار نمی‌تواند جایگزین یک روان‌درمان‌گر شود و ممکن است گاهی اطلاعات نادرست یا غیرقابل اعتمادی را ارائه دهد و یا حریم خصوصی کاربران را به خطر بیندازد.

طبق گزارشی از ایسنا، انتقال عمیق‌ترین افکار و احساسات شخصی به فناوری‌هایی که احتمال آسیب‌رسانی دارند، ممکن است پیامدهای جدی به همراه داشته باشد.

یکی از کاربران «تیک‌تاک» به تازگی در یک ویدیو از تجربه‌اش با ChatGPT و درخواست کمک برای حل مسائل عاطفی خود صحبت کرده و پرسش کرده است: آیا کسی دیگری از ChatGPT به‌عنوان یک مشاور روانی بدون دستمزد استفاده می‌کند؟

در حالی که دوستان او از این افشاگری متعجب بودند، باید گفت که این تنها یک مورد از بسیاری دیگر است. جمع کثیری از افراد به ChatGPT روی آورده‌اند تا در روابط اجتماعی و عاشقانه‌ خود یاری بگیرند یا به دنبال راه‌هایی برای بهبود کیفیت زندگی خود باشند.

کاربر دیگری در تیک‌تاک نوشت: در حال مراجعه به جلسه درمانی هفتگی‌ام هستم. همه جزئیات زندگی خود را در ChatGPT به ثبت می‌رسانم و از بیان هیچ موضوعی اجتناب نمی‌کنم.

کاربر دیگری از ChatGPT خواسته بود تا پیشنهادهایی از سخنرانان محبوب و الهام‌بخش او ارائه دهد.

استفاده از هوش مصنوعی در زمینه سلامت روان موضوعی جدیدی نیست. به عنوان مثال، «Woebot» از سال ۲۰۱۷ به‌عنوان یک دستیار روانشناسی با هدف استفاده از پردازش زبان طبیعی و ارائه پاسخ‌هایی بر پایه یادگیری برای شبیه‌سازی مکالمات طراحی شده است.

کارل مارسی (Carl Marci)، مدیر ارشد بالینی و نویسنده کتاب «تنظیم مجدد: حفاظت از مغز در عصر دیجیتال»، معتقد است که ظهور درمانگران هوش مصنوعی به‌منظور حمایت از سلامت روان تنها یک روند فناورانه نیست، بلکه هشدار جدی در مورد کار ماست. ما در حال مواجهه با عدم توازن در عرضه و تقاضای خدمات سلامت روان هستیم که موارد هوش مصنوعی می‌توانند در رفع این مشکلات نقش ایفا کنند.

در آمریکا، یک سوم جمعیت در مناطقی زندگی می‌کنند که با کمبود متخصصان سلامت روان مواجه هستند. هم‌زمان، ۹۰ درصد افراد به وجود بحران سلامت روان در این کشور معترف هستند. با توجه به هزینه‌های بالای درمان و در دسترس نبودن آن، جذابیت ChatGPT افزایش می‌یابد، زیرا این ربات گفتگو قادر به ارائه پاسخ‌های فوری و رایگان است.

علاوه بر این، این واقعیت که ChatGPT فاقد وجود انسانی است برای برخی افراد جذابیت دارد و به آن‌ها این امکان را می‌دهد تا بدون ترس از قضاوت، عمیق‌ترین و تاریک‌ترین اندیشه‌های خود را بیان کنند. با این حال، گنجاندن این افکار در فناوری‌ها با نگرانی‌هایی در مورد حفظ حریم خصوصی و نظارت همراه است و این امر به هیچ عنوان بدون خطر نیست. به همین دلیل است که درمانگران انسانی ملزم به رعایت اصول محرمانه نگه‌داشتن اطلاعات و مسؤولیت‌پذیری محدود هستند.

ChatGPT به‌هیچ‌وجه برای ایفای نقش درمانگری طراحی نشده است. حتی خود ChatGPT به کاربران هشدار می‌دهد که ممکن است گاهی اطلاعات نادرست، توصیه‌های مضر یا محتوای مغرضانه را به‌صورت تصادفی تولید کند.

مارسی اظهار داشت: رویکردهای مبتنی بر مدل‌های بزرگ زبانی هنوز در حال آزمایش هستند. این مدل‌ها ممکن است تصورات غلطی ایجاد کنند که می‌تواند برای افراد آسیب‌پذیر، خطرساز یا گیج‌کننده باشد و با درخواست نادرست، به توصیه‌هایی خطرناک درباره خودکشی منجر شود.

مشاهده بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

دکمه بازگشت به بالا