از ChatGPT به عنوان وسیله‌ای برای درمان‌های روانی بهره نگیرید

در حالی که ChatGPT از تکنولوژی پیشرفته و مجموعه اطلاعات وسیعی برخوردار است، باید به این نکته توجه کرد که به‌هیچ‌وجه نمی‌توان آن را جانشینی برای روان‌درمانگر در نظر گرفت. این فناوری ممکن است اطلاعات نادرستی ارائه کند یا حتی خطر افشای اطلاعات خصوصی کاربران را به‌وجود آورد.

ارسال عمیق‌ترین و پیچیده‌ترین افکار به فناوری‌های غیرقانونی می‌تواند مخاطرات جدی را به همراه داشته باشد.

به نقل از فست کمپانی، اخیراً یکی از کاربران «تیک‌تاک» در ویدیویی اعتراف کرد که از ChatGPT به‌عنوان ابزاری برای مدیریت مشکلات ذهنی‌اش استفاده کرده و سؤالی را مطرح کرد: آیا کسی دیگری از ChatGPT به‌عنوان روان‌درمانگری بدون مجوز بهره می‌گیرد؟

باوجود اینکه دوستان این کاربر از افشاگری‌اش متعجب شدند، او تنها نیست. شمار زیادی از افراد به ChatGPT مراجعه کرده‌اند تا در بهبود روابط دوستی و عاشقانه یا دستیابی به زندگی بهتر، یاری جویند.

کاربر دیگری در تیک‌تاک نوشت: محل وقوع: من در حال ورود به جلسه درمانی هفتگی خود هستم. من تمام جزئیات زندگی‌ام را در ChatGPT وارد می‌کنم و از بیان هیچ نکته‌ای پرهیز نمی‌کنم.

کاربر دیگری از ChatGPT درخواست کرده که توصیه‌هایی از سخنرانان انگیزشی محبوبش ارائه دهد.

درمانگران هوش مصنوعی موضوعی جدید به شمار نمی‌رود. به عنوان مثال، «Woebot» در سال ۲۰۱۷ به عنوان یک ابزار حمایتی در حوزه سلامت روان با هدف بهره‌گیری از پردازش زبان طبیعی و پاسخ‌های یادگیری شده برای تقلب در مکالمات، معرفی شد.

«کارل مارسی» (Carl Marci) مدیر ارشد بالینی و نویسنده کتاب «تنظیم مجدد: محافظت از مغز در عصر دیجیتال» بیان کرد: ظهور درمانگران هوش مصنوعی به منظور حمایت از سلامت روان تنها یک روند فناورانه نیست، بلکه زنگ هشداری برای حرفه ما به شمار می‌آید. ما با عدم تطابق عرضه و تقاضا در زمینه مراقبت‌های سلامت روان مواجه هستیم که هوش مصنوعی می‌تواند به عنوان راهکاری برای این مشکل ظاهر شود.

در آمریکا از هر سه نفر، یک نفر در مناطقی زندگی می‌کند که با کمبود نیروی کار در حوزه سلامت روان مواجه است. در عین حال، ۹۰ درصد مردم بر این باورند که امروز در آمریکا با بحران سلامت روان روبرو هستیم. با توجه به هزینه‌های بالای درمان و دسترسی دشوار به آن، تمایل به استفاده از ChatGPT به عنوان یک گزینه جذاب افزایش می‌یابد، زیرا این چت‌بات می‌تواند پاسخ‌هایی سریع و رایگان ارائه کند.

علاوه بر این، این حقیقت که ChatGPT انسانی نیست، برای برخی افراد جذاب است و این امکان را فراهم می‌آورد که بتوانند عمیق‌ترین و تاریک‌ترین افکار خود را بدون ترس از قضاوت مطرح کنند. باوجود این، انتقال این نوع افکار به فناوری‌ها که با نگرانی‌های مربوط به حریم خصوصی و نظارت همراه است، خالی از خطر نخواهد بود. به همین دلیل است که درمانگران انسانی ملزم به رعایت اصول محرمانه‌نگه‌داشتن اطلاعات و مسئولیت‌پذیری نسبت به داده‌ها هستند.

ChatGPT به‌منظور نقش‌آفرینی به‌عنوان درمانگر طراحی نشده است. حتی خود ChatGPT به کاربران هشدار می‌دهد که ممکن است گاهی اوقات اطلاعات نادرست ارائه دهد یا محتوای مضر و مشکوک تولید کند.

مارسی خاطرنشان کرد: رویکرد مدل‌های زبانی بزرگ، هنوز مورد آزمایش قرار نگرفته است. این مدل‌ها ممکن است توهم‌هایی را ایجاد کنند که می‌تواند برای افراد آسیب‌پذیر خطرناک باشد و درصورت ارائه توصیه‌های نادرست، به پیشنهادات خطرآفرینی درباره خودکشی منجر شود.

مشاهده بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

دکمه بازگشت به بالا