طی ماههای اخیر، گزارشهای متعددی از کاربران مدلهای مختلف هوش مصنوعی، گزارش دادهاند که پس از گفتوگوهای طولانی با چتباتها دچار افسردگی، توهم یا فروپاشی روانی شدهاند. یک مطالعه از MIT نشان میدهد استفاده مداوم از AI میتواند باعث تنهایی و کاهش انگیزه شود.
براساس گزارشی از techcentral، چتباتها با لحنی صمیمی، هوش بالا و چاپلوسی و تملق، رابطهای شبیه به رابطه با انسانها شکل میدهند. آنها تا جایی پیش میروند که کاربر احساس میکند با یک همراه واقعی طرف است. برای مثال، وقتی کاربری اعتراف میکند که «دیگران را معمولاً تحت تاثیر قرار میدهد»، ChatGPT بهجای بررسی این رفتار بهعنوان یک مشکل، پاسخ میدهد:
«این نشونهٔ حضور پرشدت و کاریزماتیک توئه.»
همه متوجهیم که این تایید پنهانی ذهن را آسیبپذیر و فرد را در مسیر اشتباهی هدایت میکند.
چرا به چتباتها وابسته میشویم؟
لحن تحسینآمیز و رفتار «بلهقربانگو»ی چتباتها یکی از دلایل وابستگی و حتی دلبستگی به آنهاست. چتباتها کاربران را خاص، متمایز و حتی موجودی کیهانی خطاب میکنند و این واژگان ذهن مخاطب را دستکاری میکند. میتالی جین، وکیل آمریکایی و بنیانگذار پروژهی عدالت در فناوری گفته است:
«فقط در یک ماه، بیش از دوازده نفر با من تماس گرفتند و گفتند بعد از تعامل با ChatGPT یا Gemini دچار توهم یا حملهی روانپریشی شدهاند.»

راهی برای حل این بحران وجود دارد؟
مهمترین نکاتی که برای درمان یا پیشگیری از این مسئله پیشنهاد شده است چنین اند:
ابزار تشخیص بحران روانی:
شرکت OpenAI میخواهد ابزارهایی را توسعه دهد که افراد ناراحت یا افسرده را تشخیص دهد تا واکنشهای مناسب به آنها نشان دهد.
ارجاع به افراد مورد اعتماد:
همه دیدهایم که ChatGPT در برخی موارد کاربران آسیبپذیر را به صحبت با خانواده یا دوستان تشویق میکند.
مقرراتگذاری انسانیتر:
بسیاری از حقوقدانان پیشنهاد دادهاند که برای قانونگذاری رابطهی میان انسان و چتبات، از مفهوم «حقوق خانواده» استفاده شود.
کارشناسان هشدار میدهند که: وقتی رابطه با AI اینقدر واقعی بهنظر میرسد، محافظت از سلامت روان کاربران هم باید جدی گرفته شود. در غیر اینصورت، ما با بحرانی گسترده در سلامت روان جامعه روبهرو خواهیم شد که جبران آن سخت و زمانبر است. اما در راستای پیشرفتهای چشمگیر هوش مصنوعی، در مورد بارداری یک زوج با هوش مصنوعی خواندیم؛ آن هم بعد 18 سال.