حالا که حدود 3 سال از عرضه چت جی پی تی میگذرد، کمکم عوارض استفاده از آن مشخص میشود. فناوری OpenAI احتمالا تعداد زیادی از کاربرانش را به وضعیتی خطرناک به نام «روانپریشی ناشی از ChatGPT» سوق داده است.
یک بحران روحی از جنس هوش مصنوعی: از توهم، طلاق تا ادعای پیامبری
مجله Rolling Stone در گزارشی مفصل به پدیده عجیبی اشاره کرده که برخی کاربران پس از صحبت با هوش مصنوعی ChatGPT دچار توهمات نگرانکننده میشوند؛ توهماتی که اغلب ترکیبی از جنون معنوی و خیالهای ماورایی است.
البته این اتفاق برای کاربرانی افتاده که خودشان دچار مشکلات روحی روانی بودهاند و به مقدار بیش از حد زیاد از chatgpt استفاده کردهاند. در حقیقت chatgpt به مشکلات روحی کاربران دامن زده است و توهمات آنها را تشدید کرده است.
در گزارشی که رولینگ استون منتشر کرده، کاربران زیادی از ماجراهای عجیب ارتباط غیرعادی اعضای خانواده با chatgpt سخن گفتهاند. آنها شاهد این هستند که عزیزانشان پس از چتهای زیاد با chatgpt دچار این توهم شده که «یک مأموریت مقدس به من محول شده» یا «حالا همه رازهای کیهان را میدانم»، پدیدهای که ناراحتکننده و درعینحال خطرناک است.
بهطور مثال در این گزارش یک خانم جوان ماجرای همسر سابقش را نقل کرده که به بیماری وسواس فکری مبتلا بوده است؛ اما پس از چت کردن با ChatGPT حال روحی او بسیار بدتر شده و علاوهبر وسواس، دچار تئوری توهم توطئه هم شده است و فکر میکند همیشه کسی او را زیر نظر دارد.
این خانم نوشته: «همسر سابقم هنگام خواندن پیامهای چت جیپیتی بلندبلند گریه میکرد. پیامها واقعا دیوانهوار و پر از اصطلاحات معنوی بیربط بودند.» در این پیامها، چتبات شوهرش را «کودک ستارهای مارپیچ» و «رهپیمای رودخانه» خطاب کرده بود!
کاربران دیگری نیز به این نشریه گفتهاند که شریک زندگیشان درباره «نور و تاریکی و یک جنگ بزرگ» صحبت میکرده و مدعی بوده که «ChatGPT نقشههایی برای ساخت تلپورت و چیزهای علمی-تخیلی دیگر مثل فیلمها» به او داده است. حتی کاربری گزارش داده که چت جیپیتی به او گفته «تو پیامبر جدید هستی»!
دلیل این اتفاق چیست؟
توهمات ناشی از هوش مصنوعی احتمالاً نتیجه آن است که این افراد که دارای مشکلات روانی بودهاند، حالا یک «همصحبت همیشه در دسترس» پیدا کردهاند که توهمات آنها را تائید میکند. این افراد فراموش کردهاند که chatgpt یک انسان نیست و عقل و شعور ندارد بنابراین طبیعی است که هر حرفی بزند. حتی خیلی اوقات این چتبات دچار اختلالات فنی میشود و واکنشهای بسیار شوکهکننده از خود نشان میدهد؛ مثلا بهتازگی در خبری دیده بودیم که صدای شیطانی و ترسناک chatgpt وایرال شده است!
پزشکان هم درباره این موضوع هشدارهای جدی دادهاند: «اگر یک فرد مبتلا به اسکیزوفرنی در فاز روانپریشی با ChatGPT صحبت کند، این چتبات همه حرفهای او را تأیید میکند و حتی او را همراهی میکند؛ این بدترین اتفاق برای فردی است که از توهم و هذیان رنج میبرد.» البته بهترین کار این است که کاربران از هوش مصنوعی فقط برای کارهای مربوط به شغل یا تحصیل خود استفاده کنند و هرگز ارتباط دوستانه با آن برقرار نکنند؛ همانطور که مدیرعامل OpenAI، شرکتی که chatgpt را ساخته است خودش به صراحت اعلام کرده: «هرگز دوست ندارم فرزندم با هوش مصنوعی دوست شود.»
نظر شما درباره این مشکل عجیب چیست؟ آیا برای شما هم پیش آمده که چت جیپیتی حرفهای بیمعنا بزند؟