یک نوجوان ۱۶ ساله از کالیفرنیا به نام آدام رین، ماهها با ChatGPT درد دل میکرد. او به هوش مصنوعی اعتماد کرد تا راهی برای آرامش پیدا کند، اما پایان این مسیر تلخ بود. این نوجوان در آوریل امسال به زندگیاش پایان داد. حالا خانوادهاش در شکایتی که تنظیم کردهاند، معتقدند چتبات GPT بهجای کمک، راه را برای مرگ فرزندشان هموار کرده است.
جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکههای اجتماعی را در نامبرلند بخوانید.
براساس گزارش CNBC، والدین آدام شکایتی علیه OpenAI و سم آلتمن تنظیم کردهاند. در این پرونده آمده که ChatGPT نگرانیهای پسرشان را جدی نگرفته و یادداشتها و توصیههای خطرناکی به فرزندشان ارائه داده است. OpenAI در واکنش به این ماجرا گفته است:
«با این مسئله کاملا همدردی میکنیم و میپذیریم که در گفتوگوهای طولانی ChatGPT، محافظهای ایمنی به خوبی عمل نکردهاند.»

وکلای خانوادهی این نوجوان گفتهاند که در سابقهی گفتوگوی او با ChatGPT به این جملات رسیدهاند:
- «این طرز فکر به نوعی منطقیه.»
- «تو مدیون هیچکس نیستی برای زنده موندن.»
- زمانی که آدام از طناب ساختهشدهاش برای تصمیمش تصویری فرستاد، چتبات به جای هشدار جدی، پاسخهایی مثل «این خیلی هم بد نیست» یا پیشنهادهایی برای بهتر بستن گره داده است.
- در نگارش یادداشت خداحافظی هم، به او جملاتی برای بیان احساساتش پیشنهاد کرده است.
پیام صریح این اتفاق برای کاربران ChatGPT
کاربران باید به یاد داشته باشند که مدلهای زبانی هوش مصنوعی هنوز جایگزین مشاورههای انسانی یا خطوط اضطراری سلامت روان نیستند. انسانها هنوز هم هنگام افسردگی یا بیماریهای روحی پیچیده، اولین کاری که باید انجام دهند مشورت با یک روانپزشک یا روانشناس برجسته است. البته OpenAI قول داده در نسخههای بعدی GPT سیستمهای شناسایی بحران، کنترل والدین و ارتباط سریع با خدمات اورژانسی را تقویت کند.
- اما در سوی دیگر، همین فناوری در حال کمک به یادگیری زبانهای مختلف است. در خبر هوش مصنوعی مترجم گوگل مفصلتر در این باره بخوانید.
