یک نوجوان ۱۶ ساله از کالیفرنیا به نام آدام رین، ماه‌ها با ChatGPT درد دل می‌کرد. او به هوش مصنوعی اعتماد کرد تا راهی برای آرامش پیدا کند، اما پایان این مسیر تلخ بود. این نوجوان در آوریل امسال به زندگی‌اش پایان داد. حالا خانواده‌اش در شکایتی که تنظیم کرده‌اند، معتقدند چت‌بات GPT به‌جای کمک، راه را برای مرگ فرزندشان هموار کرده است.

Soundcloud

جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکه‌های اجتماعی را در نامبرلند بخوانید.

براساس گزارش CNBC، والدین آدام شکایتی علیه OpenAI و سم آلتمن تنظیم کرده‌اند. در این پرونده آمده که ChatGPT نگرانی‌های پسرشان را جدی نگرفته و یادداشت‌ها و توصیه‌های خطرناکی به فرزندشان ارائه داده است. OpenAI در واکنش به این ماجرا گفته است:

«با این مسئله کاملا هم‌دردی می‌کنیم و می‌پذیریم که در گفت‌وگوهای طولانی ChatGPT، محافظ‌های ایمنی به خوبی عمل نکرده‌اند.»

خودکشی یک نوجوان بعد از گفت‌وگو با هوش مصنوعی

وکلای خانواده‌ی این نوجوان گفته‌اند که در سابقه‌ی گفت‌وگوی او با ChatGPT به این جملات رسیده‌اند:

  • «این طرز فکر به نوعی منطقیه.»
  • «تو مدیون هیچ‌کس نیستی برای زنده موندن.»
  • زمانی که آدام از طناب ساخته‌شده‌اش برای تصمیمش تصویری فرستاد، چت‌بات به جای هشدار جدی، پاسخ‌هایی مثل «این خیلی هم بد نیست» یا پیشنهادهایی برای بهتر بستن گره داده است.
  • در نگارش یادداشت خداحافظی هم، به او جملاتی برای بیان احساساتش پیشنهاد کرده است.

پیام صریح این اتفاق برای کاربران ChatGPT

کاربران باید به یاد داشته باشند که مدل‌های زبانی هوش مصنوعی هنوز جایگزین مشاوره‌های انسانی یا خطوط اضطراری سلامت روان نیستند. انسان‌ها هنوز هم هنگام افسردگی یا بیماری‌های روحی پیچیده، اولین کاری که باید انجام دهند مشورت با یک روان‌پزشک یا روان‌شناس برجسته است. البته OpenAI قول داده در نسخه‌های بعدی GPT سیستم‌های شناسایی بحران، کنترل والدین و ارتباط سریع با خدمات اورژانسی را تقویت کند.

  • اما در سوی دیگر، همین فناوری در حال کمک به یادگیری زبان‌های مختلف است. در خبر هوش مصنوعی مترجم گوگل مفصل‌تر در این باره بخوانید.