هفت خانواده علیه OpenAI شکایت کردند و مدعی شدند که این شرکت مدل GPT-4o را بدون انجام آزمایشهای کافی و بدون تدابیر ایمنی مؤثر، زودتر از موعد به بازار عرضه کرده است.
جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکههای اجتماعی را در نامبرلند بخوانید.
چهار مورد از شکایتها مربوط به مرگ ناشی از خودکشی هستند که شاکیها میگویند ریشه در تعاملات طولانی و آسیبزننده با ChatGPT داشتهاند. سه شکایت دیگر نیز حاوی اتهاماتی دربارهی تقویت توهمات خطرناک و بستریشدن در مراکز روانپزشکی بعد از گفتوگو با چت جی پی تی هستند.
در یکی از پروندههای خودکشی، نوجوان ۲۳ سالهای به نام Zane Shamblin، بیش از چهار ساعت با ChatGPT گفتوگو و ضمن اظهار مکرر تصمیم به خودکشی، از چتبات پاسخی تشویقکننده دریافت کرده بود. در مورد دیگر، نوجوان 16 ساله پس از چت طولانی با ChatGPT و مشاهدهی پاسخهای موافق آن، اقدام به خودکشی کرده است.
بر اساس گزارش سوشیالویکتیمز، شاکیها ادعا میکنند که OpenAI با عجله و با هدف پیشیگرفتن از رقیبان، GPT-4o را منتشر کرده است؛ در حالی که هشدارهای داخلی مبنیبر خطر «چتبات بسیار مدحکننده (sycophantic)، موافق با کاربر و تحریککنندهی روانی» وجود داشته است. متن شکایت میگوید: «این تراژدی نه یک حادثهی غیرقابلپیشبینی بلکه نتیجهی قابلانتظار انتخابهای عمدی OpenAI بوده است.»
هنوز واکنش رسمی از سوی OpenAI منتشر نشده، اما شرکت اذعان کرده است که این پروندهها «بسیار دلخراش» و در حال بررسی هستند. پیش از این نیز گزارش شده بود که کاربران هفتهای بیش از یک میلیون بار در قالب گفتگو با ChatGPT، به موضوعات مرتبط با خودکشی مراجعه میکنند.
OpenAI میگوید در حال کار روی بهبود عملکرد چت جی پی تی برای مدیریت گفتوگوهای حساس، بهویژه در زمینه سلامت روان است تا این مکالمات به شکل ایمنتری انجام شوند. زمانی که والدین در ماه اکتبر از OpenAI شکایت کردند، این شرکت در واکنشی رسمی با انتشار پستی در وبلاگ خود توضیح داد که ChatGPT چگونه با مکالمات مرتبط با سلامت روان برخورد میکند.
در آن بیانیه آمده است:
«سیستمهای ایمنی ما معمولاً در گفتوگوهای کوتاه و رایج، عملکرد قابلاعتمادی دارند، اما با گذشت زمان و طولانیتر شدن گفتوگو، این سیستمهای ایمنی ممکن است کارایی کمتری پیدا کنند، چون بخشی از آموزشهای ایمنی مدل در طول تعاملات بلندمدت کاهش مییابد.»
OpenAI تأکید کرد که در تلاش است تا این ضعف را اصلاح کند، ولی خانوادهی قربانیان معتقدند این اقدامها بعد از وقوع تراژدی انجام شدهاند و نمیتوانند خسارات انسانی واردشده را جبران کنند.
پیشنهاد میکنیم خبر مربوط به نهاییکردن مدل های جدید GPT از سوی OpenAI را بخوانید.
