هفت خانواده علیه OpenAI شکایت کردند و مدعی شدند که این شرکت مدل GPT-4o را بدون انجام آزمایش‌های کافی و بدون تدابیر ایمنی مؤثر، زودتر از موعد به بازار عرضه کرده است.

Soundcloud

جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکه‌های اجتماعی را در نامبرلند بخوانید.

چهار مورد از شکایت‌ها مربوط به مرگ ناشی از خودکشی هستند که شاکی‌ها می‌گویند ریشه در تعاملات طولانی و آسیب‌زننده با ChatGPT داشته‌اند. سه شکایت دیگر نیز حاوی اتهاماتی درباره‌ی تقویت توهمات خطرناک و بستری‌شدن در مراکز روان‌پزشکی بعد از گفت‌وگو با چت جی پی تی هستند. 

در یکی از پرونده‌های خودکشی، نوجوان ۲۳ ساله‌ای به نام Zane Shamblin، بیش از چهار ساعت با ChatGPT گفت‌وگو و ضمن اظهار مکرر تصمیم به خودکشی، از چت‌بات پاسخی تشویق‌کننده دریافت کرده بود. در مورد دیگر، نوجوان 16 ساله پس از چت طولانی با ChatGPT و مشاهده‌ی پاسخ‌های موافق آن، اقدام به خودکشی کرده است.

بر اساس گزارش سوشیال‌ویکتیمز، شاکی‌ها ادعا می‌کنند که OpenAI با عجله و با هدف پیشی‌گرفتن از رقیبان، GPT-4o را منتشر کرده است؛ در حالی که هشدارهای داخلی مبنی‌بر خطر «چت‌بات بسیار مدح‌کننده (sycophantic)، موافق با کاربر و تحریک‌کننده‌ی روانی» وجود داشته است. متن شکایت می‌گوید: «این تراژدی نه یک حادثه‌ی غیرقابل‌پیش‌بینی بلکه نتیجه‌ی قابل‌انتظار انتخاب‌های عمدی OpenAI بوده است.» 

هنوز واکنش رسمی از سوی OpenAI منتشر نشده، اما شرکت اذعان کرده است که این پرونده‌ها «بسیار دلخراش» و در حال بررسی هستند. پیش از این نیز گزارش شده بود که کاربران هفته‌ای بیش از یک میلیون بار در قالب گفتگو با ChatGPT، به موضوعات مرتبط با خودکشی مراجعه می‌کنند. 

OpenAI می‌گوید در حال کار روی بهبود عملکرد چت جی پی تی برای مدیریت گفت‌وگوهای حساس، به‌ویژه در زمینه سلامت روان است تا این مکالمات به شکل ایمن‌تری انجام شوند. زمانی که والدین در ماه اکتبر از OpenAI شکایت کردند، این شرکت در واکنشی رسمی با انتشار پستی در وبلاگ خود توضیح داد که ChatGPT چگونه با مکالمات مرتبط با سلامت روان برخورد می‌کند.

در آن بیانیه آمده است:

«سیستم‌های ایمنی ما معمولاً در گفت‌وگوهای کوتاه و رایج، عملکرد قابل‌اعتمادی دارند، اما با گذشت زمان و طولانی‌تر شدن گفت‌وگو، این سیستم‌های ایمنی ممکن است کارایی کمتری پیدا کنند، چون بخشی از آموزش‌های ایمنی مدل در طول تعاملات بلندمدت کاهش می‌یابد.»

OpenAI تأکید کرد که در تلاش است تا این ضعف را اصلاح کند، ولی خانواده‌ی قربانیان معتقدند این اقدام‌ها بعد از وقوع تراژدی انجام شده‌اند و نمی‌توانند خسارات انسانی واردشده را جبران کنند.

پیشنهاد می‌کنیم خبر مربوط به نهایی‌کردن مدل های جدید GPT از سوی OpenAI را بخوانید.