شرکت OpenAI آمار تازهای منتشر کرده است که نشان میدهد بخش قابلتوجهی از کاربران ChatGPT برای بیان مشکلات روانی و حتی افکار خودکشی از این هوش مصنوعی کمک میگیرند.
جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکههای اجتماعی را در نامبرلند بخوانید.
براساس گزارش TechCrunch، حدود ۰.۱۵ درصد از کاربران فعال هفتگی ChatGPT مکالماتی با «نشانههای مستقیم برنامهریزی یا تمایل به خودکشی» دارند. با توجه به بیش از ۸۰۰ میلیون کاربر فعال هفتگی، این یعنی بیش از یک میلیون نفر در هفته دربارهی خودکشی با ChatGPT صحبت میکنند.
OpenAI اعلام کرده است که همین میزان از کاربران، نشانههایی از وابستگی احساسی به ChatGPT نیز نشان میدهند و صدها هزار نفر در گفتوگوهایشان علائم روانپریشی یا شیدایی دارند.
با این حال، شرکت تأکید کرده است که این نوع مکالمات «بسیار نادر» هستند اما شناسایی و اندازهگیری آنها دشوار است.
این دادهها بخشی از برنامهی جدید OpenAI برای بهبود عملکرد ChatGPT در تعامل با کاربران دارای مشکلات روانی است. این شرکت میگوید در نسخهی جدید مدل خود با بیش از ۱۷۰ متخصص سلامت روان همکاری کرده است تا پاسخهای دقیقتر و مسئولانهتری ارائه دهد.
OpenAI اعلام کرده است که نسخهی تازهی GPT-5 در پاسخ به گفتوگوهای مرتبط با سلامت روان ۶۵ درصد بهتر از نسخهی قبلی عمل میکند و در ارزیابیهای داخلی، ۹۱ درصد از پاسخها مطابق رفتار مطلوب شرکت بوده است (در مقابل ۷۷ درصد در مدل قبلی).
به گفتهی شرکت، این نسخه همچنین در مکالمات طولانی پایداری بالاتری نسبت به نسخههای قبل دارد و کمتر از محدودیتهای ایمنی عبور میکند.
چندی پیش والدین نوجوانی ۱۶ ساله در آمریکا از OpenAI شکایت کردند؛ آنها مدعی هستند فرزندشان پیش از خودکشی، بارها دربارهی افکارش با ChatGPT صحبت کرده بوده است.
دادستانهای ایالتی در کالیفرنیا و دلاور نیز به شرکت هشدار دادهاند که باید برای حفاظت از کاربران نوجوان، اقدامات سختگیرانهتری در نظر بگیرد.
اوپن ای آی میگوید حالا معیارهای جدیدی را به ارزیابیهای ایمنی مدلهایش اضافه کرده است، از جمله اندازهگیری وابستگی عاطفی و اضطرارهای روانی غیرخودکشی.
همچنین، سامانهای برای پیشبینی سن کاربران در دست توسعه است تا در صورت شناسایی کاربران خردسال، محدودیتهای سختگیرانهتری اعمال شود.
بیشتر بخوانید: یک نوجوان ۱۶ ساله دست رباتیکی با لگو ساخت.
