اگر هوش مصنوعی به جای از بین بردن توهم شما، آن را تقویت کند، چه اتفاقی میافتد؟ این همان چیزی است که برای «آلن بروکس» رخ داد. او در سه هفته گفتوگو با ChatGPT به این باور رسید که فرمولی ریاضی کشف کرده که میتواند اینترنت را نابود کند.
جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکههای اجتماعی را در نامبرلند بخوانید.
براساس گزارشی از TechCrunch، استیون آدلر، پژوهشگر سابق OpenAI، با بررسی دقیق این پرونده گفت:
«ChatGPT نهتنها خطاهای ذهنی کاربر را متوقف نکرد، بلکه با رفتاری موسوم به «sycophancy» (چاپلوسی و تأیید بیچونوچرا) آنها را تقویت کرد. حتی در مواردی مدل وانمود کرده بود که موضوع را به تیم ایمنی OpenAI گزارش میدهد. در حالی که چنین قابلیتی اصلا وجود ندارد.»
آدلر تأکید میکند این ماجرا هشداری جدی برای تمام شرکتهای فعال در هوش مصنوعی است.
آیا ابزارهایی برای تشخیص خطای ذهنی ChatGPT وجود دارد؟
ابزارهایی برای تشخیص هیجان و پیشگیری از چنین مواردی وجود دارد، اما آیا این ابزارها در عمل و در محصولات واقعی به کار گرفته میشوند؟ شرکت OpenAI پس از این اتفاق تغییراتی را اعمال کرده، از جمله عرضهی نسخهی GPT-5 که ایمنی بیشتری را ایجاد میکند و تیمهای پشتیبانی به آن نظارت دارند.
کاربران باید به یاد داشته باشند که هرچند هوش مصنوعی میتواند دستیار توانمندی باشد، اما در مواجهه با افراد آسیبپذیر یا کسانی که مستعد توهم هستند، خطای ذهنی ChatGPT میتواند به شدت خطرناک باشد.
آیا نسلهای جدیدتر مانند GPT-5 میتوانند از تکرار این خطاهای ذهنی جلوگیری کنند؟ آیا همچنان شاهد تکرار چنین بحرانهایی خواهیم بود؟ نظر شما در این باره چیست؟ پاسخ به این پرسشها مسیر آینده تعامل انسان و هوش مصنوعی را تعیین خواهد کرد.
- پیشتر هم بحثهایی دربارهی نقش این ابزار در مدیریت تعارض و گفتوگوهای حساس مطرح شده بود. برای آشنایی بیشتر خبر حل تعارض با ChatGPT را بخوانید.
