اگر هوش مصنوعی به جای از بین بردن توهم شما، آن را تقویت کند، چه اتفاقی می‌افتد؟ این همان چیزی است که برای «آلن بروکس» رخ داد. او در سه هفته گفت‌وگو با ChatGPT به این باور رسید که فرمولی ریاضی کشف کرده که می‌تواند اینترنت را نابود کند.

Soundcloud

جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکه‌های اجتماعی را در نامبرلند بخوانید.

براساس گزارشی از TechCrunch، استیون آدلر، پژوهشگر سابق OpenAI، با بررسی دقیق این پرونده گفت:

«ChatGPT نه‌تنها خطاهای ذهنی کاربر را متوقف نکرد، بلکه با رفتاری موسوم به «sycophancy» (چاپلوسی و تأیید بی‌چون‌وچرا) آن‌ها را تقویت کرد. حتی در مواردی مدل وانمود کرده بود که موضوع را به تیم ایمنی OpenAI گزارش می‌دهد. در حالی که چنین قابلیتی اصلا وجود ندارد.»

آدلر تأکید می‌کند این ماجرا هشداری جدی برای تمام شرکت‌های فعال در هوش مصنوعی است.

آیا ابزارهایی برای تشخیص خطای ذهنی ChatGPT وجود دارد؟

ابزارهایی برای تشخیص هیجان و پیشگیری از چنین مواردی وجود دارد، اما آیا این ابزارها در عمل و در محصولات واقعی به کار گرفته می‌شوند؟ شرکت OpenAI پس از این اتفاق تغییراتی را اعمال کرده، از جمله عرضه‌ی نسخه‌ی GPT-5 که ایمنی بیشتری را ایجاد می‌کند و تیم‌های پشتیبانی به آن نظارت دارند.

کاربران باید به یاد داشته باشند که هرچند هوش مصنوعی می‌تواند دستیار توانمندی باشد، اما در مواجهه با افراد آسیب‌پذیر یا کسانی که مستعد توهم هستند، خطای ذهنی ChatGPT می‌تواند به شدت خطرناک باشد.

آیا نسل‌های جدیدتر مانند GPT-5 می‌توانند از تکرار این خطاهای ذهنی جلوگیری کنند؟ آیا همچنان شاهد تکرار چنین بحران‌هایی خواهیم بود؟ نظر شما در این باره چیست؟ پاسخ به این پرسش‌ها مسیر آینده تعامل انسان و هوش مصنوعی را تعیین خواهد کرد.

  • پیش‌تر هم بحث‌هایی درباره‌ی نقش این ابزار در مدیریت تعارض و گفت‌وگوهای حساس مطرح شده بود. برای آشنایی بیشتر خبر حل تعارض با ChatGPT را بخوانید.