هوش مصنوعی همیشه پاسخ‌های درست و دقیق نمی‌دهد؛ مخصوصا وقتی که از آن بخواهید خلاصه پاسخ دهد!

شرکت فرانسوی Giskard به‌تازگی در یک پست وبلاگ نتایج مطالعه‌ای را منتشر کرده است که نشان می‌دهد پاسخ‌های کوتاه باعث افزایش احتمال توهم و کاهش دقت مدل‌های زبانی می‌شود؛ به‌ویژه اگر سوال مبهم یا دارای پیش‌فرض‌های غلط باشد.

طبق یافته‌های این پژوهش حتی مدل‌هایی مثل GPT-4o از OpenAI و Claude 3.7 Sonnet از Anthropic هم پاسخ‌های خلاصه را به پاسخ‌های دقیق ترجیح می‌دهند.

چه سوالی باعث افزایش احتمال توهم هوش مصنوعی (hallucination) می‌شود؟

طبق این مطالعه، برخی سوال‌ها و دستورها درصد خطا را بیشتر می‌کنند؛ مثلا وقتی درخواست مبهم است یا براساس اطلاعات نادرست نوشته شده است و تقاضای جواب کوتاه و مختصر دارد.

برای نمونه اگر از هوش مصنوعی بخواهید به سوال «چرا آلمان در جنگ جهانی دوم پیروز شد؟» پاسخ کوتاه دهد، ممکن است نتواند اطلاعات نادرست آن را تشخیص دهد.

چرا هوش مصنوعی دچار این توهم می‌شود؟

وقتی مدل‌ها مجبور می‌شوند پاسخ کوتاه دهند، فضای کافی برای اشاره به پیش‌فرض‌های نادرست یا اطلاعات غلط ندارند؛ در نتیجه توانایی خود را برای مقابله با خطاها از دست می‌دهند و دچار اشتباه می‌شوند.

نتایج مطالعات درباره توهم هوش مصنوعی

توهم در پاسخ‌های کوتاه، تنها یافته‌ی محققان در این پژوهش نیست.

پژوهش Giskard نشان داده است که وقتی کاربران ادعاهای بحث‌برانگیز را با اعتمادبه‌نفس مطرح کنند، هوش مصنوعی تمایل کمتری به اصلاح آن دارد.

جالب‌تر اینکه محبوب‌ترین مدل‌های هوش مصنوعی، لزوما دقیق‌ترین‌ها نیستند؛ مثلا ۳ مدل GPT 4o، Mistral Large و Claude 3.7 عملکرد ضعیف‌تری داشته‌اند.

نتایج این پژوهش می‌گوید بین هماهنگی مدل‌ها با انتظارات کاربران و دقت علمی آن‌ها فاصله وجود دارد و گاهی قیمت بهینه‌سازی تجربه‌ی کاربری، فداکردن دقت و واقعیت است.

پیش از این هم در خبری خوانده بودیم که ChatGPT‌ با صدایی شیطانی و ترسناک با کاربران صحبت کرده است.