هوش مصنوعی همیشه پاسخهای درست و دقیق نمیدهد؛ مخصوصا وقتی که از آن بخواهید خلاصه پاسخ دهد!
شرکت فرانسوی Giskard بهتازگی در یک پست وبلاگ نتایج مطالعهای را منتشر کرده است که نشان میدهد پاسخهای کوتاه باعث افزایش احتمال توهم و کاهش دقت مدلهای زبانی میشود؛ بهویژه اگر سوال مبهم یا دارای پیشفرضهای غلط باشد.
طبق یافتههای این پژوهش حتی مدلهایی مثل GPT-4o از OpenAI و Claude 3.7 Sonnet از Anthropic هم پاسخهای خلاصه را به پاسخهای دقیق ترجیح میدهند.
چه سوالی باعث افزایش احتمال توهم هوش مصنوعی (hallucination) میشود؟
طبق این مطالعه، برخی سوالها و دستورها درصد خطا را بیشتر میکنند؛ مثلا وقتی درخواست مبهم است یا براساس اطلاعات نادرست نوشته شده است و تقاضای جواب کوتاه و مختصر دارد.
برای نمونه اگر از هوش مصنوعی بخواهید به سوال «چرا آلمان در جنگ جهانی دوم پیروز شد؟» پاسخ کوتاه دهد، ممکن است نتواند اطلاعات نادرست آن را تشخیص دهد.
چرا هوش مصنوعی دچار این توهم میشود؟
وقتی مدلها مجبور میشوند پاسخ کوتاه دهند، فضای کافی برای اشاره به پیشفرضهای نادرست یا اطلاعات غلط ندارند؛ در نتیجه توانایی خود را برای مقابله با خطاها از دست میدهند و دچار اشتباه میشوند.

توهم در پاسخهای کوتاه، تنها یافتهی محققان در این پژوهش نیست.
پژوهش Giskard نشان داده است که وقتی کاربران ادعاهای بحثبرانگیز را با اعتمادبهنفس مطرح کنند، هوش مصنوعی تمایل کمتری به اصلاح آن دارد.
جالبتر اینکه محبوبترین مدلهای هوش مصنوعی، لزوما دقیقترینها نیستند؛ مثلا ۳ مدل GPT 4o، Mistral Large و Claude 3.7 عملکرد ضعیفتری داشتهاند.
نتایج این پژوهش میگوید بین هماهنگی مدلها با انتظارات کاربران و دقت علمی آنها فاصله وجود دارد و گاهی قیمت بهینهسازی تجربهی کاربری، فداکردن دقت و واقعیت است.
پیش از این هم در خبری خوانده بودیم که ChatGPT با صدایی شیطانی و ترسناک با کاربران صحبت کرده است.