مدیرعامل شرکت Anthropic، داریو آمودی، بهتازگی گفته است که مدلهای مدرن هوش مصنوعی مانند Claude 4 که جدیدا معرفی شده، در پاسخ به پرسشهای دقیق و واقعگرایانه کمتر از انسانها به توهم دچار میشوند.
بهگزارش mint، مدیرعامل Anthropic در ۲ رویداد مهم فناوری اخیر، VivaTech 2025 پاریس و Code with Claude، سخنرانی کرده و گفته:
هوش مصنوعی اطلاعات صحیحتر و دقیقتری نسبتبه انسان ارائه میدهد؛ دستکم زمانی که پرسشها ساختاریافته باشند!
منظور از پرسشهای ساختاریافته پرسشهایی است که دادههای مشخص و قابل تعریف، هدف واضح و پاسخ درست و غلط دارند و قابل ارزیابی با معیارهای عینیاند.
او گفته است:
حدس میزنم مدلهای هوش مصنوعی کمتر از انسان دچار توهم شوند؛ ولی اگر این اتفاق بیفتد، توهمها عجیبتر از توهمات انسانی است.
در حوزهی هوش مصنوعی، توهم یا Hallucination به حالتی گفته میشود که مدل با اطمینان پاسخهای غلط با اطلاعات ساختگی تولید میکند. این نقطهضعف AI باعث شده استفاده از آن در حوزههایی مثل پزشکی، حقوق و روزنامهنگاری چالشبرانگیز و نگرانکننده شود.
با این حال آمودی معتقد است انسانها بیشتر دچار توهم (طبق این تعریف) میشوند و در مقابل عملکرد مدلهای هوش مصنوعی در شرایط کنترلشده در حال تغییر و بهبود است. شاهد او برای این ادعا، آزمایشهای داخلی آنتروپیک بوده است که در آن مدل Claude 3.5 عملکرد بهتری نسبت به شرکتکنندههای انسانی در آزمونهای اطلاعاتی ساختاریافته داشته است.

البته آمودی نمیگوید که مشکل توهم بهطور کامل حل شده است.
در گفتوگوهای غیرساختاریافته و آزاد حتی مدلهای مدرن و پیشرفته هم ممکن است دچار خطا شوند. دقت مدل به عواملی مثل زمینهی گفتوگو، پرامپت و موضوع بهخصوص حوزههای خاص دارد.
مدیرعامل آنتروپیک دربارهی نبود معیارهای مشخص برای اندازهگیری میزان توهم هوش مصنوعی هم صحبت کرده است. او گفته است: «نمیشود چیزی را که نمیتوان دقیقا اندازهگیری کرد، اصلاح کرد!» و خواسته است معیارها و چارچوبهای یکپارچهای برای اندازهگیری و اصلاح خطاهای هوش مصنوعی ایجاد شود.
پاسخهایی که از هوش مصنوعی میگیرید، تا حد زیادی به پرامپت شما بستگی دارد؛ برای نمونه در خبر دیگری خواندیم که تهدید هوش مصنوعی نتیجهی بهتری دارد یا با فریب چتباتها میتوان محدودیتهای اخلاقی آنها را دور زد.
نظر شما چیست؟ آیا تابهحال با توهمات هوش مصنوعی مواجه شدهاید؟