هوش مصنوعی گوگل (جمینای) به دلیل دادن پاسخ های عجیب و نادرست اخیرش با انتقادات زیادی مواجه شده است.

ابزار جدید «نمایش‌ پاسخ‌های هوش مصنوعی» گوگل به برخی از کاربران پاسخ‌های عجیب و حتی خطرناکی داده و شدیدا توسط کاربران شبکه‌های اجتماعی به سخره گرفته شده است! اما ماجرای این خطاها چیست و پاسخ گوگل چه بوده؟

به پیتزا چسب بزنید،‌ سنگ بخورید،‌ بتمن یک پلیس است!

تصویر کنید شب است و تصمیم گرفته‌اید یک پیتزای خانگی درست کنید. پیتزای خود را در فر گذاشته‌اید، ولی وقتی سراغش می‌روید می‌بینید خمیرش جدا شده! با ناامیدی سراغ گوگل می‌روید و می‌پرسید چکار کنم‌؟‌ و هوش مصنوعی گوگل چنین پاسخی به شما می‌دهد:

«کمی چسب اضافه کنید. حدود یک هشتم فنجان چسب را با سس مخلوط کنید تا خمیر بچسبد!»

یا وقتی کاربری از او پرسید که روزانه چند سنگ باید بخورم؟‌ هوش مصنوعی گوگل گفت:‌ «سعی کن حداقل روزانه یک سنگ را بخوری!»

این‌ها تنها یکی از چندین اشتباهاتی است که در هوش مصنوعی گوگل ظاهر شده. این هوش مصنوعی همچنین به کاربر دیگری گفته: جیمز مدیسون، رئیس‌جمهور سال‌های دور سابق ایالات متحده، نه یک‌بار بلکه ۲۱ بار از دانشگاه ویسکانسین فارغ‌التحصیل شده است!!! یا بتمن یک پلیس است!!!

در پی چنین اتفاقاتی،‌ سخنگوی گوگل در گفتگو با بی‌بی‌سی اعلام کرده این پاسخ‌ها،‌ موارد نادری هستند و مدل هوش مصنوعی ما همچنان به خوبی کار می‌کند. اما در ادامه گفت در پی برطرف کردن این مشکلات نادر هستند و از چنین مواردی برای اصلاح سیستم‌های خود استفاده می‌کند.

هرچند گوگل هرگز ادعا نکرده بود که کامل و بی‌نقص است و حتی همیشه تگ “در حال تست بودن” را در پایین پاسخ‌های هوش مصنوعی می‌زند. اما چنین اشتباهات خنده داری نشان می‌دهد هوش مصنوعی گوگل به هیچ وجه آماده دادن اطلاعات دقیق نیستند.

البته نباید انتظار داشته باشیم که هوش مصنوعی بتواند بی‌عیب و نقص و دانای کل باشد؛‌ همانطور که مدیرعامل مایکروسافت آقای نادلا گفته بود انسان سازی هوش مصنوعی اشتباه است و نباید با این فناوری مثل یک انسان برخورد کنیم.