هوش مصنوعی گوگل (جمینای) به دلیل دادن پاسخ های عجیب و نادرست اخیرش با انتقادات زیادی مواجه شده است.
ابزار جدید «نمایش پاسخهای هوش مصنوعی» گوگل به برخی از کاربران پاسخهای عجیب و حتی خطرناکی داده و شدیدا توسط کاربران شبکههای اجتماعی به سخره گرفته شده است! اما ماجرای این خطاها چیست و پاسخ گوگل چه بوده؟
به پیتزا چسب بزنید، سنگ بخورید، بتمن یک پلیس است!
تصویر کنید شب است و تصمیم گرفتهاید یک پیتزای خانگی درست کنید. پیتزای خود را در فر گذاشتهاید، ولی وقتی سراغش میروید میبینید خمیرش جدا شده! با ناامیدی سراغ گوگل میروید و میپرسید چکار کنم؟ و هوش مصنوعی گوگل چنین پاسخی به شما میدهد:
«کمی چسب اضافه کنید. حدود یک هشتم فنجان چسب را با سس مخلوط کنید تا خمیر بچسبد!»
یا وقتی کاربری از او پرسید که روزانه چند سنگ باید بخورم؟ هوش مصنوعی گوگل گفت: «سعی کن حداقل روزانه یک سنگ را بخوری!»
اینها تنها یکی از چندین اشتباهاتی است که در هوش مصنوعی گوگل ظاهر شده. این هوش مصنوعی همچنین به کاربر دیگری گفته: جیمز مدیسون، رئیسجمهور سالهای دور سابق ایالات متحده، نه یکبار بلکه ۲۱ بار از دانشگاه ویسکانسین فارغالتحصیل شده است!!! یا بتمن یک پلیس است!!!
در پی چنین اتفاقاتی، سخنگوی گوگل در گفتگو با بیبیسی اعلام کرده این پاسخها، موارد نادری هستند و مدل هوش مصنوعی ما همچنان به خوبی کار میکند. اما در ادامه گفت در پی برطرف کردن این مشکلات نادر هستند و از چنین مواردی برای اصلاح سیستمهای خود استفاده میکند.
هرچند گوگل هرگز ادعا نکرده بود که کامل و بینقص است و حتی همیشه تگ “در حال تست بودن” را در پایین پاسخهای هوش مصنوعی میزند. اما چنین اشتباهات خنده داری نشان میدهد هوش مصنوعی گوگل به هیچ وجه آماده دادن اطلاعات دقیق نیستند.
البته نباید انتظار داشته باشیم که هوش مصنوعی بتواند بیعیب و نقص و دانای کل باشد؛ همانطور که مدیرعامل مایکروسافت آقای نادلا گفته بود انسان سازی هوش مصنوعی اشتباه است و نباید با این فناوری مثل یک انسان برخورد کنیم.