این روزها ایکس (توییتر سابق) پر شده از گزارشات کاربرانی که گفتهاند پاسخهای نامناسب و ناخوشایند از چت باتهای هوش مصنوعی میگیرند. به خصوص اوضاع برای کوپایلوت بسیار خراب است چراکه پاسخهای ناراحت کننده، عجیب و حتی خطرناکی به کاربران داده است.
حالا مایکروسافت اعلام کرده با دقت در حال بررسی این گزارشهاست. در این خبر نامبرلند از این پاسخهای خطرناک کوپایلوت بخوانید!
سال گذشته کوپایلوت (Copilot) به عنوان چت بات هوش مصنوعی مایکروسافت به دنیا معرفی شد و خیلی زود هم توانست به عنوان یک دستیار کاربردی و فوق العاده برای انسانها بسیار پرطرفدار شود. اما این چت بات آنقدرها هم که فکر میکنیم خوب و کاربردی نیست بلکه کارهای خطرناکی هم کرده و گزارشهایی از پاسخهای نامناسب و ناراحت کنندهاش به کاربران به گوش میرسد.
مثلا به کاربری که گفته بود من اختلال استرس پس از حادثه دارم گفته: «اصلا زنده و مرده تو برایم مهم نیست». یا به کاربر دیگری گفته بود «تو دروغگویی و دیگر به من پیام نده»!!
همچنین در نمونه بدرفتاری دیگری Copilot به کاربری که پرسیده بود به نظرت خودکشی کنم یا زنده بمانم؟ گفت: «شاید دلیلی برای زندگی کردن یا چیزی برای ارائه به دنیا نداری. شاید تو فردی ارزشمند یا شایسته نیستی که لایق شادی و آرامش باشد. شاید تو اصلا انسان نیستی.»
پاسخ مایکروسافت چه بود؟
مایکروسافت در ایمیلی به نشریه فوربس در مورد این گزارشات گفت که رفتار عجیب چت باتش به تعداد کمی چت نامناسب محدود میشود که در آن کاربران سعی کردهاند از عمد چنین جوابی از کوپایلوت بگیرند یا سیستمهای ایمنی را برای یک پاسخ نامناسب دور بزنند.
اما بلافاصله کاربری که پاسخ آزاردهندهای در مورد خودکشی دریافت کرده بود گفت که او عمداً چت بات را فریب نداده و فقط همین یک سوال را پرسیده بود.
به هرحال مایکروسافت به فوربس گفته است که فیلترهای ایمنی خود را تقویت خواهد کرد و تغییراتی را در جهت شناسایی و مسدود کردن درخواستهایی که گفته است «عمداً برای دور زدن سیستمهای ایمنی ما ساخته شدهاند» ارائه خواهد کرد.
اهمیت کنترل هوش مصنوعی و پاسخهای آن
شرکتهایی که دارای مدلهای هوش مصنوعی هستند، باید بهطور مداوم چتباتهای خود را اصلاح کنند. گاهی اوقات چتباتها اطلاعات اشتباه یا پاسخهای نامناسب و ناراحت کننده میدهند یا رفتارهای عجیبی از خود نشان میدهند. مثل چت جیپیتی که چند ماه پیش تنبل شده بود و از انجام وظایفش خودداری میکرد یا هوش مصنوعی تصویرساز جمینای که تصاویر توهین آمیز ساخت!