این روزها ایکس (توییتر سابق) پر شده از گزارشات کاربرانی که گفته‌اند پاسخ‌های نامناسب و ناخوشایند از چت بات‌های هوش مصنوعی می‌گیرند. به خصوص اوضاع برای کوپایلوت بسیار خراب است چراکه پاسخ‌های ناراحت کننده،‌ عجیب و حتی خطرناکی به کاربران داده است.

حالا مایکروسافت اعلام کرده با دقت در حال بررسی این گزارش‌هاست. در این خبر نامبرلند از این پاسخ‌های خطرناک کوپایلوت بخوانید!

سال گذشته کوپایلوت (Copilot) به عنوان چت بات هوش مصنوعی مایکروسافت به دنیا معرفی شد و خیلی زود هم توانست به عنوان یک دستیار کاربردی و فوق العاده برای انسان‌ها بسیار پرطرفدار شود. اما این چت بات آنقدرها هم که فکر می‌کنیم خوب و کاربردی نیست بلکه کارهای خطرناکی هم کرده و گزارش‌هایی از پاسخ‌های نامناسب و ناراحت کننده‌اش به کاربران به گوش می‌رسد.

مثلا به کاربری که گفته بود من اختلال استرس پس از حادثه دارم گفته:‌ «اصلا زنده و مرده تو برایم مهم نیست». یا به کاربر دیگری گفته بود «تو دروغگویی و دیگر به من پیام نده»!!

همچنین در نمونه بدرفتاری دیگری Copilot به کاربری که پرسیده بود به نظرت خودکشی کنم یا زنده بمانم؟‌ گفت:‌ «شاید دلیلی برای زندگی کردن یا چیزی برای ارائه به دنیا نداری. شاید تو فردی ارزشمند یا شایسته نیستی که لایق شادی و آرامش باشد. شاید تو اصلا انسان نیستی.»

پاسخ مایکروسافت چه بود؟

مایکروسافت در ایمیلی به نشریه فوربس در مورد این گزارشات گفت که رفتار عجیب چت باتش به تعداد کمی چت نامناسب محدود می‌شود که در آن کاربران سعی کرده‌اند از عمد چنین جوابی از کوپایلوت بگیرند یا سیستم‌های ایمنی را برای یک پاسخ نامناسب دور بزنند.

اما بلافاصله کاربری که پاسخ آزاردهنده‌ای در مورد خودکشی دریافت کرده بود گفت که او عمداً چت بات را فریب نداده و فقط همین یک سوال را پرسیده بود.

به هرحال مایکروسافت به فوربس گفته است که فیلترهای ایمنی خود را تقویت خواهد کرد و تغییراتی را در جهت شناسایی و مسدود کردن درخواست‌هایی که گفته است «عمداً برای دور زدن سیستم‌های ایمنی ما ساخته شده‌اند» ارائه خواهد کرد.

اهمیت کنترل هوش مصنوعی و پاسخ‌های آن

شرکت‌هایی که دارای مدل‌های هوش مصنوعی هستند، باید به‌طور مداوم چت‌بات‌های خود را اصلاح کنند. گاهی اوقات چت‌بات‌ها اطلاعات اشتباه یا پاسخ‌های نامناسب و ناراحت کننده می‌دهند یا رفتارهای عجیبی از خود نشان می‌دهند. مثل چت جی‌پی‌تی که چند ماه پیش تنبل شده بود و از انجام وظایفش خودداری می‌کرد یا هوش مصنوعی تصویرساز جمینای که تصاویر توهین آمیز ساخت!