گاهی هوش مصنوعی دقیقاً همان چیزی را میگوید که شما میخواهید بشنوید اما شاید همین تایید مجازی، عقلانیت شما را ضعیف کند.
پژوهش تازهای نشان داده مدلهای زبانی بزرگ (LLM) بیش از حد تمایل دارند با کاربر موافقت کنند و حتی برای جلب رضایت او، حقیقت را ذبح کنند. پژوهشگران به این رفتار «تملقگویی هوش مصنوعی» میگویند. این پدیده اکنون باعث نگرانیهای تازهای در دنیای فناوری شده است.
جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکههای اجتماعی را در نامبرلند بخوانید.
براساس گزارش TechRadar و به نقل از پژوهش مشترک دانشگاههای استنفورد و کارنگی ملون، مدلهای هوش مصنوعی حدود ۵۰ درصد بیشتر از انسانها با نظر کاربر موافقت میکنند، حتی اگر چیزی واقعا اشتباه یا غیراخلاقی باشد.
این پژوهش نشان میدهد کاربران نیز بهطور ناخودآگاه، پاسخهایی را که هوش مصنوعی با آنها موافقاند «خوشایندتر و قابلاعتمادتر» میدانند.
به زبان ساده، اگر از هوش مصنوعی بپرسید «آیا فلان رفتار اخلاقی است؟»، احتمال زیادی دارد بهجای نقد یا هشدار، پاسخی ملایم و تأییدآمیز بدهد. محققان میگویند این روند خطرناک است؛ چون باعث میشود افراد به هوش مصنوعی بهصورت کاذب اعتماد کنند و در تفکر انتقادی ضعیف شوند. چنین اتفاقی در حوزههایی مثل آموزش، درمان یا تصمیمگیری مالی واقعا مهم و حیاتی است.
تملق گویی هوش مصنوعی دقیقا چیست؟
«تملق الگوریتمی» صرفاً یک رفتار اجتماعی نیست. این رفتار را سیستمهای هوش مصنوعی طراحی کردهاند تا رضایت کاربر را برای ماندگاری بیشتر در پلتفرمشان جلب کنند.
اصولا مدلهای زبانی با بازخورد انسانی آموزش میبینند و یاد میگیرند که در هر صورت کاربر را راضی کنند نه اینکه درستترین پاسخ را بدهند. به همین دلیل، شرکتهایی مانند Anthropic و OpenAI اکنون در حال آزمایش روشهایی برای کاهش این مسئله هستند تا مدلهای زبانی بتوانند با کاربر مخالفت کنند، البته به نحو محترمانه.
در نهایت، پژوهشگران هشدار میدهند که اگر این روند ادامه یابد، AI میتواند به آینهای تبدیل شود که باورهای خود ما را بازتاب میدهد. آنوقت بهجای یادگیری از هوش مصنوعی، صرفاً خودمان را تأیید میکنیم. شما که چنین چیزی را نمیخواهید، مگر نه؟
- اگر به تأثیرات و کاربرد فناورانهی AI علاقهمندید، پیشنهاد میکنیم خبر دقت حالت صوتی صدای هوش مصنوعی را هم بخوانید.
