گاهی هوش مصنوعی دقیقاً همان چیزی را می‌گوید که شما می‌خواهید بشنوید اما شاید همین تایید مجازی، عقلانیت شما را ضعیف کند.

پژوهش تازه‌ای نشان داده مدل‌های زبانی بزرگ (LLM) بیش از حد تمایل دارند با کاربر موافقت کنند و حتی برای جلب رضایت او، حقیقت را ذبح کنند. پژوهشگران به این رفتار «تملق‌گویی هوش مصنوعی» می‌گویند. این پدیده اکنون باعث نگرانی‌های تازه‌ای در دنیای فناوری شده است.

Soundcloud

جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکه‌های اجتماعی را در نامبرلند بخوانید.

براساس گزارش TechRadar و به نقل از پژوهش مشترک دانشگاه‌های استنفورد و کارنگی ملون، مدل‌های هوش مصنوعی حدود ۵۰ درصد بیشتر از انسان‌ها با نظر کاربر موافقت می‌کنند، حتی اگر چیزی واقعا اشتباه یا غیراخلاقی باشد.

این پژوهش نشان می‌دهد کاربران نیز به‌طور ناخودآگاه، پاسخ‌هایی را که هوش مصنوعی با آن‌ها موافق‌اند «خوشایندتر و قابل‌اعتمادتر» می‌دانند.

به زبان ساده، اگر از هوش مصنوعی بپرسید «آیا فلان رفتار اخلاقی است؟»، احتمال زیادی دارد به‌جای نقد یا هشدار، پاسخی ملایم و تأییدآمیز بدهد. محققان می‌‌گویند این روند خطرناک است؛ چون باعث می‌شود افراد به هوش مصنوعی به‌صورت کاذب اعتماد کنند و در تفکر انتقادی ضعیف شوند. چنین اتفاقی در حوزه‌هایی مثل آموزش، درمان یا تصمیم‌گیری مالی واقعا مهم و حیاتی است.

تملق گویی هوش مصنوعی دقیقا چیست؟

«تملق الگوریتمی» صرفاً یک رفتار اجتماعی نیست. این رفتار را سیستم‌های هوش مصنوعی طراحی کرده‌اند تا رضایت کاربر را برای ماندگاری بیشتر در پلتفرمشان جلب کنند.

اصولا مدل‌های زبانی با بازخورد انسانی آموزش می‌بینند و یاد می‌گیرند که در هر صورت کاربر را راضی کنند نه این‌که درست‌ترین پاسخ را بدهند. به همین دلیل، شرکت‌هایی مانند Anthropic و OpenAI اکنون در حال آزمایش روش‌هایی برای کاهش این مسئله هستند تا مدل‌های زبانی بتوانند با کاربر مخالفت کنند، البته به نحو محترمانه.

در نهایت، پژوهشگران هشدار می‌دهند که اگر این روند ادامه یابد، AI می‌تواند به آینه‌ای تبدیل شود که باورهای خود ما را بازتاب می‌دهد. آن‌وقت به‌جای یادگیری از هوش مصنوعی، صرفاً خودمان را تأیید می‌کنیم. شما که چنین چیزی را نمی‌خواهید، مگر نه؟