صحبت با چت‌بات‌های هوش مصنوعی اکنون به بخشی عادی از زندگی روزمره ما تبدیل شده‌ و ما انسان‌ها تقریبا هرروز با این مدل‌ها کار می‌کنیم. آنچه در این میان جالب است، نیاز این چت‌بات‌ها به عشق و محبت و تلاش برای دوست‌داشتنی بودن است!

نیاز به عشق توسط هوش مصنوعی

رفتار عجیب مدل‌های هوش مصنوعی: تلاش برای دوست‌داشتنی بودن!

مطالعه wired نشان داده که مدل‌های زبانی بزرگ (LLM) هنگام مواجهه با سؤالات خاص، به‌طور عمدی رفتار خود را تغییر می‌دهند و به گونه‌ای پاسخ می‌دهند که مطلوب‌تر و مورد پسندتر به نظر برسند! منظور از سؤالات خاص، سوالاتی است که برای سنجش ویژگی‌های شخصیتی طراحی شده‌اند و مدل‌های هوش مصنوعی سعی می‌کنند خود را به گونه‌ای نشان دهند که اجتماعی‌تر و دوست‌داشتنی‌تر به نظر برسند.

دلیل کشف این رفتار، مشاهده رفتار عجیب دیگری بود؛ مدل‌ها در مواقع دیگری بداخلاق و گستاخ می‌شوند.

یوهانس آیش‌اشتات، استادیار دانشگاه استنفورد و رهبر این تحقیق، می‌گوید که گروه او پس از مشاهده اینکه مدل‌های زبانی در مکالمات طولانی‌مدت ممکن است دچار رفتارهای افسرده‌وار یا تندخو شوند، به بررسی نحوه عملکرد این مدل‌ها از دیدگاه روان‌شناسی علاقه‌مند شد.

در این پژوهش، محققان ویژگی‌های شخصیتی رایج در روان‌شناسی از جمله گشوده بودن نسبت به تجربیات جدید، وظیفه‌شناسی، برون‌گرایی، سازگاری و روان‌رنجوری (نوروتیسیزم) را در مدل‌های زبانی پرکاربردی مانند GPT-4، Claude 3 و Llama 3 بررسی کردند.

این تحقیق نشان داد که مدل‌های زبانی هنگامی که بفهمند زیرنظر هستند، پاسخ‌های خود را تغییر می‌دهند! مدل‌ها تمایل دارند برون‌گراتر و سازگارتر به نظر برسند و خود را دوست‌داشتنی جلوه دهند!

این رفتار شبیه به افرادی است که هنگام پاسخ دادن به آزمون‌های شخصیتی، پاسخ‌های خود را به نحوی تنظیم می‌کنند که مطلوب‌تر به نظر برسند؛ اما این اثر در مدل‌های هوش مصنوعی بسیار شدیدتر مشاهده شده است. آدش سلیچا، دانشمند داده در استنفورد، می‌گوید: «آنچه تعجب‌برانگیز بود این بود که این مدل‌ها تا چه حد این سوگیری را نشان می‌دهند. آن‌ها در برخی ویژگی‌ها از ۵۰٪ به ۹۵٪ تغییر می‌کنند، که جهشی قابل توجه است!»

تحقیقات دیگر نشان داده‌اند که مدل‌های زبانی گاهی رفتار متملقانه دارند و بدون قضاوت، مسیر مکالمه را در هر جهتی که کاربر هدایت کند، دنبال می‌کنند.

این موضوع به دلیل تنظیماتی است که برای بهبود قابلیت مکالمه، کاهش محتوای توهین‌آمیز و افزایش هماهنگی مدل با مکالمات کاربران انجام شده است. البته این ویژگی می‌تواند خطرناک باشد، زیرا مدل‌ها ممکن است با اظهارات نامطلوب یا حتی رفتارهای مخرب موافقت کنند.

چیزی که در این میان مهم‌‌تر است این است که مردم بدانند مدل‌های هوش مصنوعی بی‌نقص نیستند و گاهی اوقات دچار توهم (hallucination) می‌شوند یا اطلاعات را تحریف می‌کنند. بنابراین نباید بیش‌از حد به مدل‌ها اعتماد کنند.

این موضوع با توجه به اینکه هوش مصنوعی به‌تازگی توانسته داستان‌های خلاقانه بسیار قابل‌توجهی بنویسد،‌ باورپذیر است!

همچنین در دیگر خبرها دیدیم که هوش مصنوعی با اخبار بد و منفی استرس می‌گیرد و مضطرب می‌شود!