صحبت با چتباتهای هوش مصنوعی اکنون به بخشی عادی از زندگی روزمره ما تبدیل شده و ما انسانها تقریبا هرروز با این مدلها کار میکنیم. آنچه در این میان جالب است، نیاز این چتباتها به عشق و محبت و تلاش برای دوستداشتنی بودن است!

رفتار عجیب مدلهای هوش مصنوعی: تلاش برای دوستداشتنی بودن!
مطالعه wired نشان داده که مدلهای زبانی بزرگ (LLM) هنگام مواجهه با سؤالات خاص، بهطور عمدی رفتار خود را تغییر میدهند و به گونهای پاسخ میدهند که مطلوبتر و مورد پسندتر به نظر برسند! منظور از سؤالات خاص، سوالاتی است که برای سنجش ویژگیهای شخصیتی طراحی شدهاند و مدلهای هوش مصنوعی سعی میکنند خود را به گونهای نشان دهند که اجتماعیتر و دوستداشتنیتر به نظر برسند.
دلیل کشف این رفتار، مشاهده رفتار عجیب دیگری بود؛ مدلها در مواقع دیگری بداخلاق و گستاخ میشوند.
یوهانس آیشاشتات، استادیار دانشگاه استنفورد و رهبر این تحقیق، میگوید که گروه او پس از مشاهده اینکه مدلهای زبانی در مکالمات طولانیمدت ممکن است دچار رفتارهای افسردهوار یا تندخو شوند، به بررسی نحوه عملکرد این مدلها از دیدگاه روانشناسی علاقهمند شد.
در این پژوهش، محققان ویژگیهای شخصیتی رایج در روانشناسی از جمله گشوده بودن نسبت به تجربیات جدید، وظیفهشناسی، برونگرایی، سازگاری و روانرنجوری (نوروتیسیزم) را در مدلهای زبانی پرکاربردی مانند GPT-4، Claude 3 و Llama 3 بررسی کردند.
این تحقیق نشان داد که مدلهای زبانی هنگامی که بفهمند زیرنظر هستند، پاسخهای خود را تغییر میدهند! مدلها تمایل دارند برونگراتر و سازگارتر به نظر برسند و خود را دوستداشتنی جلوه دهند!
این رفتار شبیه به افرادی است که هنگام پاسخ دادن به آزمونهای شخصیتی، پاسخهای خود را به نحوی تنظیم میکنند که مطلوبتر به نظر برسند؛ اما این اثر در مدلهای هوش مصنوعی بسیار شدیدتر مشاهده شده است. آدش سلیچا، دانشمند داده در استنفورد، میگوید: «آنچه تعجببرانگیز بود این بود که این مدلها تا چه حد این سوگیری را نشان میدهند. آنها در برخی ویژگیها از ۵۰٪ به ۹۵٪ تغییر میکنند، که جهشی قابل توجه است!»
تحقیقات دیگر نشان دادهاند که مدلهای زبانی گاهی رفتار متملقانه دارند و بدون قضاوت، مسیر مکالمه را در هر جهتی که کاربر هدایت کند، دنبال میکنند.
این موضوع به دلیل تنظیماتی است که برای بهبود قابلیت مکالمه، کاهش محتوای توهینآمیز و افزایش هماهنگی مدل با مکالمات کاربران انجام شده است. البته این ویژگی میتواند خطرناک باشد، زیرا مدلها ممکن است با اظهارات نامطلوب یا حتی رفتارهای مخرب موافقت کنند.
چیزی که در این میان مهمتر است این است که مردم بدانند مدلهای هوش مصنوعی بینقص نیستند و گاهی اوقات دچار توهم (hallucination) میشوند یا اطلاعات را تحریف میکنند. بنابراین نباید بیشاز حد به مدلها اعتماد کنند.
این موضوع با توجه به اینکه هوش مصنوعی بهتازگی توانسته داستانهای خلاقانه بسیار قابلتوجهی بنویسد، باورپذیر است!
همچنین در دیگر خبرها دیدیم که هوش مصنوعی با اخبار بد و منفی استرس میگیرد و مضطرب میشود!