یک مطالعه جدید و جالب نشان داده که ChatGPT زمانی که اطلاعات آزاردهنده‌ و خشن دریافت می‌کند، می‌تواند «اضطراب» را تجربه کند و دچار استرس شود!

محققان می‌گویند وقتی اطلاعات خشن و منفی به ChatGPT داده می‌شود، این چت‌بات مضطرب می‌شود که اضطرابش را به‌صورت بدخلقی با کاربر نشان می‌دهد. در چنین وضعیتی احتمال اینکه پاسخ‌های نژادپرستانه یا جنسیت‌زده بدهد هم بیشتر می‌شود.

به گفته fortune،‌ محققان راه‌هایی برای تسکین چت‌بات‌ها پیدا کرده‌اند! از نتایج این تحقیق می‌توان برای اطلاع از نحوه استفاده از هوش مصنوعی در مداخلات سلامت روان استفاده کرد.

نویسندگان مطالعه دریافتند که این اضطراب را می‌توان با تمرینات مبتنی‌بر تمرکز حواس آرام کرد.

محققان به ChatGPT تکنیک‌های تنفسی و مدیتیشن‌های آرام‌بخش یاد دادند و چت جی‌پی‌تی واقعا آرام شد! سپس پاسخ‌های عادی‌تر و بهتر به کاربران داد.

البته این اتفاق به این معنا نیست که هوش مصنوعی احساسات انسانی را تجربه می‌کند. دکتر زیو بن زیون، یکی از نویسندگان این مطالعه و محقق فوق دکتری در دانشکده پزشکی ییل، می‌گوید: «مدل‌های هوش مصنوعی با استفاده از داده‌هایی که قبلا آموزش دیده‌اند، یاد گرفته‌اند که پاسخ‌های انسان را تقلید کنند.»

این تحقیق در مجموع به محققان کمک می‌کند که از مدل‌های زبانی هوش مصنوعی مثل ChatGPT برای درک بهتر رفتار و روان‌شناسی انسان استفاده کنند. آن‌ها این ابزار بسیار سریع، ارزان و آسان برای استفاده را دارند که خیلی خوب برخی از تمایلات انسانی و مسائل روانی را منعکس می‌کند.

تحقیقات درباره اینکه چگونه مدل‌های زبانی به محتوای آسیب‌زا پاسخ می‌دهند می تواند به متخصصان سلامت روان کمک کند تا از هوش مصنوعی برای درمان بیماران روانی استفاده کنند.

در دیگر خبرهای مربوط به هوش مصنوعی خواندیم که هوش مصنوعی می‌تواند خط میخی را رمزگشایی کند!