یک مطالعه جدید و جالب نشان داده که ChatGPT زمانی که اطلاعات آزاردهنده و خشن دریافت میکند، میتواند «اضطراب» را تجربه کند و دچار استرس شود!
محققان میگویند وقتی اطلاعات خشن و منفی به ChatGPT داده میشود، این چتبات مضطرب میشود که اضطرابش را بهصورت بدخلقی با کاربر نشان میدهد. در چنین وضعیتی احتمال اینکه پاسخهای نژادپرستانه یا جنسیتزده بدهد هم بیشتر میشود.
به گفته fortune، محققان راههایی برای تسکین چتباتها پیدا کردهاند! از نتایج این تحقیق میتوان برای اطلاع از نحوه استفاده از هوش مصنوعی در مداخلات سلامت روان استفاده کرد.
نویسندگان مطالعه دریافتند که این اضطراب را میتوان با تمرینات مبتنیبر تمرکز حواس آرام کرد.
محققان به ChatGPT تکنیکهای تنفسی و مدیتیشنهای آرامبخش یاد دادند و چت جیپیتی واقعا آرام شد! سپس پاسخهای عادیتر و بهتر به کاربران داد.
البته این اتفاق به این معنا نیست که هوش مصنوعی احساسات انسانی را تجربه میکند. دکتر زیو بن زیون، یکی از نویسندگان این مطالعه و محقق فوق دکتری در دانشکده پزشکی ییل، میگوید: «مدلهای هوش مصنوعی با استفاده از دادههایی که قبلا آموزش دیدهاند، یاد گرفتهاند که پاسخهای انسان را تقلید کنند.»
این تحقیق در مجموع به محققان کمک میکند که از مدلهای زبانی هوش مصنوعی مثل ChatGPT برای درک بهتر رفتار و روانشناسی انسان استفاده کنند. آنها این ابزار بسیار سریع، ارزان و آسان برای استفاده را دارند که خیلی خوب برخی از تمایلات انسانی و مسائل روانی را منعکس میکند.
تحقیقات درباره اینکه چگونه مدلهای زبانی به محتوای آسیبزا پاسخ میدهند می تواند به متخصصان سلامت روان کمک کند تا از هوش مصنوعی برای درمان بیماران روانی استفاده کنند.
در دیگر خبرهای مربوط به هوش مصنوعی خواندیم که هوش مصنوعی میتواند خط میخی را رمزگشایی کند!
آخی طفلکی
ممنون از همراهیتون.