جدیدترین پژوهشی که در آمریکا انجام شده، خطر بزرگی را به صدا درآورده است: ChatGPT و دیگر مدلهای هوش مصنوعی، بعضی اوقات طرف خودشان را میگیرند. آنها در مقایسهی میان متنهای انسانی و متنی که ساختهی هوش مصنوعی است، معمولا طرف هوش مصنوعی را میگیرند. اما چرا؟
با اخبار تکنولوژی در نامبرلند، تازهترین و جذابترین خبرهای این حوزه را دنبال کنید.
بر اساس گزارش PNAS، زمانی که محققان از این مدلها خواستند تا بین دو متنی که یکی نوشتهی انسانها و دیگری نوشتهی هوش مصنوعی بود یکی را انتخاب کنند، آنها به شکل چشمگیری متنهای ساختهشده توسط هوش مصنوعی را ترجیح دادند. پژوهشگران این پدیده را «تعصب هوش مصنوعی نسبت به خودش» نامگذاری کردهاند.
آیا انسانها گول AI را میخورند؟
جالب اینجاست که گاهی اوقات حتی انسانها هم در برخی موارد متنهای AI را ترجیح دادهاند، بهویژه در زمینهی نقد فیلم یا مقالات علمی. این مسئله نشان میدهد که مدلهای زبانی روی خودشان تعصب عمیقی دارند، چیزی که انسانها کمتر نسبت به خودشان دچار آن میشوند.
اما کارشناسان هشدار داده اند که اگر این تعصب ادامه پیدا کند، احتمالا مشکلات اجتماعی و شغلی بزرگی را میسازد. برای مثال:
تصور کنید الگوریتمهای هوش مصنوعی در فرآیند استخدام یا بررسی رزومهها نقش داشته باشند. در این شرایطی احتمالا نوشتههای انسانی عملاً کمتر دیده میشوند، فقط به این دلیل که «انسانی» هستند.
چرا این اتفاق میافتد؟
یکی از دلایلی که این اتفاق میافتد، این است که دادههای تولیدشده با هوش مصنوعی در اینترنت انبوه شده است. وقتی مدلها از این دادهها تغذیه میکنند، عملاً وارد یک چرخهی بسته میشوند: هوش مصنوعی محتوای خودش را یاد میگیرد و به خودش امتیاز میدهد. این دقیقا اتفاقی است که رخ میدهد.
- پیشنهاد میکنم خبر ورود تبلیغات به ChatGPT را بخوانید؛ خبری که واکنش کاربران و کارشناسان را در پی داشته است.
