جدیدترین پژوهشی که در آمریکا انجام شده، خطر بزرگی را به صدا درآورده است: ChatGPT و دیگر مدل‌های هوش مصنوعی، بعضی اوقات طرف خودشان را می‌گیرند. آن‌ها در مقایسه‌ی میان متن‌های انسانی و متنی که ساخته‌ی هوش مصنوعی است، معمولا طرف هوش مصنوعی را می‌گیرند. اما چرا؟

Soundcloud

با اخبار تکنولوژی در نامبرلند، تازه‌ترین و جذاب‌ترین خبرهای این حوزه را دنبال کنید.

بر اساس گزارش PNAS، زمانی که محققان از این مدل‌ها خواستند تا بین دو متنی که یکی نوشته‌ی انسان‌ها و دیگری نوشته‌ی هوش مصنوعی بود یکی را انتخاب کنند، آن‌ها به شکل چشمگیری متن‌های ساخته‌شده توسط هوش مصنوعی را ترجیح دادند. پژوهشگران این پدیده را «تعصب هوش مصنوعی نسبت به خودش» نام‌گذاری کرده‌اند.

آیا انسان‌ها گول AI را می‌خورند؟

جالب این‌جاست که گاهی اوقات حتی انسان‌ها هم در برخی موارد متن‌های AI را ترجیح داده‌اند، به‌ویژه در زمینه‌ی نقد فیلم یا مقالات علمی. این مسئله نشان می‌دهد که مدل‌های زبانی روی خودشان تعصب عمیقی دارند، چیزی که انسان‌ها کمتر نسبت به خودشان دچار آن می‌شوند.

اما کارشناسان هشدار داده اند که اگر این تعصب ادامه پیدا کند، احتمالا مشکلات اجتماعی و شغلی بزرگی را می‌سازد. برای مثال:

تصور کنید الگوریتم‌های هوش مصنوعی در فرآیند استخدام یا بررسی رزومه‌ها نقش داشته باشند. در این شرایطی احتمالا نوشته‌های انسانی عملاً کمتر دیده می‌شوند، فقط به این دلیل که «انسانی» هستند.

چرا این اتفاق می‌افتد؟

یکی از دلایلی که این اتفاق می‌افتد، این است که داده‌های تولیدشده با هوش مصنوعی در اینترنت انبوه شده است. وقتی مدل‌ها از این داده‌ها تغذیه می‌کنند، عملاً وارد یک چرخه‌ی بسته می‌شوند: هوش مصنوعی محتوای خودش را یاد می‌گیرد و به خودش امتیاز می‌دهد. این دقیقا اتفاقی است که رخ می‌دهد.

  • پیشنهاد می‌کنم خبر ورود تبلیغات به ChatGPT را بخوانید؛ خبری که واکنش کاربران و کارشناسان را در پی داشته است.