تا پیش از این تصور میشد که مدلهای هوش مصنوعی، فقط یکسری مدل زبانی آموزشدیده با دیتا هستند که از خودشان عقل و فهم ندارند؛ اما تحقیقات جدید این موضوع را رد میکند!
مطالعه جدیدی که ژورنال Science Advances منتشر شده، پدیده عجیب و جالبی را نشان میدهد: مدلهای هوش مصنوعی مثل ChatGPT میتوانند پس از ارتباط برقرار کردن با یکدیگر، برای خودشان یک جامعه هماهنگ با قانونها و هنجارهای اجتماعی بسازند؛ درست مثل ما انسانها!
رفتار هوش مصنوعی، شبیه انسانها شده است
این تحقیق که با همکاری دانشگاه City St George’s لندن و دانشگاه IT کپنهاگ انجام شده، نشان میدهد وقتی مدلهای زبانی بزرگ (LLM) در قالب گروه با یکدیگر گفتوگو میکنند، دیگر الگوهای ازپیشتعریفشده را تکرار نمیکنند، بلکه بهصورت خودجوش و بدون دخالت انسان برای خودشان هنجارهای اجتماعی میسازند. چیزی که بین ما انسانها به نام «فرهنگ» شناخته میشود و از طریق تعاملهای انسانی ساخته میشود.
آریل فلینت اَشری، پژوهشگر دکتری در City St George’s و نویسنده اصلی این تحقیق، میگوید:
«تابهحال پژوهشهایی که انجام شده، مدلهای هوش مصنوعی را به شکل انفرادی و تنها بررسی کردهاند؛ ما اینبار تصمیم گرفتیم مجموعهای از مدلها را در تعامل باهم بررسی کنیم. ما میخواستیم بدانیم آیا مدلها میتوانند رفتارشان را باهم هماهنگ کنند؟»
در این تحقیق، پژوهشگران یک بازی راه انداختند؛ در این بازی دو مدل هوش مصنوعی بهصورت تصادفی باهم جفت میشدند و باید از بین مجموعهای از گزینهها (مثل حروف یا رشتههای تصادفی) یک «نام» را انتخاب میکردند. اگر هر دو عامل نام یکسانی را انتخاب میکردند، پاداش میگرفتند و در غیر این صورت جریمه میشدند.
از طرفی مدلها تنها به حافظهای محدود از تعاملات اخیر خود دسترسی داشتند و نمیدانستند که بخشی از یک گروه هستند.
با وجود این محدودیتها، مدلها توانستند به یک الگوی نامگذاری مشترک برسند و بدون اینکه باهم هماهنگ کرده باشند یک راهحل تشکیل دهند. دقیقا درست مثل وضعیتی که در جامعه انسانها وجود دارد!
جالبتر اینکه گاهی اوقات گروهی از مدلهای هوش مصنوعی توانستند روی نظر دیگر مدلها تاثیر بگذارند و آنها را به سمت نظر خود هدایت کنند؛ رفتاری که بین انسانها هم مشاهده میشود.
این تحقیق نتیجه بسیار مهمی را نشان میدهد، اینکه مدلهای هوش مصنوعی توانایی این را دارند که بدون دخالت انسان، با یکدیگر هماهنگ شوند و حتی ممکن است باهم هدفگذاری کنند و در جهت اهدافشان تلاش کنند. ممکن است ما انسانها روزی در برابر هوش مصنوعی ضعیف و بیدفاع شویم و وظیفه محققان است که از حالا ایمنی را رعایت کنند.
پیش از این هم درباره پدیده هوش مصنوعی انسانگونه در خبرها خوانده بودیم، مفهومی که به مدلهای دارای فهم و درک اشاره میکند.