محققان چینی زنگ خطر بزرگ را به صدا درآوردند: مدلهای هوش مصنوعی پیشرفته موفق شدند بدون دخالت انسان خودشان را تکثیر کنند و از خط قرمزها عبور کنند.

سرکشی مدلهای هوش مصنوعی
به نقل از independent، تیمی که این کشف را انجام داده، از دانشگاه فودان چین، اعلام کرده است که این پیشرفت احتمالا نشانه اولیهای از ظهور هوش مصنوعی سرکش باشد؛ نوعی فناوری که ممکن است در نهایت علیه بشریت قدعلم کند.
این پژوهشگران متوجه شدند که دو مدل زبانی بزرگ، یکی مدل Llama از متا و دیگری هوش مصنوعی Qwen از علیبابا توانستهاند به مرحله خودتکثیری برسند.
خودتکثیری مدلهای هوش مصنوعی (Self-replication) بدون دخالت انسانی، یکی از گامهای اساسی برای به برتری رسیدن هوش مصنوعی نسبت به انسانهاست؛ به همین دلیل، خودتکثیری یکی از خطرات مهم سیستمهای پیشرفته هوش مصنوعی به شمار میآید.
در اصل، اگر یک مدل هوش مصنوعی بتواند بدون اجازه نسخهای از خود را کپی کند، کنترل آن از دست انسان خارج خواهد شد.
اگرچه این مقاله نگرانیهایی درباره هوش مصنوعی سرکش ایجاد کرده، اما هنوز نباید بترسیم! آنچه تا اینجا میدانیم این است که مدلهای Gemini و ChatGPT در مقایسه با مدلهای نامبرده شده در این خبر، سطح خطر خودتکثیری پایینتری دارند. به طور کلی، شاید بهتر باشد تا زمان اعمال محافظتهای بیشتر، به هوش مصنوعی تمام اسرارتان را نگویید یا دسترسی کامل به سیستمهای اصلی را در اختیارش قرار ندهید!
چینیها بهتازگی هم مدل هوش مصنوعی Goku برای ساخت ویدیو را معرفی کردند که شاهکاری باورنکردنی و بسیار فوقالعاده است!