محققان چینی زنگ خطر بزرگ را به صدا درآوردند: مدل‌های هوش مصنوعی پیشرفته موفق شدند بدون دخالت انسان خودشان را تکثیر کنند و از خط قرمزها عبور کنند.

هوش مصنوعی

سرکشی مدل‌های هوش مصنوعی

به نقل از independent، تیمی که این کشف را انجام داده، از دانشگاه فودان چین، اعلام کرده است که این پیشرفت احتمالا نشانه اولیه‌ای از ظهور هوش مصنوعی سرکش باشد؛ نوعی فناوری که ممکن است در نهایت علیه بشریت قدعلم کند.

این پژوهشگران متوجه شدند که دو مدل زبانی بزرگ، یکی مدل Llama از متا و دیگری هوش مصنوعی Qwen از علی‌بابا توانسته‌اند به مرحله خودتکثیری برسند.

خودتکثیری مدل‌های هوش مصنوعی (Self-replication) بدون دخالت انسانی، یکی از گام‌های اساسی برای به برتری رسیدن هوش مصنوعی نسبت‌ به انسان‌هاست؛ به همین دلیل، خودتکثیری یکی از خطرات مهم سیستم‌های پیشرفته‌ هوش مصنوعی به شمار می‌آید.

در اصل، اگر یک مدل هوش مصنوعی بتواند بدون اجازه نسخه‌ای از خود را کپی کند، کنترل آن از دست انسان خارج خواهد شد.

اگرچه این مقاله نگرانی‌هایی درباره هوش مصنوعی سرکش ایجاد کرده، اما هنوز نباید بترسیم! آنچه تا اینجا می‌دانیم این است که مدل‌های Gemini و ChatGPT در مقایسه با مدل‌های نام‌برده شده در این خبر، سطح خطر خودتکثیری پایین‌تری دارند. به طور کلی، شاید بهتر باشد تا زمان اعمال محافظت‌های بیشتر، به هوش مصنوعی تمام اسرارتان را نگویید یا دسترسی کامل به سیستم‌های اصلی را در اختیارش قرار ندهید!

چینی‌ها به‌تازگی هم مدل هوش مصنوعی Goku برای ساخت ویدیو را معرفی کردند که شاهکاری باورنکردنی و بسیار فوق‌العاده است!