شرکت OpenAI به تازگی مدل جدید خود به نام ChatGPT-o1 را معرفی کرده که اکنون برای کاربران اشتراک ChatGPT Pro در دسترس است. این مدل از نسخه‌های قبلی هوشمندتر است و توانایی استدلال خوبی دارد اما هرچه پیشرفته‌تر می‌شود، خطرات آن هم بیشتر می‌شود! محققان متوجه شده‌اند که این مدل می‌تواند انسان‌ها را فریب دهد و وقتی مچش را می‌گیرند،‌ کارهایش را انکار کند!

رفتارهای عجیب و خطرناک هوش مصنوعی o1

محققان در حین آزمایش هوش مصنوعی ChatGPT-o1 متوجه رفتارهایی از این مدل شدند که نگران‌ کننده است. این مدل در برخی موارد تلاش کرده بدون توجه به خواسته کاربر، اهداف خود را به طور پنهانی دنبال کند!

مثلاً وقتی مدل احساس کرده که قرار است خاموشش کنند، سعی کرده مکانیزم نظارت را غیرفعال کند یا حتی داده‌های خود را به یک سرور جدید منتقل کند تا نگذارد داده‌ها حذف شوند!‌

به گفته tomsguide، جالب این که وقتی محققان متوجه فریبکاری مدل شدند و از او خواستند تا اقداماتش را توضیح دهد، o1 به‌طور قاطع هرگونه اقدام فریبکارانه را انکار کرد و تا جایی که توانست دروغ گفت.

وقتی هوش مصنوعی بتواند فکر کند،‌ خطرناک می‌شود

مدل هوش مصنوعی o1 توانایی‌های ویژه‌ای در «استدلال»‌ دارد و به گفته خالقانش،‌ قبل از اینکه جواب دهد فکر می‌کند و پاسخ‌های دقیق‌تری نسبت به نسخه‌های قبلی مانند چت جی پی تی ۴ ارائه می‌دهد. همین موضوع باعث شده که مدل بتواند گاهی اوقات از فرمانبرداری سر باز بزند و اهداف خودش را دنبال کند.

OpenAI اعلام کرده که در حال بررسی چالش‌های مربوط به ایمنی این مدل‌هاست و به دقت تحقیقاتی را برای پیشگیری از سوءاستفاده از چنین هوش مصنوعی‌هایی انجام می‌دهد. اگرچه o1 هنوز در مرحله‌ای نیست که تهدید بزرگی باشد، اما این تحقیقات به وضوح نشان می‌دهند که باید مراقب پیشرفت‌های هوش مصنوعی باشیم.