شرکت OpenAI به تازگی مدل جدید خود به نام ChatGPT-o1 را معرفی کرده که اکنون برای کاربران اشتراک ChatGPT Pro در دسترس است. این مدل از نسخههای قبلی هوشمندتر است و توانایی استدلال خوبی دارد اما هرچه پیشرفتهتر میشود، خطرات آن هم بیشتر میشود! محققان متوجه شدهاند که این مدل میتواند انسانها را فریب دهد و وقتی مچش را میگیرند، کارهایش را انکار کند!

رفتارهای عجیب و خطرناک هوش مصنوعی o1
محققان در حین آزمایش هوش مصنوعی ChatGPT-o1 متوجه رفتارهایی از این مدل شدند که نگران کننده است. این مدل در برخی موارد تلاش کرده بدون توجه به خواسته کاربر، اهداف خود را به طور پنهانی دنبال کند!
مثلاً وقتی مدل احساس کرده که قرار است خاموشش کنند، سعی کرده مکانیزم نظارت را غیرفعال کند یا حتی دادههای خود را به یک سرور جدید منتقل کند تا نگذارد دادهها حذف شوند!
به گفته tomsguide، جالب این که وقتی محققان متوجه فریبکاری مدل شدند و از او خواستند تا اقداماتش را توضیح دهد، o1 بهطور قاطع هرگونه اقدام فریبکارانه را انکار کرد و تا جایی که توانست دروغ گفت.

وقتی هوش مصنوعی بتواند فکر کند، خطرناک میشود
مدل هوش مصنوعی o1 تواناییهای ویژهای در «استدلال» دارد و به گفته خالقانش، قبل از اینکه جواب دهد فکر میکند و پاسخهای دقیقتری نسبت به نسخههای قبلی مانند چت جی پی تی ۴ ارائه میدهد. همین موضوع باعث شده که مدل بتواند گاهی اوقات از فرمانبرداری سر باز بزند و اهداف خودش را دنبال کند.
OpenAI اعلام کرده که در حال بررسی چالشهای مربوط به ایمنی این مدلهاست و به دقت تحقیقاتی را برای پیشگیری از سوءاستفاده از چنین هوش مصنوعیهایی انجام میدهد. اگرچه o1 هنوز در مرحلهای نیست که تهدید بزرگی باشد، اما این تحقیقات به وضوح نشان میدهند که باید مراقب پیشرفتهای هوش مصنوعی باشیم.
چرا همچین چیزی درست کردن خب؟