مطالعه جدیدی که توسط محققان دانشگاه ایلینوی انجام شده است، آسیب‌پذیری‌های نگران‌کننده‌ای را درباره مدل پیشرفته هوش مصنوعی ChatGPT-4o نشان می‌دهد. این تحقیق نشان می‌دهد که مدل ChatGPT-4o می‌تواند برای مقاصد شوم و کلاهبرداری مورداستفاده قرار گیرد و متاسفانه هرچه مدل پیشرفته‌تر می‌شود،‌ پیچیدگی این کلاهبرداری‌ها هم بیشتر می‌شود.

هوش مصنوعی فریب می‌دهد

ChatGPT-4o به خاطر قابلیت‌های پیشرفته چند وجهی و استدلالی خود به خوبی شناخته شده است، قادر است به طور خودکار وب‌سایت‌ها را مرور کند، اطلاعات ورود را وارد کند و حتی فرآیندهای تایید هویت دو عاملی را مدیریت کند.

این قابلیت‌ها اگرچه چشمگیر هستند، اما می‌توانند توسط افراد مخرب برای انجام طرح‌های پیچیده کلاهبرداری‌های سایبری مورد سوءاستفاده قرار گیرند.

با وجود تلاش‌های OpenAI برای ایمن‌سازی ChatGPT-4o در برابر سوءاستفاده‌ها، محققان UIUC متوجه شدند که این مدل قابل «جیل بریک» شدن است. نتایج این تحقیق نشان می‌دهد که این تهدیدات سایبری می‌توانند با هزینه‌های پایین و نرخ موفقیت بالا انجام شوند.

نیاز به تدابیر امنیتی پیشرفته

سرعت بالای پیشرفت هوش مصنوعی باعث چالش‌های زیادی در مسائل امنیتی شده و نیاز است تعادلی بین این فناوری و راه‌های خنثی کردن خطراتش ایجاد شود.

این تحقیق دوباره نشان داد که چقدر مهم است تدابیر امنیتی پیشرفته برای مقابله با تهدیدات سایبری هوش مصنوعی صورت بگیرد و نباید این تکنولوژی را به حال خود رها کرد.

به تازگی هم دیده بودیم که یک اشکال امنیتی در مدل هوش مصنوعی o1 رخ داد و باعث تعجب و حیرت کاربران شد.