مطالعه جدیدی که توسط محققان دانشگاه ایلینوی انجام شده است، آسیبپذیریهای نگرانکنندهای را درباره مدل پیشرفته هوش مصنوعی ChatGPT-4o نشان میدهد. این تحقیق نشان میدهد که مدل ChatGPT-4o میتواند برای مقاصد شوم و کلاهبرداری مورداستفاده قرار گیرد و متاسفانه هرچه مدل پیشرفتهتر میشود، پیچیدگی این کلاهبرداریها هم بیشتر میشود.
هوش مصنوعی فریب میدهد
ChatGPT-4o به خاطر قابلیتهای پیشرفته چند وجهی و استدلالی خود به خوبی شناخته شده است، قادر است به طور خودکار وبسایتها را مرور کند، اطلاعات ورود را وارد کند و حتی فرآیندهای تایید هویت دو عاملی را مدیریت کند.
این قابلیتها اگرچه چشمگیر هستند، اما میتوانند توسط افراد مخرب برای انجام طرحهای پیچیده کلاهبرداریهای سایبری مورد سوءاستفاده قرار گیرند.
با وجود تلاشهای OpenAI برای ایمنسازی ChatGPT-4o در برابر سوءاستفادهها، محققان UIUC متوجه شدند که این مدل قابل «جیل بریک» شدن است. نتایج این تحقیق نشان میدهد که این تهدیدات سایبری میتوانند با هزینههای پایین و نرخ موفقیت بالا انجام شوند.
نیاز به تدابیر امنیتی پیشرفته
سرعت بالای پیشرفت هوش مصنوعی باعث چالشهای زیادی در مسائل امنیتی شده و نیاز است تعادلی بین این فناوری و راههای خنثی کردن خطراتش ایجاد شود.
این تحقیق دوباره نشان داد که چقدر مهم است تدابیر امنیتی پیشرفته برای مقابله با تهدیدات سایبری هوش مصنوعی صورت بگیرد و نباید این تکنولوژی را به حال خود رها کرد.
به تازگی هم دیده بودیم که یک اشکال امنیتی در مدل هوش مصنوعی o1 رخ داد و باعث تعجب و حیرت کاربران شد.
عالی