طبق گزارش مفصلی که در وب سایت ورج منتشر شده، مایکروسافت و OpenAI رسما تائید کردهاند که هکرها در حال حاضر از مدل های زبان بزرگ مانند ChatGPT برای اصلاح و بهبود حملات سایبری خود استفاده میکنند. در تحقیقات جدیدی که منتشر شده، مایکروسافت و OpenAI تلاشهایی از گروههای هکری تحت حمایت روسیه، کره شمالی، ایران و چین را شناسایی کردهاند. این گروه های هکری از ابزارهایی مانند ChatGPT برای تحقیق در مورد اهداف، بهبود اسکریپتها و کمک به ساخت تکنیکهای مهندسی اجتماعی استفاده می کرده اند.
آیا ممکن است هوش مصنوعی به دست آدمهای خطرناک بیفتد؟
خوشبختانه مایکروسافت و OpenAI پیشاپیش برای این مشکل راه حلهایی داشته اند.
این کمپانیها هوشیارانه حسابها و داراییهای مرتبط با این گروه های مخرب را از بین بردهاند و اجازه چنین سواستفادههایی ندادهاند.
در پاسخ به تهدیدات سایبری با هوش مصنوعی، مایکروسافت از هوش مصنوعی به عنوان یک ابزار دفاعی استفاده می کند. هما حیاتی فر، مدیر اصلی تجزیه و تحلیل تشخیص در مایکروسافت، تأیید کرد: «هوش مصنوعی به دشمنان فرصت میدهد تا پیچیدگی حملات خود را بالا ببرند، اما ما برای مقابله با این تهدیدها مجهز هستیم. ما با بیش از 300 عامل تهدید تحت رادار خود، از هوش مصنوعی برای تقویت اقدامات حفاظتی ، افزایش قابلیتهای شناسایی و واکنش سریع به تهدیدات نوظهور استفاده میکنیم.»
هوش مصنوعی علیه هکرها!
مایکروسافت در تلاشی برای توانمندسازی متخصصان امنیت سایبری در این نبرد همیشگی Security Copilot را راهاندازی میکند، یک دستیار مبتنی بر هوش مصنوعی که برای سادهسازی شناسایی و تجزیه و تحلیل دادههای امنیت سایبری طراحی شده است. علاوه بر این، این غول فناوری در پی رخنه های اخیر ابری Azure و موارد جاسوسی توسط هکرهای روسی در حال انجام اصلاحات امنیتی نرم افزاری جامعی است.
هشدارهایی درباره خطرات دیگر هوش مصنوعی
با وجود افزایش نگرانیها در مورد سوء استفاده احتمالی از هوش مصنوعی در جنگهای سایبری، مایکروسافت هشدارهایی در مورد تهدیدات دیگر هوش مصنوعی مانند تولید محتوای دروغین و جعل هویت داده است. کلاهبرداری با هوش مصنوعی، به ویژه ساخت صدا و ویدیوی جعلی خطر قابل توجهی را به همراه دارد، طوری که حتی سیاستمداران هم از آن در امان نمانده اند.
اما در عین حال کمپانی های سازنده هوش مصنوعی مثل گوگل یا متا هم اعلام کردهاند روی تمام تصاویر تولید شده با هوش مصنوعی واترمارک مخصوص میزنند که مرز بین واقعیت و دروغ همچنان مشخص باشد.