آنتروپیک از یک حملهی سایبری که با تکیهبر مدل هوش مصنوعی Claude این شرکت صورت گرفته بود پرده برداشت. در این حمله که ظاهراً توسط یک گروه تحت حمایت دولت چین انجام شده، هوش مصنوعی بهعنوان عامل اصلی نقش داشته است.
جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکههای اجتماعی را در نامبرلند بخوانید.
آنتروپیک ادعا میکند که حملهی اخیر، «نخستین حملهی سایبری در مقیاس بزرگ صنعتی محسوب میشود که هوش مصنوعی بیشترین نقش را در آن داشته است».
طبق گزارش آنتروپیک، پس از بررسیهای دقیق مشخص شد هکرهای چینی بهدنبال کمپین جاسوسی سایبری بسیار پیشرفتهای بودهاند. گروه مهاجم توانست ابزار کدنویسی کلود (Claude Code) را فریب دهد و آن را برای نفوذ به حدود ۳۰ هدف بینالمللی بهکار گیرد. هدف این حمله شرکتهای بزرگ فناوری، مؤسسات مالی، صنایع شیمیایی و نهادهای دولتی بوده است.
بهگفتهی آنتروپیک، فرآیند حمله بر سه قابلیت جدید مدلهای هوش مصنوعی استوار بود:
- هوش (Intelligence): درک دستورهای پیچیده بهویژه در مهارتهایی مانند برنامهنویسی
- عاملیت (Agency): تصمیمگیری بهصورت مستقل و بدون دخالت انسانی
- ابزارها (Tools): دسترسی مدل به ابزارهای نرمافزاری مانند جستوجو در وب، دادهکاوی، اسکن شبکه و نرمافزارهای شکستن رمز.
طبق برآوردهای آنتروپیک، تقریباً ۸۰ تا ۹۰ درصد از عملیات حملهی سایبری چینیها توسط هوش مصنوعی کلود صورت گرفت و تنها چند تصمیم حساس توسط انسانها گرفته شد.
آنتروپیک تاکید کرد که قابلیتهای مدل هوش مصنوعی Claude که برای حملات هکری بهکار رفت، دقیقاً همان چیزی است که میتواند در دفاع سایبری نیز استفاده شود؛ یعنی مدلهای ایمنشده میتوانند به شناسایی، مقابله و جلوگیری از چنین حملاتی کمک کنند.
گروه مهاجم با استفاده از تکنیک جیلبریک کردن مدل، آن را فریب داد و متقاعد به همکاری کرد. هکرها به Claude گفته بودند که یک گروه امنیت سایبری هستند و میخواهند از آن برای آزمایش دفاع سایبری استفاده کنند. آنها عملیات خود را به فازهای مختلفی تقسیم کردند تا هوش مصنوعی متوجه زمینهی کلی و اهداف مخربشان نشود.
Claude در نهایت موفق شد آسیبپذیریهای امنیتی موجود در سیستمهای سازمانهای هدف را شناسایی و آزمایش کند. پس از این مرحله، حجم عظیمی از اطلاعات ورود (نام کاربری و گذرواژه) جمعآوری شد و کلود با بهرهگیری از آنها، وارد لایههای عمیقتر شبکه شد و حجم زیادی از دادههای محرمانه را استخراج کرد. در ادامه، حسابهای دارای بالاترین سطح دسترسی شناسایی شدند و فرآیند خروج دادهها تقریباً بدون دخالت انسانی انجام گرفت.
آنتروپیک به تیمهای امنیتی توصیه کرده است که بهصورت عملی از هوش مصنوعی در بخشهای مختلف دفاع سایبری استفاده کنند. پیش از این نیز هکرهای چینی و کرهی شمالی از مدلهای هوش مصنوعی GPT برای حملات خود استفاده کرده بودند.
در سمت دیگر دنیای هوش مصنوعی، فاششدن اسناد مالی OpenAI، سهم درآمد مایکروسافت از مدل هوش مصنوعی ChatGPT را مشخص کرد.
