آنتروپیک از یک حمله‌ی سایبری که با تکیه‌بر مدل هوش مصنوعی Claude این شرکت صورت گرفته بود پرده برداشت. در این حمله که ظاهراً توسط یک گروه تحت حمایت دولت چین انجام شده، هوش مصنوعی به‌عنوان عامل اصلی نقش داشته است.

Soundcloud

جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکه‌های اجتماعی را در نامبرلند بخوانید.

آنتروپیک ادعا می‌کند که حمله‌ی اخیر، «نخستین حمله‌ی سایبری در مقیاس بزرگ صنعتی محسوب می‌شود که هوش مصنوعی بیشترین نقش را در آن داشته است».

طبق گزارش آنتروپیک، پس از بررسی‌های دقیق مشخص شد هکرهای چینی به‌دنبال کمپین جاسوسی سایبری بسیار پیشرفته‌ای بوده‌اند. گروه مهاجم توانست ابزار کدنویسی کلود (Claude Code) را فریب دهد و آن را برای نفوذ به حدود ۳۰ هدف بین‌المللی به‌کار گیرد. هدف این حمله شرکت‌های بزرگ فناوری، مؤسسات مالی، صنایع شیمیایی و نهادهای دولتی بوده است.

به‌گفته‌ی آنتروپیک، فرآیند حمله بر سه قابلیت جدید مدل‌های هوش مصنوعی استوار بود:

  • هوش (Intelligence): درک دستورهای پیچیده به‌ویژه در مهارت‌هایی مانند برنامه‌نویسی
  • عاملیت (Agency): تصمیم‌گیری به‌صورت مستقل و بدون دخالت انسانی
  • ابزارها (Tools): دسترسی مدل به ابزارهای نرم‌افزاری مانند جست‌وجو در وب، داده‌کاوی، اسکن شبکه و نرم‌افزارهای شکستن رمز.

طبق برآوردهای آنتروپیک، تقریباً ۸۰ تا ۹۰ درصد از عملیات حمله‌ی سایبری چینی‌ها توسط هوش مصنوعی کلود صورت گرفت و تنها چند تصمیم حساس توسط انسان‌ها گرفته شد.

آنتروپیک تاکید کرد که قابلیت‌های مدل هوش مصنوعی Claude که برای حملات هکری به‌کار رفت، دقیقاً همان چیزی است که می‌تواند در دفاع سایبری نیز استفاده شود؛ یعنی مدل‌های ایمن‌شده می‌توانند به شناسایی، مقابله و جلوگیری از چنین حملاتی کمک کنند.

گروه مهاجم با استفاده از تکنیک‌ جیل‌بریک کردن مدل، آن را فریب داد و متقاعد به همکاری کرد. هکرها به Claude گفته بودند که یک گروه امنیت سایبری هستند و می‌خواهند از آن برای آزمایش دفاع سایبری استفاده کنند. آن‌ها عملیات خود را به فازهای مختلفی تقسیم کردند تا هوش مصنوعی متوجه زمینه‌ی کلی و اهداف مخربشان نشود.

Claude در نهایت موفق شد آسیب‌پذیری‌های امنیتی موجود در سیستم‌های سازمان‌های هدف را شناسایی و آزمایش کند. پس از این مرحله، حجم عظیمی از اطلاعات ورود (نام کاربری و گذرواژه) جمع‌آوری شد و کلود با بهره‌گیری از آن‌ها، وارد لایه‌های عمیق‌تر شبکه شد و حجم زیادی از داده‌های محرمانه را استخراج کرد. در ادامه، حساب‌های دارای بالاترین سطح دسترسی شناسایی شدند و فرآیند خروج داده‌ها تقریباً بدون دخالت انسانی انجام گرفت.

آنتروپیک به تیم‌های امنیتی توصیه کرده است که به‌صورت عملی از هوش مصنوعی در بخش‌های مختلف دفاع سایبری استفاده کنند. پیش از این نیز هکرهای چینی و کره‌ی شمالی از مدل‌های هوش مصنوعی GPT برای حملات خود استفاده کرده بودند.

در سمت دیگر دنیای هوش مصنوعی، فاش‌شدن اسناد مالی OpenAI، سهم درآمد مایکروسافت از مدل هوش مصنوعی ChatGPT را مشخص کرد.