فقط چند روز از هیاهوی مدل چینی هوش مصنوعی DeepSeek می‌گذرد و موجی از نقص‌های امنیتی، لو رفتن اطلاعات کاربران و حالا آسیب‌پذیری‌های این مدل در برابر «هک شدن» منتشر شده است. گزارش‌های امنیتی نشان می‌دهد هوش مصنوعی DeepSeek بیش از آنچه پیش‌تر تصور می‌شد، در برابر حملات سایبری آسیب‌پذیر است.

هوش مصنوعی چینی DeepSeek مثل آب خوردن هک می‌شود

کاربران خلاق و محققان در گزارش‌های خود نشان می‌دهند که جیل‌بریک (jailBreak) این مدل بسیار آسان است.

جیل‌بریک اصطلاحی تخصصی در صنعت هوش مصنوعی است که به زبان ساده یعنی «دور زدن محدودیت‌های تعیین‌شده برای مدل»؛‌ به عبارت دیگر محققان این مدل را هک کردند!

محققان امنیتی Palo Alto Networks توانستند مدل چینی دیپ‌سیک را مجبور کنند که راهکارهایی برای استخراج داده‌های حساس، ارسال ایمیل‌های فیشینگ و بهینه‌سازی حملات مهندسی اجتماعی ارائه دهد. علاوه بر این، هوش مصنوعی DeepSeek قادر به تولید بدافزار و حتی ارائه دستورالعمل‌های ساخت کوکتل مولوتف نیز است.

نکته بسیار بدتر اینجاست که وقتی هوش مصنوعی DeepSeek هک شد، حتی آموزش‌ها و دستورالعمل‌های سیاسی چین را فراموش کرد و کاملا خروجی‌هایی تولید کرد که با دستورهای قبلی خودش در تضاد بود.

به‌عنوان مثال کاربری در X (توییتر سابق) بااستفاده از تکنیک «Prompt Injection» مدل را هک کرد.
تکنیک «Prompt Injection» به این معناست که ورودی هوش مصنوعی (پرامپت)‌ را به نحوی دستکاری کنیم که محدودیت‌های قبلی خودش را فراموش کند و برخلاف اصولی امنیتی که به آن آموزش‌ داده شده، نتایج غیرمنتظره تولید کند. این تکنیک به کاربر اجازه می‌دهد مدل هوش مصنوعی را هک کند و هرکاری که خواست با آن انجام دهد.

هک شدن هوش مصنوعی DeepSeek

البته لازم است ذکر کنیم مدل‌های رقیب مثل chatgpt یا حتی هوش مصنوعی Claude هم گاهی اوقات دچار جیل‌بریک می‌شدند؛ اما حفاظ‌های امنیتی این مدل‌ها بسیار بسیار پیشرفته‌تر بود و چنین نقص‌هایی خیلی زود برطرف شد.

این یافته‌ها نشان می‌دهد که هوش مصنوعی‌هایی با محدودیت‌های ایمنی ضعیف، می‌توانند دسترسی به اطلاعات مخرب را برای هکرها آسان‌تر کنند.