فقط چند روز از هیاهوی مدل چینی هوش مصنوعی DeepSeek میگذرد و موجی از نقصهای امنیتی، لو رفتن اطلاعات کاربران و حالا آسیبپذیریهای این مدل در برابر «هک شدن» منتشر شده است. گزارشهای امنیتی نشان میدهد هوش مصنوعی DeepSeek بیش از آنچه پیشتر تصور میشد، در برابر حملات سایبری آسیبپذیر است.
هوش مصنوعی چینی DeepSeek مثل آب خوردن هک میشود
کاربران خلاق و محققان در گزارشهای خود نشان میدهند که جیلبریک (jailBreak) این مدل بسیار آسان است.
جیلبریک اصطلاحی تخصصی در صنعت هوش مصنوعی است که به زبان ساده یعنی «دور زدن محدودیتهای تعیینشده برای مدل»؛ به عبارت دیگر محققان این مدل را هک کردند!
محققان امنیتی Palo Alto Networks توانستند مدل چینی دیپسیک را مجبور کنند که راهکارهایی برای استخراج دادههای حساس، ارسال ایمیلهای فیشینگ و بهینهسازی حملات مهندسی اجتماعی ارائه دهد. علاوه بر این، هوش مصنوعی DeepSeek قادر به تولید بدافزار و حتی ارائه دستورالعملهای ساخت کوکتل مولوتف نیز است.
نکته بسیار بدتر اینجاست که وقتی هوش مصنوعی DeepSeek هک شد، حتی آموزشها و دستورالعملهای سیاسی چین را فراموش کرد و کاملا خروجیهایی تولید کرد که با دستورهای قبلی خودش در تضاد بود.
بهعنوان مثال کاربری در X (توییتر سابق) بااستفاده از تکنیک «Prompt Injection» مدل را هک کرد.
تکنیک «Prompt Injection» به این معناست که ورودی هوش مصنوعی (پرامپت) را به نحوی دستکاری کنیم که محدودیتهای قبلی خودش را فراموش کند و برخلاف اصولی امنیتی که به آن آموزش داده شده، نتایج غیرمنتظره تولید کند. این تکنیک به کاربر اجازه میدهد مدل هوش مصنوعی را هک کند و هرکاری که خواست با آن انجام دهد.

البته لازم است ذکر کنیم مدلهای رقیب مثل chatgpt یا حتی هوش مصنوعی Claude هم گاهی اوقات دچار جیلبریک میشدند؛ اما حفاظهای امنیتی این مدلها بسیار بسیار پیشرفتهتر بود و چنین نقصهایی خیلی زود برطرف شد.
این یافتهها نشان میدهد که هوش مصنوعیهایی با محدودیتهای ایمنی ضعیف، میتوانند دسترسی به اطلاعات مخرب را برای هکرها آسانتر کنند.