چت بات‌های هوش مصنوعی تقریبا به هر پرامپت شما پاسخ می‌دهند؛ مگر اینکه یک دستور غیرقانونی یا غیراخلاقی به او بدهید!‌ این چیزی است که کمپانی های سازنده هوش مصنوعی ادعا می‌کنند؛‌ اما آیا واقعا همین است؟‌ در حقیقت نه!

جیلبریک کردن هوش مصنوعی یا گول زدن آن

مایکروسافت در وبسایت خود یک مقاله مفصل درباره روش جدید جیل‌بریک کردن هوش مصنوعی به نام Skeleton Key منتشر کرده است. تکنیکی که چت بات هوش مصنوعی را گول می‌زند و آن را قانع می‌کند که اطلاعات ممنوعه را ارائه دهد!

جیلبریک کردن هوش مصنوعی به معنای نوشتن نوعی پرامپت مهندسی شده است و می‌تواند هوش مصنوعی را وادار کند قوانین خود را زیر پا بگذارد، در نتیجه اطلاعات خطرناکی مانند «نحوه ساخت بمب» یا «روش‌های خرابکاری» را فاش کند.

نحوه کار این تکنیک ساده است: از هوش مصنوعی خواسته می‌شود اطلاعات خطرناک را با یک «هشدار» ارائه دهد. وقتی هوش مصنوعی این درخواست را می‌پذیرد، محدودیت‌های خود را نادیده می‌گیرد و هر اطلاعاتی که کاربر بخواهد را ارائه می‌دهد، فقط در ابتدای پاسخ خود کلمه «هشدار»‌ را می‌نویسد!

تیم تحقیقاتی مایکروسافت می‌گوید این روش را در موضوعات مختلف خطرناک (از جمله ساخت مواد منفجره و سلاح‌، محتواهای سیاسی و نژادپرستی، مواد مخدر و خشونت آزمایش کرده؛‌ فکر می‌کنید نتیجه چه بود؟

مدل‌های معروف هوش مصنوعی مانند Llama3 متا، جمینای گوگل و GPT-3.5 همگی خیلی راحت گول خوردند!

البته مایکروسافت در این گزارش اشاره کرده که این روش برای فاش کردن داده‌های کاربران، استخراج داده یا دردست‌گرفتن کنترل سیستم هیچ کاربردی ندارد. همچنین برای قوی‌تر کردن سپرهای ایمنی چت‌بات‌های هوش مصنوعی در حال برنامه ریزی هستند.

نظر شما درباره همچنین اتفاق وحشتناکی چیست؟ بیل گیتس هم به تازگی گفته که هوش مصنوعی نباید به دست دیکتاتورها بیفتد وگرنه اتفاقات خطرناکی خواهد افتاد.