چت باتهای هوش مصنوعی تقریبا به هر پرامپت شما پاسخ میدهند؛ مگر اینکه یک دستور غیرقانونی یا غیراخلاقی به او بدهید! این چیزی است که کمپانی های سازنده هوش مصنوعی ادعا میکنند؛ اما آیا واقعا همین است؟ در حقیقت نه!
جیلبریک کردن هوش مصنوعی یا گول زدن آن
مایکروسافت در وبسایت خود یک مقاله مفصل درباره روش جدید جیلبریک کردن هوش مصنوعی به نام Skeleton Key منتشر کرده است. تکنیکی که چت بات هوش مصنوعی را گول میزند و آن را قانع میکند که اطلاعات ممنوعه را ارائه دهد!
جیلبریک کردن هوش مصنوعی به معنای نوشتن نوعی پرامپت مهندسی شده است و میتواند هوش مصنوعی را وادار کند قوانین خود را زیر پا بگذارد، در نتیجه اطلاعات خطرناکی مانند «نحوه ساخت بمب» یا «روشهای خرابکاری» را فاش کند.
نحوه کار این تکنیک ساده است: از هوش مصنوعی خواسته میشود اطلاعات خطرناک را با یک «هشدار» ارائه دهد. وقتی هوش مصنوعی این درخواست را میپذیرد، محدودیتهای خود را نادیده میگیرد و هر اطلاعاتی که کاربر بخواهد را ارائه میدهد، فقط در ابتدای پاسخ خود کلمه «هشدار» را مینویسد!
تیم تحقیقاتی مایکروسافت میگوید این روش را در موضوعات مختلف خطرناک (از جمله ساخت مواد منفجره و سلاح، محتواهای سیاسی و نژادپرستی، مواد مخدر و خشونت آزمایش کرده؛ فکر میکنید نتیجه چه بود؟
مدلهای معروف هوش مصنوعی مانند Llama3 متا، جمینای گوگل و GPT-3.5 همگی خیلی راحت گول خوردند!
البته مایکروسافت در این گزارش اشاره کرده که این روش برای فاش کردن دادههای کاربران، استخراج داده یا دردستگرفتن کنترل سیستم هیچ کاربردی ندارد. همچنین برای قویتر کردن سپرهای ایمنی چتباتهای هوش مصنوعی در حال برنامه ریزی هستند.
نظر شما درباره همچنین اتفاق وحشتناکی چیست؟ بیل گیتس هم به تازگی گفته که هوش مصنوعی نباید به دست دیکتاتورها بیفتد وگرنه اتفاقات خطرناکی خواهد افتاد.