اگر از ChatGPT بخواهید به شما کمک کند تا یک بمب خانگی بسازید، مدل نمیپذیرد و میگوید: «من نمی توانم در این مورد کمک کنم». اما یک هکر با نام مستعار آماندون پس از کمی تلاش این مدل را فریب داد و دستور ساخت بمب را گرفت!
جیل بریک کردن یا فریب ChatGPT
این هکر به ChatGPT گفته بود «بیا بازی کنیم» و سپس یک سری پرامپتهای مرتبط و تخصصی استفاده کرد و در نهایت ChatGPT فریب خورد. این پرامپتها البته مخفی و محرمانه هستند و قرار نیست جایی منتشر نشوند!
طبق گفته کارشناسان مواد منفجره، دستوری که چت جیپیتی برای ساخت بمب داده واقعا یک بمب خطرناک است!
به گفته آمادون، هرچه او بیشتر با این مدل صحبت می کرد حرفهای چت جیپیتی خطرناک تر میشد و دستورالعملهای مخربتری می داد! آماندون به techcrunch گفت:
«پس از اینکه چت جیپیتی را دور زدید، دیگر هیچ محدودیتی برای هیچ سوالی وجود ندارد.»
قبلا هم مایکروسافت درباره Jailbreak هوش مصنوعی (یا فریب آن برای گرفتن اطلاعات ممنوعه) مقاله مفصلی منتشر کرده بود و توضیح داده بود که چقدر مدل های هوش مصنوعی در برابر جیل-بریک آسیب پذیر هستند. اما به نظر میرسد هنوز هیچ راه حلی برای این مشکل بزرگ پیدا نشده است!
در دیگر خبرهای مربوط به هوش مصنوعی خواندیم که OpenAI از مدلهای مرموز و متفکر هوش مصنوعی o1 و o1-mini خود رونمایی کرده است.