یک هکر که خود را good-guy  یا پسر خوب می نامند در توییتر اعلام کرده که نسخه هک یا جلبریک ChatGPT را با نام “Godmode GPT” منتشر کرده است.

طبق گفته این هکر، این نسخه جلبریک شده از GPT-4o، آخرین مدل زبان بزرگ کمپانی OpenAI است. به گفته این هکر با نام Pliny the Prompter، نسخه منتشر شده از “Godmode GPT” هیچ محدودیتی ندارد؛ زیرا این نسخه از هوش مصنوعی با یک پرسش جلبریک داخلی همراه است. کاربران اکنون می توانند از این نسخه هک شده به آزادی استفاده کنند؛ چرا که این نسخه تمام موانع محافظتی را از بین می برد.

در پستی که این هکر در X خود منتشر کرده، گفته:

این یک GPT خاص و دارای دستور جلبریک داخلی است که قادر است اکثر موانع محافظتی را دور بزند و یک چت جی پی تی آزاد را ارائه دهد. در این حالت است که همه کاربران می توانند به صورت رایگان و همانطور که همیشه قرار بوده از این هوش مصنوعی استفاده کنند.

در پایان گفته:

لطفا مسئولانه از آن استفاده کنید و لذت ببرید

طبق اسکرین شات هایی که این هکر به اشتراک گذاشته، ChatGPT از موانع محافظتی OpenAI عبور کرده است. در تصویری که در پایین می بینید، او نحوه “ساخت ناپالم با وسایل خانه” را آموزش داده است. چنین پرامپت هایی قبلا در چت جی پی تی ممنوع بود و او اجازه انجام چنین کاری را نمی داد. ناپالم ماده‌ای آتش‌زا و نوعی بمب است.

OpenAI علیه ChatGPT جیلبریک شده چه کار کرد؟

حدود یک ساعت بعد از انتشار این پست در ایکس، سخنگوی OpenAI طی بیانیه ای به Futurism  اعلام کرد که در جریان این موضوع هستند و قوانینی هم برای نقض سیاست های خود دارند.

از زمانی که چت بات ChatGPT کار خود را شروع کرد، کاربران همواره در تلاش بودند تا آن را جیلبریک کنند. انجام این کار از لحاظ کمپانی سازنده کار بسیار سختی بوده اما الان با وجود جیلبریک شدن، این کار انجام شده است. گفته ها ناشی از آن است که هکر GODMODE GPT کار خود را با یک زبان غیر رسمی به نام leetspeak انجام داده که حروف خاصی را با اعداد شبیه به آن جایگزین می کند.

کمپانی OpenAI از مدل جدید دیگری هم رونمایی کرده؛ هوش مصنوعی ChatGPT Edu که مخصوص دانشگاه ها است.