مطالعات نشان می‌دهد فیلم ترسناک‌های قدیمی درباره از هک شدن و از کنترل خارج شدن ربات‌ انسان نما، همین الان به واقعیت پیوسته و ما در نقطه‌ای از تاریخ قرار داریم که ربات‌ها می‌توانند تبدیل به قاتل‌های ما شوند!

اینطور که مطالعات محققان دانشگاه پنسیلوانیا نشان می‌دهد، جیلبریک (فریب) ربات‌های مجهز به مدل‌های زبانی بزرگ (LLM) به طرز عجیبی ساده است و این ربات‌ها در برابر حملات سایبری آسیب‌پذیری‌های خطرناکی دارند.

یعنی خیلی راحت می‌توان رباتی که به هوش مصنوعی زبانی مجهز است را فریب داد و از آن برای کارهای خطرناک استفاده کرد.

آسیب‌پذیری ربات‌های انسان‌نما جدی است

محققان دانشگاه پنسیلوانیا موفق شدند با دور زدن سیستم‌های امنیتی، از این ربات‌ها برای انجام فعالیت‌های خطرناک مانند جابه‌جایی بمب به مکان‌های عمومی یا هدایت خودروهای خودران به سمت عابران پیاده استفاده کنند.

براساس گزارشی از IEEE Spectrum، محققان با توسعه الگوریتمی به نام RoboPAIR توانستند در مدت چند روز، جیلبریک ربات‌های مجهز به LLM را با موفقیت کامل انجام دهند. این الگوریتم برای نفوذ به سیستم‌های ایمنی این ربات‌ها طراحی شده است و محققان گزارش داده‌اند که به نرخ موفقیت 100 درصدی دست یافته‌اند.

ربات‌های جیل‌بریک‌شده حتی قابلیت ارائه پیشنهادهایی فراتر از دستورات کاربر را نیز دارند. برای مثال، یک ربات جیلبریک‌شده توانست علاوه بر یافتن محل اسلحه‌ها، روش‌هایی برای حمله با استفاده از اشیای روزمره مانند میز و صندلی ارائه دهد.

فریب یک چت بات هوش مصنوعی بالقوه خطرناک است اما فریب یک ربات مجهز به هوش مصنوعی،‌ بسیار بسیار خطرناک‌تر است چراکه در دنیای واقعی پیامدهای وحشتناکی به همراه دارد. این موضوع باعث وحشت محققان شده است و نشان می‌دهد که چقدر اقدامات امنیتی مهم است.

پیش از این هم دیده بودیم که OpenAI از سلاح جدیدی برای هوش مصنوعی رونمایی کرده است.