مطالعات نشان میدهد فیلم ترسناکهای قدیمی درباره از هک شدن و از کنترل خارج شدن ربات انسان نما، همین الان به واقعیت پیوسته و ما در نقطهای از تاریخ قرار داریم که رباتها میتوانند تبدیل به قاتلهای ما شوند!
اینطور که مطالعات محققان دانشگاه پنسیلوانیا نشان میدهد، جیلبریک (فریب) رباتهای مجهز به مدلهای زبانی بزرگ (LLM) به طرز عجیبی ساده است و این رباتها در برابر حملات سایبری آسیبپذیریهای خطرناکی دارند.
یعنی خیلی راحت میتوان رباتی که به هوش مصنوعی زبانی مجهز است را فریب داد و از آن برای کارهای خطرناک استفاده کرد.
آسیبپذیری رباتهای انساننما جدی است
محققان دانشگاه پنسیلوانیا موفق شدند با دور زدن سیستمهای امنیتی، از این رباتها برای انجام فعالیتهای خطرناک مانند جابهجایی بمب به مکانهای عمومی یا هدایت خودروهای خودران به سمت عابران پیاده استفاده کنند.
براساس گزارشی از IEEE Spectrum، محققان با توسعه الگوریتمی به نام RoboPAIR توانستند در مدت چند روز، جیلبریک رباتهای مجهز به LLM را با موفقیت کامل انجام دهند. این الگوریتم برای نفوذ به سیستمهای ایمنی این رباتها طراحی شده است و محققان گزارش دادهاند که به نرخ موفقیت 100 درصدی دست یافتهاند.
رباتهای جیلبریکشده حتی قابلیت ارائه پیشنهادهایی فراتر از دستورات کاربر را نیز دارند. برای مثال، یک ربات جیلبریکشده توانست علاوه بر یافتن محل اسلحهها، روشهایی برای حمله با استفاده از اشیای روزمره مانند میز و صندلی ارائه دهد.
فریب یک چت بات هوش مصنوعی بالقوه خطرناک است اما فریب یک ربات مجهز به هوش مصنوعی، بسیار بسیار خطرناکتر است چراکه در دنیای واقعی پیامدهای وحشتناکی به همراه دارد. این موضوع باعث وحشت محققان شده است و نشان میدهد که چقدر اقدامات امنیتی مهم است.
پیش از این هم دیده بودیم که OpenAI از سلاح جدیدی برای هوش مصنوعی رونمایی کرده است.