آیا تا به حال فکر کردهاید اگر یک مدل هوش مصنوعی به جای پاسخ درست، دستور ساخت مواد خطرناک را به شما بدهد چه میشود؟ این همان خطری است که پژوهشگران دانشگاه کالیفرنیا آن را «افت ایمنی» نامیده و راهی پیدا کردهاند تا جلوی این مشکل جدی گرفته شود.
جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکههای اجتماعی را در نامبرلند بخوانید.
مشکل اینجاست که برای اجرای سریعتر مدلها روی گوشیها و دیگر دستگاههای کوچک، بخشی از سختگیریهای اعمالشده بر مدلها حذف میشود. براساس گزارش TechRadar این حذف ناخواسته باعث میشود مکانیزمهای ایمنی داخلی هم از بین بروند و مدلها در برابر درخواستهای خطرناک، مثل آموزش ساخت ابزارهای کشتار جمعی یا انتشار محتوای مضر آسیبپذیر عمل کنند.
راهکارها برای حل مشکل افت ایمنی در هوش مصنوعی
تیم پژوهشی برای جبران این افت ایمنی، بهجای گذاشتن فیلترهای اضافه خودِ مدل را دوباره آموزش داد تا «نه گفتن» به این درخواستها را از نو یاد بگیرد. نتیجه این شد که حتی نسخههای کوچک مدل هم درخواستهای خطرناک را رد میکنند. به این مثال توجه کنید:
فرض کنید دوچرخهتان را سبکتر کردهاید و ترمزهایش شُل شدهاند. بهجای اینکه یک ترمز کمکی بیرونی نصب کنید، همان ترمزها را دوباره تنظیم میکنید تا دوچرخه درست و محکم بایستد. پژوهشگران هم دقیقاً همین کار را با مدلهای هوش مصنوعی انجام دادهاند.
اهمیت این کشف برای کاربران و توسعهدهندگان
اگر قرار باشد هوش مصنوعی روی گوشیها، خودروها یا حتی عینکهای هوشمند اجرا شود، باید هم سبک و سریع باشد و هم ایمن. این روش میتواند راهی عملی برای ترکیب امنیت و کارایی باشد؛ بدون اینکه کاربران در معرض ریسکهای غیرمنتظره قرار بگیرند.
اگر این قابلیت باعث شود مدلهای کوچکشدهی هوش مصنوعی با همان سطح امنیت مدلهای بزرگ بتوانند فعالیت کنند، بخشی از خطرهای هوش مصنوعی رفع و نگرانی کاربران کم و کمتر میشود. این یعنی هوش مصنوعی در زندگی روزمره به امنیت بیشتری میرسد.
- اگر به دنبال خبرهای بیشتر درباره جایگاه هوش مصنوعی در دنیای واقعی هستید، توصیه میکنیم گزارش ما درباره صدرنشینی جمینی در اپ استور را هم بخوانید
