آیا تا به حال فکر کرده‌اید اگر یک مدل هوش مصنوعی به جای پاسخ درست، دستور ساخت مواد خطرناک را به شما بدهد چه می‌شود؟ این همان خطری است که پژوهشگران دانشگاه کالیفرنیا آن را «افت ایمنی» نامیده و راهی پیدا کرده‌اند تا جلوی این مشکل جدی گرفته شود.

Soundcloud

جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکه‌های اجتماعی را در نامبرلند بخوانید.

مشکل این‌جاست که برای اجرای سریع‌تر مدل‌ها روی گوشی‌ها و دیگر دستگاه‌های کوچک، بخشی از سخت‌گیری‌های اعمال‌شده بر مدل‌ها حذف می‌شود. براساس گزارش TechRadar این حذف ناخواسته باعث می‌شود مکانیزم‌های ایمنی داخلی هم از بین بروند و مدل‌ها در برابر درخواست‌های خطرناک، مثل آموزش ساخت ابزارهای کشتار جمعی یا انتشار محتوای مضر آسیب‌پذیر عمل کنند.

راهکارها برای حل مشکل افت ایمنی در هوش مصنوعی

تیم پژوهشی برای جبران این افت ایمنی، به‌جای گذاشتن فیلترهای اضافه خودِ مدل را دوباره آموزش داد تا «نه گفتن» به این درخواست‌ها را از نو یاد بگیرد. نتیجه این شد که حتی نسخه‌های کوچک مدل هم درخواست‌های خطرناک را رد می‌کنند. به این مثال توجه کنید:

فرض کنید دوچرخه‌تان را سبک‌تر کرده‌اید و ترمزهایش شُل شده‌اند. به‌جای اینکه یک ترمز کمکی بیرونی نصب کنید، همان ترمزها را دوباره تنظیم می‌کنید تا دوچرخه درست و محکم بایستد. پژوهشگران هم دقیقاً همین کار را با مدل‌های هوش مصنوعی انجام داده‌اند.

اهمیت این کشف برای کاربران و توسعه‌دهندگان

اگر قرار باشد هوش مصنوعی روی گوشی‌ها، خودروها یا حتی عینک‌های هوشمند اجرا شود، باید هم سبک و سریع باشد و هم ایمن. این روش می‌تواند راهی عملی برای ترکیب امنیت و کارایی باشد؛ بدون اینکه کاربران در معرض ریسک‌های غیرمنتظره قرار بگیرند.

اگر این قابلیت باعث شود مدل‌های کوچک‌شده‌ی هوش مصنوعی با همان سطح امنیت مدل‌های بزرگ بتوانند فعالیت کنند، بخشی از خطرهای هوش مصنوعی رفع و نگرانی کاربران کم و کمتر می‌شود. این یعنی هوش مصنوعی در زندگی روزمره به امنیت بیشتری می‌رسد.

  • اگر به دنبال خبرهای بیشتر درباره جایگاه هوش مصنوعی در دنیای واقعی هستید، توصیه می‌کنیم گزارش ما درباره صدرنشینی جمینی در اپ استور را هم بخوانید