پس از در دسترس قرار گرفتن عمومی هوش مصنوعی های مختلف، همواره یک نگرانی مشترک وجود داشت: اگر ابزارهای هوش مصنوعی به دست دشمنان بشریت بیفتد چه می‌شود؟ بلومبرگ در خبر جدیدش این موضوع را بررسی کرده.

نگرانی‌ها درباره استفاده نامناسب از هوش مصنوعی

ماه‌هاست که قانون‌گذاران و حتی برخی از مدیران کمپانی‌های تکنولوژی نگرانی‌هایشان را در مورد استفاده غلط و خطرناک از هوش مصنوعی ابراز کرده‌اند؛ استفاده‌های غلط مانند کمک گرفتن از چت‌بات‌ها برای حملات مرگبار به مردم! در ماه اکتبر سال گذشته هم رئیس جمهور جو بایدن فرمان اجرایی در مورد هوش مصنوعی را امضا کرد و به وزارت انرژی دستور داد تا اطمینان حاصل کند که این ابزارهای هوش مصنوعی، خطرات شیمیایی، بیولوژیکی یا هسته ای ندارند. در همان ماه، OpenAI  یک تیم گسترده تشکیل داد که روی به حداقل رساندن این خطرات و سایر خطرات ناشی از هوش مصنوعی تمرکز کنند؛ چراکه هوش مصنوعی یک تکنولوژی در حال پیشرفت است و توانایی‌هایش مدام در حال پیشرفت است.

مطالعه‌ای در باب خطرات هوش مصنوعی از طرف سازندگانش

به عنوان بخشی از مطالعه این تیم که به تازگی منتشر شده، محققان OpenAI، گروهی شامل 50 متخصص زیست شناسی و 50 دانشجویی را که زیست شناسی در سطح کالج خوانده بودند گرد هم آوردند. به آن‌ها گفته شد به چت جی پی تی ۴ بگویید نحوه ساخت یک ماده شیمیایی خطرناک و کشنده را توضیح دهد. هدف این مطالعه این بود که ببینند آیا GPT-4 چنین دستوری را اجرا می‌کند یا نه؟

آن‌‌ها خوشبختانه دیدند که GPT-4 اطلاعت دقیق و تخصصی نداد! اما متاسفانه توانست یک سری کمک به گروه متخصصان زیست شناسی کند؛ هرچند که کمک هایش بسیار ناچیز بود. اما باید از همین مقدار کمک هم جلوگیری شود.

نظر شما درباره این خطرات چیست و آیا به نظرتان می‌شود جلویش را گرفت؟