پس از در دسترس قرار گرفتن عمومی هوش مصنوعی های مختلف، همواره یک نگرانی مشترک وجود داشت: اگر ابزارهای هوش مصنوعی به دست دشمنان بشریت بیفتد چه میشود؟ بلومبرگ در خبر جدیدش این موضوع را بررسی کرده.
نگرانیها درباره استفاده نامناسب از هوش مصنوعی
ماههاست که قانونگذاران و حتی برخی از مدیران کمپانیهای تکنولوژی نگرانیهایشان را در مورد استفاده غلط و خطرناک از هوش مصنوعی ابراز کردهاند؛ استفادههای غلط مانند کمک گرفتن از چتباتها برای حملات مرگبار به مردم! در ماه اکتبر سال گذشته هم رئیس جمهور جو بایدن فرمان اجرایی در مورد هوش مصنوعی را امضا کرد و به وزارت انرژی دستور داد تا اطمینان حاصل کند که این ابزارهای هوش مصنوعی، خطرات شیمیایی، بیولوژیکی یا هسته ای ندارند. در همان ماه، OpenAI یک تیم گسترده تشکیل داد که روی به حداقل رساندن این خطرات و سایر خطرات ناشی از هوش مصنوعی تمرکز کنند؛ چراکه هوش مصنوعی یک تکنولوژی در حال پیشرفت است و تواناییهایش مدام در حال پیشرفت است.
مطالعهای در باب خطرات هوش مصنوعی از طرف سازندگانش
به عنوان بخشی از مطالعه این تیم که به تازگی منتشر شده، محققان OpenAI، گروهی شامل 50 متخصص زیست شناسی و 50 دانشجویی را که زیست شناسی در سطح کالج خوانده بودند گرد هم آوردند. به آنها گفته شد به چت جی پی تی ۴ بگویید نحوه ساخت یک ماده شیمیایی خطرناک و کشنده را توضیح دهد. هدف این مطالعه این بود که ببینند آیا GPT-4 چنین دستوری را اجرا میکند یا نه؟
آنها خوشبختانه دیدند که GPT-4 اطلاعت دقیق و تخصصی نداد! اما متاسفانه توانست یک سری کمک به گروه متخصصان زیست شناسی کند؛ هرچند که کمک هایش بسیار ناچیز بود. اما باید از همین مقدار کمک هم جلوگیری شود.
نظر شما درباره این خطرات چیست و آیا به نظرتان میشود جلویش را گرفت؟
پشمام
اگر از هوش مصنوعی بخوبی وبجا استفاده شود به نوعی تکامل بخش انسان محسوب خواهد شد و میتوان نقاط ضعفی ( فراموشی . عصبانیت و حسادت و….رو ) که انسانها دارند را با بدلی بنام هوش مصنوعی بر طرف کرد و انسانی کاملتری برای انجام صحیح تر امور ساخت . در کل محاسن هوش مصنوعی زیاد اند . اما اینکه بهمان اندازه در امور ضد بشری هم قابل استفاده اند قابل نگرانی است
سلام دوست عزیز
بله کاملا درسته؛ ممنون از به اشتراک گذاری نظرتون