The Intercept در هفته گذشته یک خبر در مورد مایکروسافت را افشا کرد. گویا در تاریخ اکتبر 2023، Microsoft Azure یک نسخه خود از هوش مصنوعی DALL-E که یک هوش مصنوعی ساخت عکس است و توسط OpenAI ساخته شده را به ارتش ایالات متحده پیشنهاد کرد. در یک سمینار آموزشی وزارت دفاع که با موضوع “سواد هوش مصنوعی” ارائه شده بود، پیشنهاد دادند که DALL-E در آموزش ابزارهای جنگی از طریق شبیه سازی به آنها کمک کند.
هدف مایکروسافت از این اقدام
گویا هدف مایکروسافت از این اقدام این بود که هوش مصنوعی DALL-E برای تقویت برنامههای آموزشی نظامی استفاده شود؛ بهخصوص در زمینههایی که شبیهسازی میدان نبرد لازم است. از این پیشنهاد میتوان اینطور برداشت کرد که هوش مصنوعی میتواند در محیطهای نظامی کاربرد داشته باشد؛ اما OpenAI تاکید کرده که از فناوریهایش برای ساخت سلاح استفاده نخواهد شد. این بیانیه اشاره به جمله معروف OpenAI دارد که زیر لوگو آن نوشته شده و ماموریت شرکت را نمایش میدهد:
” اطمینان حاصل کنید که هوش عمومی مصنوعی (AGI) به نفع بشریت باشد.”
کاربرد هوش مصنوعی OpenAI برای اهداف نظامی
در ارائهای که صورت گرفته جزئیاتی در مورد نحوه استفاده وزارت دفاع از هوش مصنوعی برای برای انواع مختلفی از وظایف مربوط به یادگیری ماشینی (ML) از جمله تحلیل محتوا و دستیارهای مجازی دیده میشود. همچنین اشاره شده که هوش مصنوعی DALL-E برای آموزش سیستم مدیریت نبرد به کار میرود. به طور کلی این بیانیه نشان می دهد که فناوری OpenAI و یا در کل هوش مصنوعی چگونه میتواند در زمینههای نظامی به کار رفته شود اما هدف این شرکت ها این است که فناوری به گونهای باشد که به نفع بشر تمام شود. این جمله میتواند نشان دهنده تناقض بین اهداف نظامی و ماموریت اخلاقی این شرکت باشد.
نگرانی عمومی بابت استفاده از فناوری OpenAI در بخش نظامی
افشای این اطلاعات باعث سردرگمی بین عموم مردم شده است. چون از طرفی الان افشا شده که هوش مصنوعی OpenAI و درکل فناوری آن قرار است برای استفاده نظامی به کار رفته شود و از طرف دیگر OpenAI در راهنمای استفاده آورده و تاکید داشته که مدلهای آن نباید برای توسعه نظامی به کار روند.
جالب اینجاست که در ماه ژانویه، The Intercept متوجه شد که کلماتی مانند “نظامی” و “جنگ افزار” از این صفحه حذف شده است و الان فقط استفاده از خدمات OpenAI برای “آسیب رساندن به خود یا دیگران” منع شده است. وجود چنین تغییراتی از سمت OpenAI موجب بروز نگرانیهایی برای شده است و این سوال را مطرح میکند که آیا OpenAI همچنان به اصول اخلاقی خود پایبند خواهد بود یا خیر.
شرکت مایکروسافت در پاسخ به پرسش The Intercept اعلام کرده که پیشنهاد داده شده در اکتبر 2023 هنوز عملیاتی نشده و صرفاً به عنوان “موارد استفاده بالقوه” برای AOAI در نظر گرفته شده بودند. این موضوع می تواند به کاهش نگرانیهای پیش آمده منجر شود.
اما باز هم هنوز هیچی از این بیانیه معلوم نیست.