کمپانی OpenAI به تازگی سند امنیتی مدل محبوب هوش مصنوعی GPT-4o را منتشر کرده است که در آن به نگرانیهای ایمنی مطرح شده درباره این مدل میپردازد. البته قبلا هم دیده بودیم که هوش مصنوعی GPT-4o کم خطر نیست! اما حالا میبینیم که نگرانی جدیدی اضافه شده: خطر وابستگی عاطفی به هوش مصنوعی، به خصوص حالت صوتی آن است.
مدل GPT-4o نخستین مدل چندرسانهای واقعی OpenAI است که میتواند انواع داده، از جمله صدا، تصاویر و متن را پردازش کند. حالت صوتی این مدل اکنون فقط برای کاربران Plus در دسترس است، مثلا ویدیوی زیر را ببینید که کاربر به هوش مصنوعی سگ خود را نشان میدهد و بلافاصله لحن و صدای مدل هوش مصنوعی، مهربان و احساسی میشود!
این قابلیت بسیار شگفت انگیز است اما هنوز ایمن نیست! OpenAI در توضیح مسئله امنیتی قابلیت صوتی هوش مصنوعی، در وبسایت خود نوشته: «کاربران ممکن است با هوش مصنوعی یک ارتباط قوی برقرار کنند و احساس کنند دیگر نیازی به تعاملات اجتماعی با انسانها ندارند. این اتفاق شاید برای کسانی که تنها هستند خوب باشد اما روابط سالم انسانی را خراب میکند.»
اما این تنها خطراین مدل صوتی نیست، بلکه در آزمایشات OpenAI اتفاقات ناگوار دیگری هم افتاده است که البته آنها ادعا میکنند این مشکلات برطرف کرده اند.
مشکلاتی مثل شبیه سازی صدای فردی که با او صحبت میکرد، همراهی در صحبت درباره موضوعات غیراخلاقی و خشونت آمیز و صحبتهای نامناسب!
آزمایشها نشان دادند که صداهای تولید شده توسط GPT-4o آنقدر طبیعی هستند که میتوانند دقیقا احساسات انسانی را تقلید کنند، مثلا مشاهده شد که این چت بات صدایی در میآورد که گویی گریه میکند!
این ویژگیها باعث شده است که کاربران احتمالاً نسبت به این مدل وابستگی عاطفی پیدا کنند و حالاOpenAI نگرانیهایی در مورد تاثیرات این پدیده بر تعاملات اجتماعی و هنجارهای اجتماعی ابراز میکند.
OpenAI خطاب به کاربران بر این نکته تأکید میکند که هوش مصنوعی هیچ احساسی ندارد و صرفاً بر اساس دادههای انسانی آموزش دیده است. با این حال، ویژگیهای طبیعی گفتاری این مدل میتواند تأثیرات روانشناختی واقعی بر کاربران داشته باشد. قرار است آنها این خطر را بیشتر بررسی کنند و خطراتش را کاهش دهند! نظر شما چیست؟
گریه😄😄😂😂