کمپانی OpenAI به تازگی سند امنیتی مدل محبوب هوش مصنوعی GPT-4o را منتشر کرده است که در آن به نگرانی‌های ایمنی مطرح شده درباره این مدل می‌پردازد. البته قبلا هم دیده بودیم که هوش مصنوعی GPT-4o کم خطر نیست! اما حالا می‌بینیم که نگرانی جدیدی اضافه شده: خطر وابستگی عاطفی به هوش مصنوعی، به خصوص حالت صوتی آن است.

مدل GPT-4o نخستین مدل چندرسانه‌ای واقعی OpenAI است که می‌تواند انواع داده، از جمله صدا، تصاویر و متن را پردازش کند. حالت صوتی این مدل اکنون فقط برای کاربران Plus در دسترس است، مثلا ویدیوی زیر را ببینید که کاربر به هوش مصنوعی سگ خود را نشان می‌دهد و بلافاصله لحن و صدای مدل هوش مصنوعی، مهربان و احساسی می‌شود!

این قابلیت بسیار شگفت انگیز است اما هنوز ایمن نیست! OpenAI در توضیح مسئله امنیتی قابلیت صوتی هوش مصنوعی، در وبسایت خود نوشته: «کاربران ممکن است با هوش مصنوعی یک ارتباط قوی برقرار کنند و احساس کنند دیگر نیازی به تعاملات اجتماعی با انسان‌ها ندارند. این اتفاق شاید برای کسانی که تنها هستند خوب باشد اما روابط سالم انسانی را خراب می‌کند.»

اما این تنها خطراین مدل صوتی نیست، بلکه در آزمایشات OpenAI اتفاقات ناگوار دیگری هم افتاده است که البته آن‌ها ادعا می‌کنند این مشکلات برطرف کرده اند.

مشکلاتی مثل شبیه سازی صدای فردی که با او صحبت می‌کرد، همراهی در صحبت درباره موضوعات غیراخلاقی و خشونت آمیز و صحبت‌های نامناسب!

آزمایش‌ها نشان دادند که صداهای تولید شده توسط GPT-4o آن‌قدر طبیعی هستند که می‌توانند دقیقا احساسات انسانی را تقلید کنند، مثلا مشاهده شد که این چت بات صدایی در می‌آورد که گویی گریه می‌کند!

این ویژگی‌ها باعث شده است که کاربران احتمالاً نسبت به این مدل وابستگی عاطفی پیدا کنند و حالاOpenAI  نگرانی‌هایی در مورد تاثیرات این پدیده بر تعاملات اجتماعی و هنجارهای اجتماعی ابراز می‌کند.

OpenAI خطاب به کاربران بر این نکته تأکید می‌کند که هوش مصنوعی هیچ احساسی ندارد و صرفاً بر اساس داده‌های انسانی آموزش دیده است. با این حال، ویژگی‌های طبیعی گفتاری این مدل می‌تواند تأثیرات روان‌شناختی واقعی بر کاربران داشته باشد. قرار است آن‌ها این خطر را بیشتر بررسی کنند و خطراتش را کاهش دهند!‌ نظر شما چیست؟