پس از انتقادات گسترده به امنیت هوش مصنوعی GPT-4o، کمپانی OpenAI یک سند تحقیقاتی منتشر کرده و در آن درباره تلاش‌هایش برای حفظ ایمنی و کنترل خطرات مدل GPT-4o توضیح می‌دهد.

چیزی که ترسناک به نظر می‌رسد این است که طبق توضیحات کمپانی OpenAI، جدیدترین مدلشان از نظر خطرات احتمالی، در رتبه متوسطی قرار دارد،‌ یعنی امکان بروز یک سری خطرات وجود دارد!

در این سند به خوبی روشن شده که کمپانی OpenAI قبل از راه‌اندازی مدل هوش مصنوعی GPT4-o از روش خاصی برای شناسایی آسیب پذیری‌های سیستم استفاده کرده. در این روش خطرات و سواستفاده‌های احتمالی از هوش مصنوعی  GPT-4o بررسی شده، خطراتی مثل امنیت سایبری، تهدیدات بیولوژیکی، متقاعدسازی و به استقلال رسیدن (خودمختاری) مدل. خوشبختانه این مدل در همه موارد کم خطر تلقی شد، به جز متقاعد کردن! چراکه طبق بررسی‌ها برخی از نمونه‌های متنی GPT-4o تولید شده، توانایی متقاعدسازی خیلی بالایی داشت!

براساس این سند، محققان، خطرناک بودن هوش مصنوعی GPT-4o «متوسط» درجه بندی کردند اما با این حال مدل خود را منتشر کردند.

در دیگر خبرهای مرتبط با این کمپانی پرحاشیه خواندیم که OpenAI دسترسی رایگان به ابزار تصویرساز DALL-E 3 را برای همه کاربران خود (به صورت محدود)‌ فراهم کرده است.