پس از انتقادات گسترده به امنیت هوش مصنوعی GPT-4o، کمپانی OpenAI یک سند تحقیقاتی منتشر کرده و در آن درباره تلاشهایش برای حفظ ایمنی و کنترل خطرات مدل GPT-4o توضیح میدهد.
چیزی که ترسناک به نظر میرسد این است که طبق توضیحات کمپانی OpenAI، جدیدترین مدلشان از نظر خطرات احتمالی، در رتبه متوسطی قرار دارد، یعنی امکان بروز یک سری خطرات وجود دارد!
در این سند به خوبی روشن شده که کمپانی OpenAI قبل از راهاندازی مدل هوش مصنوعی GPT4-o از روش خاصی برای شناسایی آسیب پذیریهای سیستم استفاده کرده. در این روش خطرات و سواستفادههای احتمالی از هوش مصنوعی GPT-4o بررسی شده، خطراتی مثل امنیت سایبری، تهدیدات بیولوژیکی، متقاعدسازی و به استقلال رسیدن (خودمختاری) مدل. خوشبختانه این مدل در همه موارد کم خطر تلقی شد، به جز متقاعد کردن! چراکه طبق بررسیها برخی از نمونههای متنی GPT-4o تولید شده، توانایی متقاعدسازی خیلی بالایی داشت!
براساس این سند، محققان، خطرناک بودن هوش مصنوعی GPT-4o «متوسط» درجه بندی کردند اما با این حال مدل خود را منتشر کردند.
در دیگر خبرهای مرتبط با این کمپانی پرحاشیه خواندیم که OpenAI دسترسی رایگان به ابزار تصویرساز DALL-E 3 را برای همه کاربران خود (به صورت محدود) فراهم کرده است.