شرکت OpenAI دو مدل هوش مصنوعی جدید معرفی کرده است که به وب‌سایت‌ها و پلتفرم‌ها کمک می‌کند محتوای مضر، جعلی یا خطرناک را به‌طور خودکار شناسایی کنند.

Soundcloud

جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکه‌های اجتماعی را در نامبرلند بخوانید.

براساس گزارش CNBC، شرکت OpenAI روز چهارشنبه از دو مدل جدید با هدف ارتقای ایمنی آنلاین رونمایی کرده است. این مدل‌ها به توسعه‌دهندگان اجازه می‌دهند انواع آسیب‌های احتمالی در فضای مجازی را شناسایی و دسته‌بندی کنند.

مدل‌های تازه با عنوان gpt-oss-safeguard-120b و gpt-oss-safeguard-20b نسخه‌های بهینه‌شده‌ای از مدل‌های gpt-oss هستند که پیش‌تر در مردادماه معرفی شده بودند. نکته مهم این است که این مدل‌ها با «Open-Weight» عرضه شده‌اند؛ به این معنا که پارامترهای داخلی آن‌ها برای عموم در دسترس است، اما برخلاف مدل‌های متن‌باز، کد منبع آن‌ها منتشر نمی‌شود.

به گفته OpenAI، شرکت‌ها و سازمان‌ها می‌توانند این مدل‌ها را مطابق با سیاست‌های محتوایی خود تنظیم کنند. از آنجا که این مدل‌ها دارای قابلیت استدلال و توضیح خروجی هستند، توسعه‌دهندگان می‌توانند روند تصمیم‌گیری مدل را به‌صورت شفاف مشاهده کنند.

به‌عنوان نمونه، یک پلتفرم نقد و بررسی محصولات می‌تواند با استفاده از این مدل‌ها، نظرات جعلی را شناسایی کند یا یک انجمن بازی‌های ویدیویی می‌تواند پست‌های مرتبط با تقلب را فیلتر کند.

OpenAI این مدل‌ها را با همکاری سازمان ROOST (Robust Open Online Safety Tools) توسعه داده است. شرکت‌های Discord و SafetyKit نیز در مرحله‌ی آزمایشی به تست آن‌ها کمک کرده‌اند. این مدل‌ها فعلاً در مرحله‌ی پیش‌نمایش تحقیقاتی (Research Preview) عرضه شده‌اند و اوپن‌ای‌آی قصد دارد بازخورد پژوهشگران و جامعه‌ی ایمنی دیجیتال را دریافت کند.

در پایان، رئیس ROOST، کمیل فرانسوا، در بیانیه‌ای گفت:

«هرچه هوش مصنوعی قدرتمندتر می‌شود، ابزارهای ایمنی و پژوهش‌های بنیادی در این زمینه باید هم‌زمان رشد کنند و در دسترس همگان باشند.»

کاربران واجد شرایط می‌توانند فایل‌های مدل را از طریق پلتفرم Hugging Face دانلود کنند.

در تازه‌ترین اخبار مرتبط با OpenAI، همکاری این مجموعه با PayPal برای پرداخت مستقیم با chatgpt هم بسیار کاربردی است.