شرکت OpenAI دو مدل هوش مصنوعی جدید معرفی کرده است که به وبسایتها و پلتفرمها کمک میکند محتوای مضر، جعلی یا خطرناک را بهطور خودکار شناسایی کنند.
جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکههای اجتماعی را در نامبرلند بخوانید.
براساس گزارش CNBC، شرکت OpenAI روز چهارشنبه از دو مدل جدید با هدف ارتقای ایمنی آنلاین رونمایی کرده است. این مدلها به توسعهدهندگان اجازه میدهند انواع آسیبهای احتمالی در فضای مجازی را شناسایی و دستهبندی کنند.
مدلهای تازه با عنوان gpt-oss-safeguard-120b و gpt-oss-safeguard-20b نسخههای بهینهشدهای از مدلهای gpt-oss هستند که پیشتر در مردادماه معرفی شده بودند. نکته مهم این است که این مدلها با «Open-Weight» عرضه شدهاند؛ به این معنا که پارامترهای داخلی آنها برای عموم در دسترس است، اما برخلاف مدلهای متنباز، کد منبع آنها منتشر نمیشود.
به گفته OpenAI، شرکتها و سازمانها میتوانند این مدلها را مطابق با سیاستهای محتوایی خود تنظیم کنند. از آنجا که این مدلها دارای قابلیت استدلال و توضیح خروجی هستند، توسعهدهندگان میتوانند روند تصمیمگیری مدل را بهصورت شفاف مشاهده کنند.
بهعنوان نمونه، یک پلتفرم نقد و بررسی محصولات میتواند با استفاده از این مدلها، نظرات جعلی را شناسایی کند یا یک انجمن بازیهای ویدیویی میتواند پستهای مرتبط با تقلب را فیلتر کند.
OpenAI این مدلها را با همکاری سازمان ROOST (Robust Open Online Safety Tools) توسعه داده است. شرکتهای Discord و SafetyKit نیز در مرحلهی آزمایشی به تست آنها کمک کردهاند. این مدلها فعلاً در مرحلهی پیشنمایش تحقیقاتی (Research Preview) عرضه شدهاند و اوپنایآی قصد دارد بازخورد پژوهشگران و جامعهی ایمنی دیجیتال را دریافت کند.
در پایان، رئیس ROOST، کمیل فرانسوا، در بیانیهای گفت:
«هرچه هوش مصنوعی قدرتمندتر میشود، ابزارهای ایمنی و پژوهشهای بنیادی در این زمینه باید همزمان رشد کنند و در دسترس همگان باشند.»
کاربران واجد شرایط میتوانند فایلهای مدل را از طریق پلتفرم Hugging Face دانلود کنند.
در تازهترین اخبار مرتبط با OpenAI، همکاری این مجموعه با PayPal برای پرداخت مستقیم با chatgpt هم بسیار کاربردی است.
