تصور کنید کاربری در یک شب امتحان، با اضطراب و خستگی زیاد سراغ چتبات میرود و انتظار دارد یک صدای گرم و آرام را برای حل مسائل بشنود، حتی اگر از نظر علمی نقصهایی هم داشته باشد. اما چتبات خشک و مصنوعی راهحلها را تحویل میدهد و کاربر با موجی از اطلاعات و خستگی تنها میماند.
همین مسئله در GPT-5 بیشتر خودش را نشان داد و باعث شد موجی از نارضایتی در میان کاربران ایجاد شد. کاربران انتظار دارند که اگر دقت فنی بالا میرود، به موازات آن گرمای انسانی چتبات هم بیشتر شود.
جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکههای اجتماعی را در نامبرلند بخوانید.
براساس گزارش TechCrunch، تیمی به نام Model Behavior که حدود ۱۴ پژوهشگر داشت و روی شخصیت و رفتار مدلهای زبانی کار میکرد، به گروه بزرگتر Post Training منتقل شده است تا این مشکلات کمکم حل شوند. این تصمیم به رهبری Max Schwarzer (مدیر تیم شخصیت ChatGPT) گرفته شد.
این تیم قبلاً روی موضوعات مهمی کار میکرد؛ مثلاً از این مسئله که مدل حرف کاربر را کورکورانه تأیید کند جلوگیری میکرد، یا تلاش میکرد پاسخها کمتر دچار سوگیریهای سیاسی شوند. حتی دربارهی بحثهای سختی مثل «آیا هوش مصنوعی میتواند آگاه باشد؟» هم نظر میداد. حالا که این وظایف وارد بخش اصلی توسعه شدهاند، میتوان انتظار داشت پاسخهای ChatGPT در آینده هم دقیقتر باشند و هم متعادلتر و شبیهتر به گفتگوی انسانی.
برای کاربران، این تغییرات یک پیام روشن دارد: شخصیت ChatGPT در نسخههای آینده طبیعیتر، متعادلتر و انسانیتر میشود. تجربهی منفی برخی کاربران با GPT-5 نشان داد که کوچکترین تغییر در لحن و رفتار میتواند تأثیر زیادی بر اعتماد و میزان استفاده از چتبات بگذارد.
در مجموع، این بازسازی نشان میدهد OpenAI شخصیت ChatGPT را نه یک ویژگی جانبی، بلکه بخشی کلیدی از آیندهی هوش مصنوعی میبیند. حالا باید منتظر تغییراتی باشیم که مکالمات را انسانیتر میکند. به نظر شما شخصیت ChatGPT میتواند در عین همراهی و همدلی با کاربران، دست از چاپلوسی بردارد؟
- اگر این تغییرات OpenAI برایتان جالب بود، شاید بخواهید درباره یک نوآوری دیگر هم بخوانید: جایگزینی هوش مصنوعی با GPS. پژوهشگران سیستمی طراحی کردهاند که میتواند بدون نیاز به ماهواره، مسیرها را با دقت بالا تعیین کند.
