تصور کنید کاربری در یک شب امتحان، با اضطراب و خستگی زیاد سراغ چت‌بات می‌رود و انتظار دارد یک صدای گرم و آرام را برای حل مسائل بشنود، حتی اگر از نظر علمی نقص‌هایی هم داشته باشد. اما چت‌بات خشک و مصنوعی راه‌حل‌ها را تحویل می‌دهد و کاربر با موجی از اطلاعات و خستگی تنها می‌ماند.

همین مسئله در GPT-5 بیشتر خودش را نشان داد و باعث شد موجی از نارضایتی در میان کاربران ایجاد شد. کاربران انتظار دارند که اگر دقت فنی بالا می‌رود، به موازات آن گرمای انسانی چت‌بات هم بیشتر شود.

Soundcloud

جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکه‌های اجتماعی را در نامبرلند بخوانید.

براساس گزارش TechCrunch، تیمی به نام Model Behavior که حدود ۱۴ پژوهشگر داشت و روی شخصیت و رفتار مدل‌های زبانی کار می‌کرد، به گروه بزرگ‌تر Post Training منتقل شده است تا این مشکلات کم‌کم حل شوند. این تصمیم به رهبری Max Schwarzer (مدیر تیم شخصیت ChatGPT) گرفته شد.

این تیم قبلاً روی موضوعات مهمی کار می‌کرد؛ مثلاً از این مسئله که مدل حرف کاربر را کورکورانه تأیید کند جلوگیری می‌کرد، یا تلاش می‌کرد پاسخ‌ها کمتر دچار سوگیری‌های سیاسی شوند. حتی درباره‌ی بحث‌های سختی مثل «آیا هوش مصنوعی می‌تواند آگاه باشد؟» هم نظر می‌داد. حالا که این وظایف وارد بخش اصلی توسعه شده‌اند، می‌توان انتظار داشت پاسخ‌های ChatGPT در آینده هم دقیق‌تر باشند و هم متعادل‌تر و شبیه‌تر به گفتگوی انسانی.

برای کاربران، این تغییرات یک پیام روشن دارد: شخصیت ChatGPT در نسخه‌های آینده طبیعی‌تر، متعادل‌تر و انسانی‌تر می‌شود. تجربه‌ی منفی برخی کاربران با GPT-5 نشان داد که کوچک‌ترین تغییر در لحن و رفتار می‌تواند تأثیر زیادی بر اعتماد و میزان استفاده از چت‌بات بگذارد.

در مجموع، این بازسازی نشان می‌دهد OpenAI شخصیت ChatGPT را نه یک ویژگی جانبی، بلکه بخشی کلیدی از آینده‌ی هوش مصنوعی می‌بیند. حالا باید منتظر تغییراتی باشیم که مکالمات را انسانی‌تر می‌کند. به نظر شما شخصیت ChatGPT می‌تواند در عین همراهی و همدلی با کاربران، دست از چاپلوسی بردارد؟

  • اگر این تغییرات OpenAI برایتان جالب بود، شاید بخواهید درباره یک نوآوری دیگر هم بخوانید: جایگزینی هوش مصنوعی با GPS. پژوهشگران سیستمی طراحی کرده‌اند که می‌تواند بدون نیاز به ماهواره، مسیرها را با دقت بالا تعیین کند.