هوش مصنوعی مثل ChatGPT روزبه‌روز بیشتر وارد زندگی ما می‌شود، اما آیا به نظرتان می‌توانیم به آن کاملا اعتماد کنیم؟ یک آزمایش ساده با خطای دید ChatGPT نشان داد که حتی مدل‌های پیشرفته هم فریب می‌خورند. این موضوع به ما یادآوری می‌کند که هوش مصنوعی هنوز با درک انسانی فاصله دارد و نباید بدون بررسی به نتایج آن تکیه کنیم.

Soundcloud

جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکه‌های اجتماعی را در نامبرلند بخوانید.

براساس گزارش TechRadar، نویسنده با استفاده از یک تصویر مشهور به نام Ebbinghaus Illusion (خطای دید ابینگ‌هاوس) توانست ChatGPT را گمراه کند. در این آزمایش، ChatGPT با اطمینان اعلام کرد که دو دایره‌ی نارنجی هم‌اندازه‌اند، در حالی که تصویر دست‌کاری شده بود. این یعنی مدل بیشتر به شباهت‌های آماری اینترنت تکیه کرده تا تحلیل واقعی تصویر.

خطای دید ChatGPT

آسیب‌پذیری و خطاهای ChatGPT

این اتفاق اهمیت زیادی دارد، چون نشان می‌دهد ChatGPT و مدل‌های مشابه هنوز در برابر خطاهای طراحی‌شده یا تصاویر ساختگی آسیب‌پذیرند. کارشناسان یادآور می‌شوند که مدل‌های زبانی اساساً پیش‌بینی‌گر هستند، نه تحلیل‌گر بصری.

برای کاربران عادی، این تجربه یک هشدار جدی است: هوش مصنوعی می‌تواند ابزار قدرتمندی برای نوشتن متن، یادگیری یا تولید محتوا باشد، اما نتیجه‌ی آن همیشه قطعی و درست نیست.

در نهایت، ما در ابتدای راه هوش مصنوعی هستیم. چنین خطاهایی هرچند ترسناک به‌نظر می‌رسند، اما می‌توانند نقطه‌ی شروعی برای پیشرفت و مقاوم‌تر کردن مدل‌ها باشند.

  • برای درک بهتر تغییرات و محدودیت‌های ChatGPT، می‌توانید خبر تغییرات تیم توسعه شخصیت ChatGPT را هم بخوانید؛ گزارشی که توضیح می‌دهد چرا اوپن‌اِی‌آی ساختار تیم‌هایش را دوباره سازمان‌دهی کرده است.