مدل‌های هوش مصنوعی مثل ChatGPT گاهی با اعتماد‌به‌نفس بالا اطلاعات اشتباه می‌دهند؛ پدیده‌ای که متخصصان آن را «توهم واقعیت» می‌نامند. حالا تیم تحقیقاتی AWS یا همان Amazon Web Services می‌خواهد این مشکل را با یک راهکار قدیمی ولی موثر حل کند: آن راه‌حل منطق است.

پژوهشگران در این تحقیق سعی کردند با ترکیب هوش منصوعی و منطق صوری، کاری کنند که مدل‌های زبانی وادار شوند که حقیقت را بگویند. یعنی به‌جای این‌که مدل‌های هوش مصنوعی فقط شبیه یک انسان حرف بزنند، حتی مثل یک انسان فکر هم بکنند.

بیشتر بخوانید: معرفی مرورگر هوشمند Neo

راه‌حل اول: آموزش مدل‌ها با منطق صوری

پژوهشگران می‌گویند نباید به داده‌های متنی تکیه کنیم. بلکه باید گزاره‌های منطقی را به تفکر هوش مصنوعی وارد کنیم. فرض کنید مدل هوش مصنوعی بداند که:

  • همه‌ی گربه‌ها پستاندار هستند
  • لونا یک گربه است

با کمک منطق، مدل باید خودش به نتیجه برسد: «پس لونا یک پستاندار است».

در این روش، هوش مصنوعی مجبور می‌شود حرف‌هایی بزند که از نظر منطقی قابل اثبات‌اند، نه صرفاً قابل حدس.

راه‌حل دوم: بررسی حقیقت با ساختارهای قابل ارزیابی

در کنار منطق، پژوهشگران AWS پیشنهاد می‌دهند که پاسخ‌های مدل‌ها را در قالب‌هایی ارائه دهیم که بتوان آن‌ها را بررسی کرد. مثلاً اگر مدل ادعا می‌کند که فلان کشور در سال خاصی قحطی داشته، بتوانیم منبع یا زنجیره‌ی استدلالش را تحلیل کنیم.

نتایج این پژوهش چه بود؟

پژوهش AWS روی داده‌هایی مثل ویکی‌پدیا آزمایش شد و نشان داد که مدل‌های ترکیب‌شده با منطق:

  • کمتر دچار توهم می‌شوند
  • پاسخ‌های دقیق‌تر و استدلالی‌تری می‌دهند
  • اعتماد کاربران بیشتری را جلب می‌کنند

این حرکت AWS شاید مقدمه‌ای باشد برای نسلی جدید از مدل‌های هوش مصنوعی: مدل‌هایی که فقط شبیه انسان حرف نمی‌زنند، بلکه مثل انسان فکر هم می‌کنند. می‌توانید جزئیات بیشتر این خبر را در وب‌سایت ZDNet بخوانید.