مدلهای هوش مصنوعی مثل ChatGPT گاهی با اعتمادبهنفس بالا اطلاعات اشتباه میدهند؛ پدیدهای که متخصصان آن را «توهم واقعیت» مینامند. حالا تیم تحقیقاتی AWS یا همان Amazon Web Services میخواهد این مشکل را با یک راهکار قدیمی ولی موثر حل کند: آن راهحل منطق است.
پژوهشگران در این تحقیق سعی کردند با ترکیب هوش منصوعی و منطق صوری، کاری کنند که مدلهای زبانی وادار شوند که حقیقت را بگویند. یعنی بهجای اینکه مدلهای هوش مصنوعی فقط شبیه یک انسان حرف بزنند، حتی مثل یک انسان فکر هم بکنند.
راهحل اول: آموزش مدلها با منطق صوری
پژوهشگران میگویند نباید به دادههای متنی تکیه کنیم. بلکه باید گزارههای منطقی را به تفکر هوش مصنوعی وارد کنیم. فرض کنید مدل هوش مصنوعی بداند که:
- همهی گربهها پستاندار هستند
- لونا یک گربه است
با کمک منطق، مدل باید خودش به نتیجه برسد: «پس لونا یک پستاندار است».
در این روش، هوش مصنوعی مجبور میشود حرفهایی بزند که از نظر منطقی قابل اثباتاند، نه صرفاً قابل حدس.
راهحل دوم: بررسی حقیقت با ساختارهای قابل ارزیابی
در کنار منطق، پژوهشگران AWS پیشنهاد میدهند که پاسخهای مدلها را در قالبهایی ارائه دهیم که بتوان آنها را بررسی کرد. مثلاً اگر مدل ادعا میکند که فلان کشور در سال خاصی قحطی داشته، بتوانیم منبع یا زنجیرهی استدلالش را تحلیل کنیم.
نتایج این پژوهش چه بود؟
پژوهش AWS روی دادههایی مثل ویکیپدیا آزمایش شد و نشان داد که مدلهای ترکیبشده با منطق:
- کمتر دچار توهم میشوند
- پاسخهای دقیقتر و استدلالیتری میدهند
- اعتماد کاربران بیشتری را جلب میکنند
این حرکت AWS شاید مقدمهای باشد برای نسلی جدید از مدلهای هوش مصنوعی: مدلهایی که فقط شبیه انسان حرف نمیزنند، بلکه مثل انسان فکر هم میکنند. میتوانید جزئیات بیشتر این خبر را در وبسایت ZDNet بخوانید.