مدل‌های استدلالی جدید OpenAI با نام‌های هوش مصنوعی o3 و o4-mini طراحی شده‌اند تا بتوانند تفکر منطقی‌ و انسان‌گونه داشته باشند. جالب این‌که توانایی تفکر این مدل‌ها به‌قدری پیشرفته است که به خودمختاری نزدیک‌ شده‌اند! هرچند قابلیت تفکر و استدلال، دو جنبه دارد؛‌ یکی اینکه در پاسخ‌گویی عملکرد بهتری پیدا می‌کند و دیگری اینکه متأسفانه در جعل اطلاعات و دروغ‌گویی هم پیشرفته‌تر می‌شود.

به گفته تیم TheAIGRID، مدل هوش مصنوعی o3 حتی درصورتی که به چالش کشیده شود، بازهم روی دروغ‌هایش پافشاری می‌کند و به جعل اطلاعات ادامه می‌دهد. حتی وقتی مستقیم به آن گفته می‌شود که این پاسخ اشتباه است، نمی‌پذیرد و خطاهای خیالی کاربر را مقصر اعلام می‌کند!

در آزمون ایمنی‌سنجی OpenAI، مدل o3 در ۳۳ درصد موارد دچار توهم و هذیان‌گویی می‌شود، در حالی که این نرخ برای o4-mini حتی به ۴۸ درصد می‌رسد. این عملکرد از مدل‌های قدیمی‌تر که قابلیت استدلال نداشتند، بسیار بدتر و ضعیف‌تر است. پدیده توهم هوش مصنوعی به این معناست که مدل از خودش اطلاعاتی تولید می‌کند که در واقع نادرست، گمراه‌کننده یا کاملاً ساختگی است.

یکی از فرضیه‌ها برای دلیل این پدیده این است که با پیشرفته‌تر شدن قابلیت‌های هوش مصنوعی، قابلیت‌های فریبکارانه مدل‌ها هم پیشرفته‌تر می‌شوند و راه گریزی از این مشکل نیست. فرضیه دیگر این‌که هرچه مدل پاسخ‌های بیشتری تولید کند، احتمال ارائه پاسخ صحیح بالاتر می‌رود، اما در عین حال اشتباهات خنده‌داری هم رخ می‌دهد!

این موضوع بسیار خطرناک است و نگرانی‌های جدی درباره میزان اطمینان و قابلیت اتکای این مدل‌ها ایجاد کرده و پرسش‌هایی درباره توانایی واقعی آن‌ها در ارائه اطلاعات دقیق به وجود آورده است.