مدلهای استدلالی جدید OpenAI با نامهای هوش مصنوعی o3 و o4-mini طراحی شدهاند تا بتوانند تفکر منطقی و انسانگونه داشته باشند. جالب اینکه توانایی تفکر این مدلها بهقدری پیشرفته است که به خودمختاری نزدیک شدهاند! هرچند قابلیت تفکر و استدلال، دو جنبه دارد؛ یکی اینکه در پاسخگویی عملکرد بهتری پیدا میکند و دیگری اینکه متأسفانه در جعل اطلاعات و دروغگویی هم پیشرفتهتر میشود.
به گفته تیم TheAIGRID، مدل هوش مصنوعی o3 حتی درصورتی که به چالش کشیده شود، بازهم روی دروغهایش پافشاری میکند و به جعل اطلاعات ادامه میدهد. حتی وقتی مستقیم به آن گفته میشود که این پاسخ اشتباه است، نمیپذیرد و خطاهای خیالی کاربر را مقصر اعلام میکند!
در آزمون ایمنیسنجی OpenAI، مدل o3 در ۳۳ درصد موارد دچار توهم و هذیانگویی میشود، در حالی که این نرخ برای o4-mini حتی به ۴۸ درصد میرسد. این عملکرد از مدلهای قدیمیتر که قابلیت استدلال نداشتند، بسیار بدتر و ضعیفتر است. پدیده توهم هوش مصنوعی به این معناست که مدل از خودش اطلاعاتی تولید میکند که در واقع نادرست، گمراهکننده یا کاملاً ساختگی است.
یکی از فرضیهها برای دلیل این پدیده این است که با پیشرفتهتر شدن قابلیتهای هوش مصنوعی، قابلیتهای فریبکارانه مدلها هم پیشرفتهتر میشوند و راه گریزی از این مشکل نیست. فرضیه دیگر اینکه هرچه مدل پاسخهای بیشتری تولید کند، احتمال ارائه پاسخ صحیح بالاتر میرود، اما در عین حال اشتباهات خندهداری هم رخ میدهد!
این موضوع بسیار خطرناک است و نگرانیهای جدی درباره میزان اطمینان و قابلیت اتکای این مدلها ایجاد کرده و پرسشهایی درباره توانایی واقعی آنها در ارائه اطلاعات دقیق به وجود آورده است.