میزان اعتماد پژوهشگران به هوش مصنوعی در سال ۲۰۲۵ کاهش چشمگیری داشته است؛ درحالی‌که استفاده از این فناوری در تحقیقات علمی بیش از هر زمان دیگری افزایش یافته است. براساس گزارش منتشرشده از سوی انتشارات دانشگاهی Wiley، که بخشی از گزارش سالانه‌ی آن درباره‌ی تأثیر فناوری بر پژوهش علمی است، نتایچ غافلگیرکننده به همراه داشت است.

Soundcloud

جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکه‌های اجتماعی را در نامبرلند بخوانید.

در نسخه‌ی سال ۲۰۲۴ این نظرسنجی، حدود ۵۱ درصد از دانشمندان نگران پدیده‌ی «توهمات هوش مصنوعی» (AI Hallucinations) بودند؛ یعنی زمانی که مدل‌های زبانی اطلاعات نادرست را به‌عنوان واقعیت ارائه می‌کنند. اما در سال ۲۰۲۵ این رقم به ۶۴ درصد افزایش یافته است، در حالی که میزان استفاده از AI در پژوهش‌ها از ۴۵ درصد به ۶۲ درصد رسیده است.

سطح اضطراب درباره‌ی امنیت، حریم خصوصی، و اخلاق استفاده از هوش مصنوعی نسبت به سال گذشته بیش از ۱۱ درصد افزایش یافته است. در همین حال، موج هیجان و تبلیغات پیرامون این فناوری هم به‌وضوح کاهش یافته است؛ به‌طوری‌که تنها یک‌سوم از دانشمندان باور دارند AI در برخی کاربردها از انسان پیشی گرفته است، درحالی‌که این عدد در سال گذشته بیش از نیمی از شرکت‌کنندگان را شامل می‌شد.

مطالعات پیشین نیز نشان داده‌اند که هرچه دانشمندان بیشتر با ساختار واقعی مدل‌های هوش مصنوعی آشنا می‌شوند، اعتمادشان کمتر می‌شود و برعکس، کسانی که شناخت کمتری دارند، معمولاً خوش‌بین‌ترند.

اما دلیل این کاهش اعتماد چیست؟
یکی از عوامل کلیدی، افزایش خطاها و توهمات هوش مصنوعی است که حتی در مدل‌های جدیدتر هم دیده می‌شود. گزارش‌ها نشان می‌دهد که مدل‌های پیشرفته‌تر در برخی موارد دچار اشتباهات بیشتری شده‌اند.
از سوی دیگر، رقابت شرکت‌های فناوری برای حفظ جذابیت تجاری این ابزارها باعث شده است مدل‌ها همچنان با اعتمادبه‌نفس پاسخ دهند، حتی وقتی داده‌ی دقیقی ندارند. مسئله‌ای که کارشناسان آن را «ترجیح سود بر دقت» می‌نامند.

به گفته‌ی تحلیل‌گران، این شکاف میان کاربرد گسترده و اعتماد واقعی، نشانه‌ای از بلوغ فکری در مواجهه با AI است. پژوهشگران اکنون بیش از پیش به ارزیابی انتقادی این ابزارها می‌پردازند، نه پذیرش بی‌چون‌وچرای آن‌ها. با این اوصاف هوش مصنوعی خدمت‌های قابل توجهی از جمله کشف تمدن 5000 ساله در بیابان هم داشته است؛ بیشتر از همه آگاهی و توجه ما کمک می‌کنند تا خطاهای AI را تشخیص دهیم.