شرکت آنتروپیک روش تازه‌ای برای بررسی نحوه تفکر مدل‌های زبانی بزرگ مانند مدل Claude توسعه داده که برای اولین بار نشان می‌دهد این سیستم‌های هوش مصنوعی چگونه اطلاعات را پردازش کرده و تصمیم می‌گیرند.

این پژوهش نشان می‌دهد این مدل‌ها پیچیده‌تر از چیزی هستند که پیش‌تر تصور می‌شد! مدل‌های هوش مصنوعی هنگام نوشتن شعر از پیش برنامه‌ریزی می‌کنند، از یک الگوی ذهنی واحد برای تفسیر مفاهیم در زبان‌های مختلف استفاده می‌کنند و گاهی حتی نتیجه را از قبل تصور کرده و سپس به عقب برمی‌گردند تا مسیر رسیدن به آن را بسازند، نه اینکه فقط از اطلاعات موجود به نتیجه برسند.

الهام از علوم اعصاب برای درک هوش مصنوعی

این تحقیقات با الهام از تکنیک‌های علوم اعصاب که برای مطالعه مغزهای زیستی استفاده می‌شود، گامی بزرگ در زمینه تفسیرپذیری (interpretability) هوش مصنوعی به‌شمار می‌آید. این روش‌ها می‌توانند به پژوهشگران کمک کنند تا ایرادات احتمالی این سیستم‌ها را (که ممکن است در تست‌های مرسوم پنهان بمانند) شناسایی و بررسی کنند.

مدل هوش مصنوعی فکر می‌کند؟

مدل‌هایی مانند GPT-4o، Claude، و Gemini توانایی‌های چشمگیری از خود نشان داده‌اند، از نوشتن کد گرفته تا تحلیل پژوهش‌ها؛ با این حال، این مدل‌ها بیشتر به‌عنوان «جعبه‌ سیاه» شناخته می‌شدند و حتی سازندگان آن‌ها هم دقیقاً نمی‌دانند چطور به پاسخ‌ها می‌رسند!

این رویکرد، با الهام از علوم اعصاب، مدل‌های هوش مصنوعی را همچون سیستم‌های زیستی در نظر می‌گیرد.

یکی از جالب‌ترین یافته‌ها این بود که کلود هنگام نوشتن شعر واقعاً از پیش برنامه‌ریزی می‌کند. وقتی از مدل خواسته می‌شود یک دوبیتی قافیه‌دار بنویسد، قبل از شروع سطر دوم، کلمات احتمالی قافیه را در نظر می‌گیرد؛‌ این سطح از پیچیدگی حتی برای پژوهشگران آنتروپیک هم شگفت‌آور بود.

برای مثال، اگر شعر با کلمه «rabbit» (خرگوش) تمام شود، مدل از همان ابتدای جمله این کلمه را در ذهن فعال می‌کند و ساختار جمله را طوری تنظیم می‌کند که به آن ختم شود.

همچنین مشخص شد که Claude استدلال چندمرحله‌ای واقعی انجام می‌دهد. مثلاً وقتی پرسیده می‌شود: «پایتخت ایالتی که دالاس در آن قرار دارد چیست؟»؛ ابتدا ویژگی‌های مرتبط با «تگزاس» را جست‌وجو کرده و سپس از آن برای نتیجه‌گیری درباره «آستین» استفاده می‌کند. یعنی استدلال زنجیره‌ای دارد و صرفا اطلاعات را بازخوانی نمی‌کند.

هوش مصنوعی از خودش جواب می‌سازد!

نگران‌کننده‌ترین بخش تحقیق این بود که گاهی Claude وانمود می‌کند محاسباتی انجام داده، درحالی‌که چنین نیست. مثلاً وقتی از آن خواسته می‌شود مقدار کسینوس عدد بزرگی را محاسبه کند، ممکن است توضیحی ارائه دهد که ظاهرا منطقی است، اما با فعالیت‌های داخلی مدل همخوانی ندارد!

در مثال دیگری محققان پاسخی برای یک مسئله دشوار به مدل دادند و از آن پرسیدند آیا درست است؟ مدل استدلالی جعلی ساخت که به آن نتیجه ختم شود!

این پژوهش، قدم بزرگی در راستای شفاف‌سازی عملکرد مدل‌های هوش مصنوعی و ایمن‌تر کردن آن‌ها محسوب می‌شود. اگر بدانیم مدل‌ها چگونه به پاسخ می‌رسند، می‌توانیم الگوهای استدلال مشکل‌ساز را شناسایی و اصلاح کنیم. نظر شما چیست؟

به‌تازگی هم چینی‌ها هوش مصنوعی QVQ-Max را معرفی کرده‌اند که می‌بیند، می‌فهمد و فکر می‌کند!