شرکت آنتروپیک روش تازهای برای بررسی نحوه تفکر مدلهای زبانی بزرگ مانند مدل Claude توسعه داده که برای اولین بار نشان میدهد این سیستمهای هوش مصنوعی چگونه اطلاعات را پردازش کرده و تصمیم میگیرند.
این پژوهش نشان میدهد این مدلها پیچیدهتر از چیزی هستند که پیشتر تصور میشد! مدلهای هوش مصنوعی هنگام نوشتن شعر از پیش برنامهریزی میکنند، از یک الگوی ذهنی واحد برای تفسیر مفاهیم در زبانهای مختلف استفاده میکنند و گاهی حتی نتیجه را از قبل تصور کرده و سپس به عقب برمیگردند تا مسیر رسیدن به آن را بسازند، نه اینکه فقط از اطلاعات موجود به نتیجه برسند.
الهام از علوم اعصاب برای درک هوش مصنوعی
این تحقیقات با الهام از تکنیکهای علوم اعصاب که برای مطالعه مغزهای زیستی استفاده میشود، گامی بزرگ در زمینه تفسیرپذیری (interpretability) هوش مصنوعی بهشمار میآید. این روشها میتوانند به پژوهشگران کمک کنند تا ایرادات احتمالی این سیستمها را (که ممکن است در تستهای مرسوم پنهان بمانند) شناسایی و بررسی کنند.
مدل هوش مصنوعی فکر میکند؟
مدلهایی مانند GPT-4o، Claude، و Gemini تواناییهای چشمگیری از خود نشان دادهاند، از نوشتن کد گرفته تا تحلیل پژوهشها؛ با این حال، این مدلها بیشتر بهعنوان «جعبه سیاه» شناخته میشدند و حتی سازندگان آنها هم دقیقاً نمیدانند چطور به پاسخها میرسند!
این رویکرد، با الهام از علوم اعصاب، مدلهای هوش مصنوعی را همچون سیستمهای زیستی در نظر میگیرد.
یکی از جالبترین یافتهها این بود که کلود هنگام نوشتن شعر واقعاً از پیش برنامهریزی میکند. وقتی از مدل خواسته میشود یک دوبیتی قافیهدار بنویسد، قبل از شروع سطر دوم، کلمات احتمالی قافیه را در نظر میگیرد؛ این سطح از پیچیدگی حتی برای پژوهشگران آنتروپیک هم شگفتآور بود.
برای مثال، اگر شعر با کلمه «rabbit» (خرگوش) تمام شود، مدل از همان ابتدای جمله این کلمه را در ذهن فعال میکند و ساختار جمله را طوری تنظیم میکند که به آن ختم شود.
همچنین مشخص شد که Claude استدلال چندمرحلهای واقعی انجام میدهد. مثلاً وقتی پرسیده میشود: «پایتخت ایالتی که دالاس در آن قرار دارد چیست؟»؛ ابتدا ویژگیهای مرتبط با «تگزاس» را جستوجو کرده و سپس از آن برای نتیجهگیری درباره «آستین» استفاده میکند. یعنی استدلال زنجیرهای دارد و صرفا اطلاعات را بازخوانی نمیکند.
هوش مصنوعی از خودش جواب میسازد!
نگرانکنندهترین بخش تحقیق این بود که گاهی Claude وانمود میکند محاسباتی انجام داده، درحالیکه چنین نیست. مثلاً وقتی از آن خواسته میشود مقدار کسینوس عدد بزرگی را محاسبه کند، ممکن است توضیحی ارائه دهد که ظاهرا منطقی است، اما با فعالیتهای داخلی مدل همخوانی ندارد!
در مثال دیگری محققان پاسخی برای یک مسئله دشوار به مدل دادند و از آن پرسیدند آیا درست است؟ مدل استدلالی جعلی ساخت که به آن نتیجه ختم شود!
این پژوهش، قدم بزرگی در راستای شفافسازی عملکرد مدلهای هوش مصنوعی و ایمنتر کردن آنها محسوب میشود. اگر بدانیم مدلها چگونه به پاسخ میرسند، میتوانیم الگوهای استدلال مشکلساز را شناسایی و اصلاح کنیم. نظر شما چیست؟
بهتازگی هم چینیها هوش مصنوعی QVQ-Max را معرفی کردهاند که میبیند، میفهمد و فکر میکند!