گروهی از پژوهشگران گوگل اعلام کرده‌اند که به ساختاری دست یافته‌اند که می‌تواند گامی مهم در جهت ساخت مدل‌های هوش مصنوعی با قابلیت یادگیری پیوسته باشد. این مدل جدید که HOPE نام دارد، از معماری خوداصلاح‌گر بهره می‌برد و به‌گفته‌ی محققان، از توانایی بالاتری در مدیریت حافظه‌ی بلندمدت نسبت‌به مدل‌های پیشرفته‌ی فعلی برخوردار است.

Soundcloud

جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکه‌های اجتماعی را در نامبرلند بخوانید.

مدل‌های زبانی بزرگی که پشت چت‌بات‌های هوش مصنوعی قرار دارند، می‌توانند در چند ثانیه محتوا تولید کنند یا کد بنویسند، اما هنوز توانایی یادگیری از تجربه را ندارند. برخلاف مغز انسان که پیوسته یاد می‌گیرد و بهتر می‌شود، LLM-های فعلی نمی‌توانند بدون آنکه چیزهایی را که از قبل می‌دانند فراموش کنند، دانش یا مهارت جدید به‌دست بیاورند.

گوگل در توضیح این دستاورد، HOPE را نمونه‌ای اولیه از رویکردی با عنوان «یادگیری تودرتو» توصیف کرد؛ رویکردی که در آن هر مدل به‌جای پروسه‌ی مستقل تک‌لایه، به‌صورت مجموعه‌ای از مسائل یادگیری چندلایه و به‌هم‌پیوسته تلقی می‌شود که به‌طور هم‌زمان بهینه‌سازی می‌شوند.

به‌گفته‌ی گوگل، یادگیری تودرتو می‌تواند محدودیت‌ مدل‌های زبانی بزرگ را در زمینه‌ی یادگیری پیوسته برطرف کند؛ محدودیتی که یکی از موانع اصلی در مسیر دستیابی به هوش مصنوعی عمومی یا هوش انسانی به‌شمار می‌رود.

آندری کارپاتی، پژوهشگر شناخته‌شده‌ی هوش مصنوعی و از کارکنان سابق گوگل دیپ‌مایند، ماه گذشته اظهار کرد که رسیدن به هوش مصنوعی عمومی دست‌کم یک دهه‌ی دیگر زمان می‌برد، زیرا هیچ سامانه‌ای تاکنون نتوانسته است یادگیری پیوسته را بدون فراموشی اطلاعات پیشین محقق کند.

کارپاتی تاکید کرد: «این مدل‌ها یادگیری پیوسته ندارند؛ یعنی نمی‌توانی چیزی به آن‌ها بگویی و انتظار داشته باشی همیشه آن را به خاطر بسپارند. از نظر توان شناختی هنوز کمبودهای جدی دارند و در حال حاضر «آن‌طور که باید» کار نمی‌کنند.»

گوگل در توضیح یافته‌های خود آورده است که رویکرد یادگیری تودرتو می‌تواند فاصله‌ی میان مدل‌های زبانی بزرگ فعلی با قابلیت محدود و فراموشی مداوم را با توانایی مغز انسان در یادگیری مستمر کاهش دهد.

مدل‌های زبانی امروزی با وجود توانایی در تولید متن و کد، هنوز فاقد قابلیت کسب دانش جدید بدون از دست‌دادن اطلاعات قبلی‌اند؛ پدیده‌ای که با عنوان «فراموشی فاجعه‌بار» شناخته می‌شود و محققان را به سوی تغییر معماری مدل‌ها یا استفاده از روش‌های تازه سوق داده است.

پژوهشگران گوگل معتقدند معماری مدل و الگوریتم‌های بهینه‌سازی آن در اصل دو جنبه از یک ساختار واحد هستند و می‌توان آن‌ها را به‌صورت مجموعه‌ای از مسائل بهینه‌سازی تودرتو یا موازی در نظر گرفت که هرکدام جریان اطلاعات و زمینه‌ی یادگیری خاص خود را دارند. آن‌ها می‌گویند تشخیص این ساختار می‌تواند امکان طراحی مولفه‌های یادگیری عمیق‌تر و کارآمدتر را فراهم کند و در نهایت راهی برای مقابله با فراموشی فاجعه‌بار بگشاید.

گوگل معتقد است این نگاه می‌تواند به توسعه‌ی معماری‌هایی منجر شود که از عمق محاسباتی بالاتری برخوردارند و در نتیجه کارآمدتر و توانمندتر عمل می‌کنند. مدل HOPE در آزمایش‌های انجام‌شده روی مجموعه‌ای متنوع از وظایف مرتبط با استدلال، توانسته است به دقت بالاتر و سردرگمی کمتر نسبت به مدل‌های مدرن دست یابد.

به‌تازگی اپلیکیشن 2wai برای ساخت آواتار هوش مصنوعی از افراد درگذشته، مورد انتقاد افراد مختلفی قرار گرفته است که آن را عملی غیر اخلاقی و برهم‌زننده‌ی روال طبیعی سوگواری می‌دانند.