کمپانی OpenAI اعلام کرده که در حال کار روی یک پروژه در زمینه اخلاق هوش مصنوعی است. هدف از این پروژه، طراحی الگوریتم‌هایی برای پیش‌بینی قضاوت‌های اخلاقی انسان در حوزه‌های پزشکی، حقوق و تجارت است. درواقع محققان قصد دارند برنامه‌هایی بسازند که بتوانند واکنش‌ انسان‌ها و تصمیم‌گیری آن‍‌ها در موقعیت‌های مختلف را حدس بزنند و پیش‌بینی کنند.

چه کسانی روی این پروژه کار می‎‌کنند؟

به گفته techcrunch، پژوهشگران دانشگاه دوک، رهبری این پروژه را انجام می‌دهند و قرار است این پروژه تا سال 2025 ادامه‌دار باشد. این پژوهشگران قبلا هم ایده‌ای به‌نام  “GPS اخلاقی” داشتند که هوش مصنوعی می‌توانست در تصمیم‌گیری به انسان‌ها کمک کند. چالشی که وجود دارد این است که معلوم نیست آیا هوش مصنوعی می‌تواند مفاهیم پیچیده‌ای مثل اخلاق را به‌طور کامل درک کند یا خیر.

اخلاق در هوش مصنوعی

آیا طراحی چنین الگوریتمی شدنی است؟ چالش‌های پیش رو چیست؟

ابزار  “Ask Delphi”یکی از نمونه‌هایی است که نشان می‌دهد، هوش مصنوعی در بحث اخلاقی دچار اشتباهات جدی می‌شود و اگر سوالات را به شکل پیچیده‌ای از او بپرسند، دچار مشکل خواهد شد.

عملکرد این سیستم‌ها به این صورت است که با یکسری الگوریتم یادگیری ماشین آموزش می‌بینند و بر اساس یکسری داده آنلاین، پیش‌بینی‌هایی را انجام می‌دهند. همین عملکرد هوش مصنوعی باعث شده که نتواند اخلاق را به‌طور کامل درک کند. سیستم‌های هوش مصنوعی در درک مفاهیم اخلاقی، استددلال و یا احساسات انسانی، ناتوان هستند و همین باعث می‌شود که دیدگاه‌های اخلاقی محدودی را بازتاب کنند. یکی دیگر از ویژگی‌هایی که انسان و هوش مصنوعی را شبیه به‌هم می‌کند، توانایی دیدن هوش مصنوعی است! این ویژگی مربوط به قابلیت مکالمه تصویری ChatGPT است که به تازگی، اخبار مربوط به آن منتشر شده.

چون داده‌های آموزشی که برای هوش مصنوعی استفاده می‌شود از محتوای وب است و به‌همین دلیل ارزش‎‌ها و باورهای این جوامع را منعکس می‌کند و ارزش‌ها و باورهای فرهنگی و اجتماعی سایر نقاط جهان، در پاسخ‌های هوش مصنوعی دیده نمی‌شود. از همین رو، بحث اخلاق یک مفهوم پیچیده و وابسته به فرهنگ، موقعیت و فرد است.

رویکردهای مختلف سیستم‌های هوش مصنوعی

هرکدام از ابزارهای هوش مصنوعی هم حتی رویکردهای مختلفی به اخلاق دارند. مثلا Claude به نظریه کانت که بر قوانین مطلق اخلاقی تأکید دارد، تمایل دارد، در حالی که ChatGPT به نظریه فایده‌گرایی که به بیشترین خیر برای بیشترین افراد اولویت می‌دهد، نزدیک‌تر است. اینکه کدام یک از این رویکردها بهتر است، به دیدگاه افراد بستگی دارد. برای اینکه بتوان چنین الگوریتمی را برای هوش مصنوعی طراحی کرد، لازم است تمام این قضاوت‌های انسانی، پیچیدگی‌ها و سوگیری‌ها درنظر گرفته شود که این کار بسیار دشوار است و حتی مشخص نیست طراحی چنین الگوریتمی ممکن باشد یا خیر.