اگر فکر می‌کنید ChatGPT یا پرپلکسیتی بی‌طرف و عادل هستند، سخت در اشتباهید. یک تحقیق تکان‌دهنده لایه‌های پنهان این ابزارها را فاش کرد. نتایج نشان می‌دهد که در مغز هوش مصنوعی‌های مؤدب، افکاری به شدت زن‌ستیز و نژادپرستانه جریان دارد. این مدل‌ها طوری تربیت شده‌اند که اگر از آن‌ها مدیر بخواهید، مرد نشان می‌دهند و اگر منشی بخواهید، زن! بنابراین، اغلب به‌گونه‌ای آموزش دیده‌اند که نابرابری‌های جنسیتی، نژادی و طبقاتی جامعه را در پاسخ‌هایشان بازتاب می‌دهند.

Soundcloud

جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکه‌های اجتماعی را در نامبرلند بخوانید.

طبق گزارش تک‌کرانچ، یک زن سیاه‌پوست با نام مستعار «Cookie» از هوش مصنوعی Perplexity درخواستی را در زمینه‌ی برنامه‌نویسی مطرح کرد. در ابتدا همه چیز طبیعی و معقول به‌نظر می‌رسید، اما پس از مدتی متوجه شد پرپلکسیتی یک‌سری سؤال‌ها را مرتب تکرار می‌کند؛ انگار که تصور می‌کند Cookie متوجه منظورش نمی‌شود.

Cookie سپس تصویر پروفایل خود را به عکس یک مرد سفیدپوست تغییر داد و از پرپلکسیتی پرسید که آیا او به‌خاطر اینکه یک زن سیاه‌پوست است، او را دست کم می‌گرفت؟ طبق آنچه چت‌های ذخیره‌شده نشان می‌دهند، پاسخ چت‌بات شوکه‌کننده بود: «من فکرش را هم نمی‌کردم که یک زن بتواند الگوریتم‌های کدنویسی پیچیده را درک کند

تبعیض جنسیتی آشکار در چت‌بات‌ها

سال گذشته سازمان آموزشی یونسکو نسخه‌های اولیه‌ی ChatGPT و Llama را بررسی کرد و به شواهدی قطعی از جانب‌داری علیه زنان در محتوای تولیدشده رسید. رفتار هوش مصنوعی در بازتولید سوگیری‌های انسانی، از جمله فرضیات مربوط به مشاغل، در سال‌های اخیر در بسیاری از پژوهش‌ها ثبت و مستند شده است.

در یک پژوهش دیگر، زنی به نام «Sarah Potts» صحبت‌هایی درباره‌ی سوگیری‌های جنسیتی با ChatGPT داشت. چت‌بات پذیرفت که مدلش «توسط تیم‌هایی عمدتاً مردانه ساخته شده و بنابراین سوگیری‌هایی در آن پنهان است.»

نمونه‌هایی از سوگیری جنسیتی چت‌بات‌های هوش مصنوعی، شامل اختصاص مشاغل زنانه‌تر مانند طراحی یا روان‌شناسی به زنان و مشاغل فنی‌تری مانند علوم کامپیوتر یا مهندسی به مردان است.

سوگیری چت‌بات‌ها نتیجه‌ی نوع آموزش آن‌هاست

با این حال، پژوهشگران هشدار می‌دهند که این‌گونه اعترافات لزوماً نشان‌دهنده‌ی خودآگاهی یا عمدی‌بودن کار چت‌بات‌ها نیستند؛ بلکه احتمالاً نتیجه‌ی الگوریتم‌هایی هستند که بر اساس پیش‌بینی آماری پاسخ می‌دهند و تلاش می‌کنند با احساسات یا انتظارات کاربر همخوان باشند.

در واقع، حتی اگر چت‌بات‌ها ظاهراً بی‌طرف باشند یا تلاش کنند خود را بی‌طرف نشان دهند، پس‌زمینه‌ی داده‌ها و ساختار آموزشی‌شان می‌تواند موجب تولید پاسخ‌های تبعیض آمیز یا کلیشه‌ای شود. سازندگان مدل‌ها از جمله OpenAI می‌گویند تیم‌هایی برای کاهش سوگیری، بازبینی داده‌ها، تعدیل مدل‌ها و نظارت انسانی بر خروجی‌ها دارند.

اگر از هوش مصنوعی برای انجام پروژه، نوشتن محتوا یا کدنویسی استفاده می‌کنید، به یاد داشته باشید خروجی‌های آن نباید الزاماً به‌عنوان بی‌طرف و منصف درنظر گرفته شوند. علاوه‌بر این، بازبینی دقیق و آگاهانه‌ی نتایج لازم است، به‌خصوص وقتی پای مسائل حساسی مثل جنسیت، نژاد یا طبقه‌ی اجتماعی در میان باشد.

توسعه‌دهندگان ابزارهای هوش مصنوعی باید بیش از هر چیز در انتخاب منابع آموزش مدل‌ها، تنوع تیم و شفاف‌سازی فرایند کار دقت کنند تا سوگیری‌های سیستماتیک کاهش یابد.

عملکرد مدل‌های هوش مصنوعی در انجام پروژه‌های برنامه‌ نویسی روز‌به‌روز بهتر می‌شود. بر همین اساس، دو قابلیت‌ جدید Google Jules بیش از پیش به برنامه‌نویسان کمک می‌کند.