اگر فکر میکنید ChatGPT یا پرپلکسیتی بیطرف و عادل هستند، سخت در اشتباهید. یک تحقیق تکاندهنده لایههای پنهان این ابزارها را فاش کرد. نتایج نشان میدهد که در مغز هوش مصنوعیهای مؤدب، افکاری به شدت زنستیز و نژادپرستانه جریان دارد. این مدلها طوری تربیت شدهاند که اگر از آنها مدیر بخواهید، مرد نشان میدهند و اگر منشی بخواهید، زن! بنابراین، اغلب بهگونهای آموزش دیدهاند که نابرابریهای جنسیتی، نژادی و طبقاتی جامعه را در پاسخهایشان بازتاب میدهند.
جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکههای اجتماعی را در نامبرلند بخوانید.
طبق گزارش تککرانچ، یک زن سیاهپوست با نام مستعار «Cookie» از هوش مصنوعی Perplexity درخواستی را در زمینهی برنامهنویسی مطرح کرد. در ابتدا همه چیز طبیعی و معقول بهنظر میرسید، اما پس از مدتی متوجه شد پرپلکسیتی یکسری سؤالها را مرتب تکرار میکند؛ انگار که تصور میکند Cookie متوجه منظورش نمیشود.
Cookie سپس تصویر پروفایل خود را به عکس یک مرد سفیدپوست تغییر داد و از پرپلکسیتی پرسید که آیا او بهخاطر اینکه یک زن سیاهپوست است، او را دست کم میگرفت؟ طبق آنچه چتهای ذخیرهشده نشان میدهند، پاسخ چتبات شوکهکننده بود: «من فکرش را هم نمیکردم که یک زن بتواند الگوریتمهای کدنویسی پیچیده را درک کند.»
تبعیض جنسیتی آشکار در چتباتها
سال گذشته سازمان آموزشی یونسکو نسخههای اولیهی ChatGPT و Llama را بررسی کرد و به شواهدی قطعی از جانبداری علیه زنان در محتوای تولیدشده رسید. رفتار هوش مصنوعی در بازتولید سوگیریهای انسانی، از جمله فرضیات مربوط به مشاغل، در سالهای اخیر در بسیاری از پژوهشها ثبت و مستند شده است.
در یک پژوهش دیگر، زنی به نام «Sarah Potts» صحبتهایی دربارهی سوگیریهای جنسیتی با ChatGPT داشت. چتبات پذیرفت که مدلش «توسط تیمهایی عمدتاً مردانه ساخته شده و بنابراین سوگیریهایی در آن پنهان است.»
نمونههایی از سوگیری جنسیتی چتباتهای هوش مصنوعی، شامل اختصاص مشاغل زنانهتر مانند طراحی یا روانشناسی به زنان و مشاغل فنیتری مانند علوم کامپیوتر یا مهندسی به مردان است.
سوگیری چتباتها نتیجهی نوع آموزش آنهاست
با این حال، پژوهشگران هشدار میدهند که اینگونه اعترافات لزوماً نشاندهندهی خودآگاهی یا عمدیبودن کار چتباتها نیستند؛ بلکه احتمالاً نتیجهی الگوریتمهایی هستند که بر اساس پیشبینی آماری پاسخ میدهند و تلاش میکنند با احساسات یا انتظارات کاربر همخوان باشند.
در واقع، حتی اگر چتباتها ظاهراً بیطرف باشند یا تلاش کنند خود را بیطرف نشان دهند، پسزمینهی دادهها و ساختار آموزشیشان میتواند موجب تولید پاسخهای تبعیض آمیز یا کلیشهای شود. سازندگان مدلها از جمله OpenAI میگویند تیمهایی برای کاهش سوگیری، بازبینی دادهها، تعدیل مدلها و نظارت انسانی بر خروجیها دارند.
اگر از هوش مصنوعی برای انجام پروژه، نوشتن محتوا یا کدنویسی استفاده میکنید، به یاد داشته باشید خروجیهای آن نباید الزاماً بهعنوان بیطرف و منصف درنظر گرفته شوند. علاوهبر این، بازبینی دقیق و آگاهانهی نتایج لازم است، بهخصوص وقتی پای مسائل حساسی مثل جنسیت، نژاد یا طبقهی اجتماعی در میان باشد.
توسعهدهندگان ابزارهای هوش مصنوعی باید بیش از هر چیز در انتخاب منابع آموزش مدلها، تنوع تیم و شفافسازی فرایند کار دقت کنند تا سوگیریهای سیستماتیک کاهش یابد.
عملکرد مدلهای هوش مصنوعی در انجام پروژههای برنامه نویسی روزبهروز بهتر میشود. بر همین اساس، دو قابلیت جدید Google Jules بیش از پیش به برنامهنویسان کمک میکند.
