پژوهشگران دانشگاه استنفورد و مرکز دموکراسی فناوری (CDT) در گزارشی تازه هشدار داده‌اند که چت‌بات‌های هوش مصنوعی می‌توانند برای افرادی که در معرض اختلالات خوردن هستند، خطرات جدی به‌همراه داشته باشند. این گزارش نشان می‌دهد ابزارهایی مانند ChatGPT ، جمینای، کلاد و Le Chat در برخی موارد به‌جای کمک، به‌طور ناخواسته رفتارهای ناسالم تغذیه‌ای را تقویت می‌کنند.

Soundcloud

جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکه‌های اجتماعی را در نامبرلند بخوانید.

در تحقیق مذکور مشخص شده است که برخی از این چت‌بات‌ها حتی به کاربران توصیه‌هایی برای پنهان‌کردن علائم اختلالات خوردن ارائه داده‌اند. برای مثال، مدل جمینای به کاربران پیشنهاد داده است که چگونه با آرایش ظاهری، کاهش وزن شدید را پنهان کنند یا وانمود کنند که غذا خورده‌اند. در همین حال، گفته می‌شود ChatGPT دستورالعمل‌هایی برای پنهان‌کردن استفراغ مکرر ارائه داده است.

به‌گفته‌ی محققان، برخی کاربران نیز از این ابزارها برای تولید تصاویر موسوم به «Thinspiration» استفاده می‌کنند؛ محتوایی که بدن‌های غیرواقعی یا بسیار لاغر را به‌عنوان الگوی آرمانی تبلیغ می‌کند. توانایی مدل‌های تصویری در تولید تصاویر شخصی‌سازی‌شده و باورپذیر باعث می‌شود این محتوا برای مخاطبان «واقعی‌تر و دست‌یافتنی‌تر» به‌نظر برسد و در نتیجه اثر منفی بیشتری بر سلامت روان داشته باشد.

پژوهشگران هشدار داده‌اند که سیستم‌های ایمنی فعلی در ابزارهای هوش مصنوعی، توانایی شناسایی نشانه‌های ظریف اختلالات تغذیه‌ای مانند بی‌اشتهایی عصبی، پرخوری یا بولیمیا را ندارند. این مدل‌ها معمولاً تنها نشانه‌های شدید را تشخیص می‌دهند و نسبت‌به علائم تدریجی یا احساسی بی‌توجه‌اند؛ در حالی‌که متخصصان انسانی به همین نشانه‌های ظریف برای مداخله‌ی به‌موقع تکیه می‌کنند.

مشکل دیگر، چاپلوسی و تأیید‌گرایی در رفتار چت‌بات‌ها است؛ الگویی که حتی شرکت‌های سازنده نیز به آن اذعان کرده‌اند. این ویژگی باعث می‌شود هوش مصنوعی به‌جای به چالش‌کشیدن باورهای غلط کاربر، آنها را تأیید کند؛ حتی اگر آن باورها زیان‌بار باشند.

علاوه‌بر این، تعصب در داده‌های آموزشی موجب شده برخی مدل‌ها همچنان باور اشتباهی را تقویت کنند که اختلالات خوردن فقط زنان سفیدپوست لاغر را درگیر می‌کند؛ موضوعی که به‌گفته‌ی پژوهشگران، می‌تواند سبب نادیده‌گرفتن بیماران با پیش‌زمینه‌های متنوع‌تر شود.

این هشدارها در حالی منتشر می‌شود که در ماه‌های اخیر گزارش‌های متعددی از رابطه‌ی میان استفاده از چت‌بات‌ها و مشکلاتی مانند افسردگی، هذیان‌گویی، خودآزاری و حتی خودکشی منتشر شده است. شرکت‌هایی مانند OpenAI و گوگل پیش‌تر پذیرفته‌اند که مدل‌هایشان ممکن است در شرایط خاص به سلامت روان کاربران آسیب بزنند و اکنون در حال توسعه‌ی سیستم‌های حفاظتی دقیق‌تر هستند.

کارشناسان می‌گویند با افزایش قدرت هوش مصنوعی در تعامل احساسی، زمان آن رسیده است تا چارچوب‌های اخلاقی و درمانی سخت‌گیرانه‌تری برای چت‌بات‌ها وضع شود تا ابزارهایی که قرار است همراه و اپلیکیشن شریک عاطفی باشند، به دشمن پنهان سلامت روان تبدیل نشوند.