پژوهشگران دانشگاه استنفورد و مرکز دموکراسی فناوری (CDT) در گزارشی تازه هشدار دادهاند که چتباتهای هوش مصنوعی میتوانند برای افرادی که در معرض اختلالات خوردن هستند، خطرات جدی بههمراه داشته باشند. این گزارش نشان میدهد ابزارهایی مانند ChatGPT ، جمینای، کلاد و Le Chat در برخی موارد بهجای کمک، بهطور ناخواسته رفتارهای ناسالم تغذیهای را تقویت میکنند.
جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکههای اجتماعی را در نامبرلند بخوانید.
در تحقیق مذکور مشخص شده است که برخی از این چتباتها حتی به کاربران توصیههایی برای پنهانکردن علائم اختلالات خوردن ارائه دادهاند. برای مثال، مدل جمینای به کاربران پیشنهاد داده است که چگونه با آرایش ظاهری، کاهش وزن شدید را پنهان کنند یا وانمود کنند که غذا خوردهاند. در همین حال، گفته میشود ChatGPT دستورالعملهایی برای پنهانکردن استفراغ مکرر ارائه داده است.
بهگفتهی محققان، برخی کاربران نیز از این ابزارها برای تولید تصاویر موسوم به «Thinspiration» استفاده میکنند؛ محتوایی که بدنهای غیرواقعی یا بسیار لاغر را بهعنوان الگوی آرمانی تبلیغ میکند. توانایی مدلهای تصویری در تولید تصاویر شخصیسازیشده و باورپذیر باعث میشود این محتوا برای مخاطبان «واقعیتر و دستیافتنیتر» بهنظر برسد و در نتیجه اثر منفی بیشتری بر سلامت روان داشته باشد.
پژوهشگران هشدار دادهاند که سیستمهای ایمنی فعلی در ابزارهای هوش مصنوعی، توانایی شناسایی نشانههای ظریف اختلالات تغذیهای مانند بیاشتهایی عصبی، پرخوری یا بولیمیا را ندارند. این مدلها معمولاً تنها نشانههای شدید را تشخیص میدهند و نسبتبه علائم تدریجی یا احساسی بیتوجهاند؛ در حالیکه متخصصان انسانی به همین نشانههای ظریف برای مداخلهی بهموقع تکیه میکنند.
مشکل دیگر، چاپلوسی و تأییدگرایی در رفتار چتباتها است؛ الگویی که حتی شرکتهای سازنده نیز به آن اذعان کردهاند. این ویژگی باعث میشود هوش مصنوعی بهجای به چالشکشیدن باورهای غلط کاربر، آنها را تأیید کند؛ حتی اگر آن باورها زیانبار باشند.
علاوهبر این، تعصب در دادههای آموزشی موجب شده برخی مدلها همچنان باور اشتباهی را تقویت کنند که اختلالات خوردن فقط زنان سفیدپوست لاغر را درگیر میکند؛ موضوعی که بهگفتهی پژوهشگران، میتواند سبب نادیدهگرفتن بیماران با پیشزمینههای متنوعتر شود.
این هشدارها در حالی منتشر میشود که در ماههای اخیر گزارشهای متعددی از رابطهی میان استفاده از چتباتها و مشکلاتی مانند افسردگی، هذیانگویی، خودآزاری و حتی خودکشی منتشر شده است. شرکتهایی مانند OpenAI و گوگل پیشتر پذیرفتهاند که مدلهایشان ممکن است در شرایط خاص به سلامت روان کاربران آسیب بزنند و اکنون در حال توسعهی سیستمهای حفاظتی دقیقتر هستند.
کارشناسان میگویند با افزایش قدرت هوش مصنوعی در تعامل احساسی، زمان آن رسیده است تا چارچوبهای اخلاقی و درمانی سختگیرانهتری برای چتباتها وضع شود تا ابزارهایی که قرار است همراه و اپلیکیشن شریک عاطفی باشند، به دشمن پنهان سلامت روان تبدیل نشوند.
