تصور کنید به درمانگر خود اعتماد کردهاید، حرفهای خصوصی و حساس را با او در میان گذاشتهاید، و در عوض پاسخی شنیدهاید که آرامشبخش بوده است. اما بعد میفهمید که این کلمات نه از دل یک انسان، بلکه از دل هوش مصنوعی بیرون آمدهاند! همین صحنه این روزها برای برخی بیماران در جهان به واقعیت تبدیل شده و بحث داغی دربارهی استفاده مخفیانه ChatGPT در رواندرمانی به راه انداخته است.
جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکههای اجتماعی را در نامبرلند بخوانید.
براساس گزارشی از MIT Technology Review تعدادی از مراجعان بعد از کشف این موضوع در شبکههای اجتماعی واکنشهای تندی نشان دادند. آنها گفتند جملاتی که تصور میکردند از دل همدلی انسانی آمده، درواقع متنهای تولیدشده توسط هوش مصنوعی بوده است.
وقتی درمانگر به ChatGPT تکیه میکند
گزارش تأکید میکند که سه مشکل اساسی در این اتفاق وجود دارد:
- اخلاق درمانی: استفاده از ابزار بدون رضایت و آگاهی مراجع، نقض اصل شفافیت و صداقت است.
- حریم خصوصی: اطلاعات حساس بیماران ممکن است در پلتفرمهایی ذخیره شود که هیچ تضمینی برای امنیت پزشکی (مانند HIPAA) ندارند.
- فشار کاری درمانگران: بسیاری از رواندرمانگران از خستگی و بار زیاد کار رنج میبرند و ChatGPT را راهحلی سریع میبینند؛ اما این میانبُر هزینهی سنگینی برای بیماران دارد.
پیامد این اتفاق برای بیماران جدی است: وقتی اعتماد آسیب ببیند، رابطهی درمانی عملاً کارکرد خود را از دست میدهد. بیماران ممکن است جلسات را نیمهکاره رها کنند یا حتی بهطور کلی از مراجعه به متخصصان منصرف شوند. برای کاربران عادی هم این ماجرا یک هشدار است که بدانند حتی در فضاهای درمانی باید درباره ابزارهایی که درمانگران استفاده میکنند شفافیت وجود داشته باشد.
کجا AI مفید است و کجا خطرناک؟
هوش مصنوعی در حوزههایی مثل یادگیری زبان یا ترجمهی متون میتواند ابزار کمکی عالی باشد. اما وقتی پای مسائل عمیق انسانی مثل رواندرمانی به میان میآید، شفافیت حیاتی است. همانطور که نمیپذیریم پزشک بدون اطلاع ما آزمایش دارویی انجام دهد، استفاده از ChatGPT هم باید با اطلاع و رضایت کامل بیمار باشد.
- این ماجرا نشان میدهد که هوش مصنوعی گاهی میتواند اعتماد انسانها را به چالش بکشد. در همین زمینه، خبر خطای دید ChatGPT، را بخوانید. گزارشی دربارهی محدودیتهای مدلهای زبانی و برداشت اشتباه آنها از تصاویر.
