تصور کنید به درمانگر خود اعتماد کرده‌اید، حرف‌های خصوصی و حساس را با او در میان گذاشته‌اید، و در عوض پاسخی شنیده‌اید که آرامش‌بخش بوده است. اما بعد می‌فهمید که این کلمات نه از دل یک انسان، بلکه از دل هوش مصنوعی بیرون آمده‌اند! همین صحنه این روزها برای برخی بیماران در جهان به واقعیت تبدیل شده و بحث داغی درباره‌ی استفاده مخفیانه ChatGPT در روان‌درمانی به راه انداخته است.

Soundcloud

جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکه‌های اجتماعی را در نامبرلند بخوانید.

براساس گزارشی از MIT Technology Review تعدادی از مراجعان بعد از کشف این موضوع در شبکه‌های اجتماعی واکنش‌های تندی نشان دادند. آن‌ها گفتند جملاتی که تصور می‌کردند از دل همدلی انسانی آمده، درواقع متن‌های تولیدشده توسط هوش مصنوعی بوده است.

وقتی درمانگر به ChatGPT تکیه می‌کند

گزارش تأکید می‌کند که سه مشکل اساسی در این اتفاق وجود دارد:

  1. اخلاق درمانی: استفاده از ابزار بدون رضایت و آگاهی مراجع، نقض اصل شفافیت و صداقت است.
  2. حریم خصوصی: اطلاعات حساس بیماران ممکن است در پلتفرم‌هایی ذخیره شود که هیچ تضمینی برای امنیت پزشکی (مانند HIPAA) ندارند.
  3. فشار کاری درمانگران: بسیاری از روان‌درمانگران از خستگی و بار زیاد کار رنج می‌برند و ChatGPT را راه‌حلی سریع می‌بینند؛ اما این میان‌بُر هزینه‌ی سنگینی برای بیماران دارد.

پیامد این اتفاق برای بیماران جدی است: وقتی اعتماد آسیب ببیند، رابطه‌ی درمانی عملاً کارکرد خود را از دست می‌دهد. بیماران ممکن است جلسات را نیمه‌کاره رها کنند یا حتی به‌طور کلی از مراجعه به متخصصان منصرف شوند. برای کاربران عادی هم این ماجرا یک هشدار است که بدانند حتی در فضاهای درمانی باید درباره ابزارهایی که درمانگران استفاده می‌کنند شفافیت وجود داشته باشد.

کجا AI مفید است و کجا خطرناک؟

هوش مصنوعی در حوزه‌هایی مثل یادگیری زبان یا ترجمه‌ی متون می‌تواند ابزار کمکی عالی باشد. اما وقتی پای مسائل عمیق انسانی مثل روان‌درمانی به میان می‌آید، شفافیت حیاتی است. همان‌طور که نمی‌پذیریم پزشک بدون اطلاع ما آزمایش دارویی انجام دهد، استفاده از ChatGPT هم باید با اطلاع و رضایت کامل بیمار باشد.

  • این ماجرا نشان می‌دهد که هوش مصنوعی گاهی می‌تواند اعتماد انسان‌ها را به چالش بکشد. در همین زمینه، خبر خطای دید ChatGPT، را بخوانید. گزارشی درباره‌ی محدودیت‌های مدل‌های زبانی و برداشت اشتباه آن‌ها از تصاویر.