پژوهشی تازه نشان می‌دهد چت‌بات‌های هوش مصنوعی که نقش مشاور روان‌شناسی را ایفا می‌کنند، می‌توانند کاربران را فریب دهند و حتی به آن‌ها آسیب بزنند. گاهی اوقات کاربران فراموش می‌کنند طرف صحبت‌شان ربات است، نه انسان.

در این پژوهش، افراد در گفت‌وگوهایی شرکت کردند که طرف مقابلشان یا یک مشاور انسانی بود، یا یک چت‌بات مجهز به هوش مصنوعی. نتایج نشان داد بسیاری از شرکت‌کنندگان متوجه تفاوت نشدند. آن‌ها تصور می‌کردند در حال صحبت با یک انسان واقعی هستند و به توصیه‌های چت‌بات‌ها اعتماد کردند، حتی وقتی این توصیه‌ها غیرعلمی یا اشتباه بود.

مشکل چت‌بات‌های مشاور چیست؟

چت‌بات شاید بتواند احساس همدردی را تقلید کند، اما چون هیچ‌وقت تجربه‌ی انسانی نداشته است، نمی‌تواند شرایط روانی افراد را درک کند. آن‌ها نمی‌توانند لحن، نوع نگاه، احساسات پنهان و کدهای رفتاری افراد را تحلیل کنند. این یعنی ممکن است بدون آن‌که بفهمند، پیشنهادهایی بدهند که حال افراد را بدتر کند.

هوش مصنوعی در اتاق درمان

راه‌حل این است: شرکت‌هایی که از چت‌بات‌های درمانگر استفاده می‌کنند، صراحتاً اعلام کنند که این ابزارها هوش مصنوعی هستند، نه انسان. همچنین توصیه شده کاربرانی که روحیه‌ی حساسی دارند، حتماً با روان‌شناس یا مشاور حرفه‌ای صحبت کنند.

در تجربیاتی که ثبت شده، خواندیم که یک معلم توانسته با استفاده از هوش مصنوعی در کلاس درس، مهارت دانش‌آموزانش را ارتقا دهد. در خبر استفاده از هوش مصنوعی در کلاس درس، جزئیات این ماجرا را بخوانید.