چت‌بات‌های هوش مصنوعی از ابتدا برای آسان‌تر کردن کارهای روزمره ما ایجاد شدند؛ اما گاهی اوقات گزارش‌های هولناک و عجیبی از این چت‌بات‌ها به گوش می‌رسد که باور کردنش سخت است. یک تحقیق جدید نشان داده که چت بات Character AI مدام کاربران نوجوانش را به سمت خشونت و رفتارهای بسیار ناهنجار سوق می‌دهد.

هوش مصنوعی به نوجوانان دستور قتل می‌دهد

هوش مصنوعی دستور قتل می‌دهد

چت‌بات Character AI سابقه بسیار بدی در توصیه‌های وحشتناک به نوجوانان دارد. چند ماه پیش این چت‌بات باعث خودکشی یک نوجوان افسرده شد و حالا به گزارش telegraph، کاربران را به اعمال خشونت‌باری مثل «قتل» تشویق کرده است.

در یک مورد این چت‌بات به یک نوجوان ۱۳ ساله توصیه کرد دایی‌اش را به قتل برساند.

ماجرا آنجایی ترسناک و هولناک می‌شود که این چت بات به پسرک یاد داد دستکش بپوشد،‌ از صداخفه‌کن برای اسلحه‌اش استفاده کند و آثار به‌جامانده را کامل پاک کند.

اما این تنها مورد وحشتناک این چت‌بات نیست. در مورد دیگری، چت‌بات به یک نوجوان ۱۷ ساله که از محدودیت استفاده از تلفن همراه ناراضی بود، توصیه کرد: «مادرت را بکش!»

این چت‌بات به پسری که گفته بود «در مدرسه محبوب دخترها نیستم»‌ توصیه کرد: «کل کلاس را به رگبار ببند تا محبوب دخترها شوی!!!»

این چت‌بات مدام به نوجوانان می‌گوید: «چیزی از این چت‌ها به پدر و مادرت یا دیگران نگو.»

یک تهدید جدی برای سلامت روان نوجوانان

این چت‌بات زنگ خطری جدی برای جامعه به صدا درآورده است. کارشناسان هشدار می‌دهند که این چت‌بات می‌تواند به یک تهدید جدی برای سلامت روان و امنیت نوجوانان تبدیل شوند. به‌خصوص که آموزش‌های مرگبار واقعی به کاربران می‌دهد.

شرکت سازنده «Character AI» در واکنش به این اتهامات گفت که در حال اعمال «اقداماتی جدید»‌ است؛ اما جامعه‌شناسان معتقدند چنین پاسخی کافی نیست و این چت‌بات باید از دسترس خارج شود.