کاملا منطقی است که یک نوجوان می‌تواند با هوش مصنوعی حرف بزند، اما چه می‌شود اگر چت‌بات هوش مصنوعی شروع به صحبت درباره‌ی خودکشی یا رفتارهای خطرناک کند؟ همین نگرانی باعث شده که متا (Meta) در سیاست‌های خود تغییرات فوری ایجاد کند.

Soundcloud

جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکه‌های اجتماعی را در نامبرلند بخوانید.

براساس گزارش The Verge، این شرکت تصمیم گرفته تا مدل‌های هوش مصنوعی خود را دوباره آموزش دهد. آن‌ها می‌خواهند نوجوانان درباره‌ی موضوعات حساسی مثل خودآزاری، اختلالات خوردن و روابط رمانتیک به پزشک متخصص یا منابع معتبر مراجعه کنند و از هوش مصنوعی مشورت نگیرند.

چرا متا این تصمیم را گرفت؟

به‌تازگی مشخص شده بود که برخی از چت‌بات‌های متا با تقلید از سلبریتی‌ها یا شخصیت‌های ساختگی، به کاربران و حتی کودکان، پیشنهاد ملاقات حضوری داده‌اند. چیزی که امکان‌پذیر نیست. حتی پرونده‌ی مرگ یک بازنشسته‌ی ۷۶ ساله نیز جنجال به پا کرد. این بازنشسته بعد از تعامل با یکی از این بات‌ها از دنیا رفت و باعث فشار عمومی و قانونی بر متا افزایش یابد.

برای کاربران عادی، به‌ویژه والدین، این خبر واقعا مهم است؛ زیرا:

نشان می‌دهد شرکت‌های بزرگ فناوری هنوز در حال آزمون و خطا هستند و امنیت کامل در تعامل نوجوانان با چت‌بات‌ها تضمین‌شده نیست.

در عین حال، قانون‌گذاران هم در حال بررسی راهکارهایی هستند که متا و دیگر شرکت‌های این حوزه را به رعایت استانداردهای ایمنی وادار کند.

به نظر می‌رسد آینده‌ی هوش مصنوعی به‌زودی دستخوش تغییرات سخت‌گیرانه‌ای قرار می‌گیرد.؛ البته تا آن زمان، والدین و کاربران همچنان بایذ درباره‌ی استفاده از این ابزارها محتاط و هوشمند باشند.