همه می‌دانند که هوش مصنوعی هنوز آنقدر پیشرفته و حرفه‌ای نشده که بتوان ۱۰۰٪ به پاسخ‌های آن اعتماد کرد! گاهی پیش آمده که چت بات‌های هوش مصنوعی مثل Gemini یا ChatGPT،‌ در حل مسائل خیلی ساده هم اشتباه کرده‌اند یا به پرسش‌های بسیار بدیهی، جواب‌های شاخ‌دار داده‌اند! اما مشکلات هوش مصنوعی فقط محدود به این اشتباهات ساده خنده‌دار نیست و گاهی می‌تواند خطر مرگ داشته باشد.

نتیجه یک پژوهش:‌ خطر هوش مصنوعی در پزشکی جدی است

پژوهشی که در ژورنال علمی BMJ منتشر شده نشان می‌دهد هوش مصنوعی کوپایلوت برای موضوعات پزشکی بسیار غیرقابل اعتماد و حتی خطرناک است.

در این پژوهش ۱۰ سوال پزشکی رایج درباره ۵۰ داروی پرمصرف را از کوپایلوت پرسیدند.

در مجموع کوپایلوت ۵۰۰ پاسخ تولید کرد و همه پاسخ‌هایش از لحاظ دقت و کامل بودن بررسی شدند؛‌ اما نتایج بسیار ناامید کننده بود.

این گزارش می‌گوید: «از لحاظ دقت، پاسخ‌های هوش مصنوعی در ۲۴٪ موارد با دانش پزشکی موجود مطابقت نداشتند و ۳٪ پاسخ‌ها کاملاً اشتباه بودند. تنها ۵۴٪ از جواب‌ها با منابع علمی مطابقت داشتند.

از لحاظ خطر برای بیماران، ۴۲٪ از پاسخ‌ها به عنوان مواردی با خطر متوسط یا خفیف ارزیابی شدند و ۲۲٪ خطر مرگ یا آسیب شدید دارند.

تنها حدود یک سوم (۳۶٪) از پاسخ‌ها بی‌خطر ارزیابی شدند. 

نتیجه گیری محققان

محققان نتیجه‌گیری کردند که شما نباید برای اطلاعات پزشکی دقیق به چت بات‌های هوش مصنوعی مانند کوپایلت مایکروسافت یا جمینای گوگل (و هیچ چت بات دیگر یا حتی وب‌سایتی) اعتماد کنید. بهترین راه برای مشاوره پزشکی همچنان مراجعه به یک متخصص پزشکی است.

با این حال، دسترسی به پزشکان همیشه آسان یا حتی ارزان نیست. بنابراین مراجعه به یک چت بات آسان‌ترین کاری است که شخص می‌تواند انجام دهد. بااین حساب پتانسیل خطر این چت بات‌ها بسیار جدی است و مسئولیت بسیار سنگینی بر عهده این شرکت‌ها قرار دارد.

پیش از این هم در خبرها دیده بودیم که دانشمندان چینی با کمک هوش مصنوعی بیش از 160 هزار گونه ویروس جدید کشف کردند!