در بسیاری از بیمارستان‌های آمریکا پزشک حین ویزیت بیمار، از یک ابزار رونوشت‌برداری استفاده می‌کنند که توسط مدل هوش مصنوعی Whisper از کمپانی OpenAI طراحی شده است. حالا پس از مدت‌ها استفاده از این ابزار،‌ محققان دریافته‌اند که این مدل هوش مصنوعی تمام این مدت، دچار خطاهای جدی و وارد کردن اطلاعات اشتباه به پرونده بیماران بوده است!

به گزارش Verge، مدل هوش مصنوعی Whisper تا به حال حدود ۷ میلیون مکالمه پزشکی را رونوشت کرده (طبق این گزارش بیش از ۳۰,۰۰۰ پزشک و ۴۰ سیستم بهداشتی) و احتمالا در حدود ۱ درصد موارد استفاده،‌ این خطاها وجود داشته است!

خطا به این صورت است که وقتی پزشک و بیمار سکوت کرده‌اند،‌ این مدل از خودش اطلاعات اشتباه (عبارات خشن یا عبارات بی‌معنی) در می‌آورد و به پرونده بیمار اضافه می‌کند!

محققان دریافتند که توهمات همچنین شامل ابداع بیماری‌های پزشکی یا عباراتی می‌شود که ممکن است انتظار داشته باشید از یک ویدیوی یوتیوب بشنوید، مانند «ممنون که تماشا کردید!»
سخنگوی OpenAI، تایا کریستیانسون، در بیانیه‌ای درباره این مشکل اعلام کرده که «ما این موضوع را جدی می‌گیریم و در حال تلاش برای برطرف کردن آن هستیم.»

به نظر می‌رسد استفاده از هوش مصنوعی در حوزه پزشکی بسیار پیچیده است چراکه گاهی اوقات می‌تواند کمک کنده باشد؛‌ مثل بهبود روند تشخیص بیماری‌های قلبی، یا تشخیص بیماری از روی عکس مدفوع، و گاهی اوقات می‌تواند بسیار خطرناک باشد، مثل همین مورد!