در بسیاری از بیمارستانهای آمریکا پزشک حین ویزیت بیمار، از یک ابزار رونوشتبرداری استفاده میکنند که توسط مدل هوش مصنوعی Whisper از کمپانی OpenAI طراحی شده است. حالا پس از مدتها استفاده از این ابزار، محققان دریافتهاند که این مدل هوش مصنوعی تمام این مدت، دچار خطاهای جدی و وارد کردن اطلاعات اشتباه به پرونده بیماران بوده است!
به گزارش Verge، مدل هوش مصنوعی Whisper تا به حال حدود ۷ میلیون مکالمه پزشکی را رونوشت کرده (طبق این گزارش بیش از ۳۰,۰۰۰ پزشک و ۴۰ سیستم بهداشتی) و احتمالا در حدود ۱ درصد موارد استفاده، این خطاها وجود داشته است!
خطا به این صورت است که وقتی پزشک و بیمار سکوت کردهاند، این مدل از خودش اطلاعات اشتباه (عبارات خشن یا عبارات بیمعنی) در میآورد و به پرونده بیمار اضافه میکند!
محققان دریافتند که توهمات همچنین شامل ابداع بیماریهای پزشکی یا عباراتی میشود که ممکن است انتظار داشته باشید از یک ویدیوی یوتیوب بشنوید، مانند «ممنون که تماشا کردید!»
سخنگوی OpenAI، تایا کریستیانسون، در بیانیهای درباره این مشکل اعلام کرده که «ما این موضوع را جدی میگیریم و در حال تلاش برای برطرف کردن آن هستیم.»
به نظر میرسد استفاده از هوش مصنوعی در حوزه پزشکی بسیار پیچیده است چراکه گاهی اوقات میتواند کمک کنده باشد؛ مثل بهبود روند تشخیص بیماریهای قلبی، یا تشخیص بیماری از روی عکس مدفوع، و گاهی اوقات میتواند بسیار خطرناک باشد، مثل همین مورد!
این هوش مصنوعی چیز مفیدی به نظر نمیاد
معلومه که جای دکتر رو کسی نمیگیره. الکی اعتماد نکنین وگرنه میمیرین