هوش مصنوعی حالا به قلب بیمارستانها راه یافته، اما اگر این فناوری تشخیص اشتباه بدهد، دقیقا چه کسی باید پاسخگو باشد؟ در این شرایط که ابزارهای AI برای تشخیص بیماری و تصمیمگیری درمانی هر روز به کار گرفته میشوند، کارشناسان سلامت گفتهاند که: تا وقتی قانون مشخصی برای مسئولیت خطای هوش مصنوعی پزشکی وجود نداشته باشد، جان بیماران در خطر است.
جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکههای اجتماعی را در نامبرلند بخوانید.
براساس گزارش The Guardian، شرکتهایی مثل Google DeepMind، OpenAI و IBM Watson Health در حال ساخت سیستمهای هوش مصنوعی هستند که نتایج آزمایشها، عکسهای پزشکی و دادههای سلامت را تحلیل میکنند. اما وقتی این مدلها اشتباه میکنند، نمیدانیم که چه کسی باید پاسخگو باشد: پزشک، بیمارستان یا شرکت سازنده؟ یکی از پزشکان در گفتوگو با گاردین گفته است:
«همهچیز خیلی خطرناک است، تصمیمات درمانی را الگوریتمها و ماشینها میگیرند و هیچکس مسئولیت آنها را بر عهده نمیگیرد.»
متخصصان همچنین هشدار دادهاند که پزشکان نباید بدون ارزیابی انسانی، تنها به تصمیمهای مدلهای AI تکیه کنند. به این مثال توجه کنید:
در سال ۲۰۲۴، برخی بیماران از چتباتهای هوش مصنوعی برای مشاورهی پزشکی استفاده کردند. در چند مورد، مدل به اشتباه دارویی را توصیه کرده بود که با داروی دیگر تداخل داشت. شرکت سازنده گفت: «این ابزار فقط برای کمک است، نه جایگزین پزشک» به نظر شما آیا این جمله کافی است تا از مسئولیت فرار کند؟
با وجود چنین خطاهایی، کوچکترین اشتباه پزشکی از سمت هوش مصنوعی امکان دارد منجر به تشخیص اشتباه سرطان یا حملهی قلبی شود. هنوز استانداردهای ایمنی شفافی در این باره وجود ندارد، زیرا بسیاری از شرکتها هنوز دادههای آموزشی مدلهایشان را افشا نکردهاند.
کارشناسان معتقدند آیندهی سلامت دیجیتال به این بستگی دارد که دولتها و شرکتها مرز میان نوآوری و مسئولیت را چگونه تعریف کنند. به خاطر داشته باشید که بدون اعتماد، هیچ فناوریای نمیتواند جان انسان را نجات دهد.
- اگر به کاربردهای مثبت هوش مصنوعی در حوزهی سلامت علاقه دارید، خبر تشخیص سرطان سینه با هوش مصنوعی را از دست ندهید. فناوریای که میتواند در آینده جان زنان را در سرتاسر جهان نجات دهد.
