هوش مصنوعی حالا به قلب بیمارستان‌ها راه یافته، اما اگر این فناوری تشخیص اشتباه بدهد، دقیقا چه کسی باید پاسخگو باشد؟ در این شرایط که ابزارهای AI برای تشخیص بیماری و تصمیم‌گیری درمانی هر روز به کار گرفته می‌شوند، کارشناسان سلامت گفته‌اند که: تا وقتی قانون مشخصی برای مسئولیت خطای هوش مصنوعی پزشکی وجود نداشته باشد، جان بیماران در خطر است.

Soundcloud

جدیدترین اخبار تکنولوژی هوش مصنوعی و شبکه‌های اجتماعی را در نامبرلند بخوانید.

براساس گزارش The Guardian، شرکت‌هایی مثل Google DeepMind، OpenAI و IBM Watson Health در حال ساخت سیستم‌های هوش مصنوعی هستند که نتایج آزمایش‌ها، عکس‌های پزشکی و داده‌های سلامت را تحلیل می‌کنند. اما وقتی این مدل‌ها اشتباه می‌کنند، نمی‌دانیم که چه کسی باید پاسخگو باشد: پزشک، بیمارستان یا شرکت سازنده؟ یکی از پزشکان در گفت‌وگو با گاردین گفته است:

«همه‌چیز خیلی خطرناک است، تصمیمات درمانی را الگوریتم‌ها و ماشین‌ها می‌گیرند و هیچ‌کس مسئولیت آن‌ها را بر عهده نمی‌گیرد.»

متخصصان همچنین هشدار داده‌اند که پزشکان نباید بدون ارزیابی انسانی، تنها به تصمیم‌های مدل‌های AI تکیه کنند. به این مثال توجه کنید:

در سال ۲۰۲۴، برخی بیماران از چت‌بات‌های هوش مصنوعی برای مشاوره‌ی پزشکی استفاده کردند. در چند مورد، مدل به اشتباه دارویی را توصیه کرده بود که با داروی دیگر تداخل داشت. شرکت سازنده گفت: «این ابزار فقط برای کمک است، نه جایگزین پزشک» به نظر شما آیا این جمله کافی است تا از مسئولیت فرار کند؟

با وجود چنین خطاهایی، کوچک‌ترین اشتباه پزشکی از سمت هوش مصنوعی امکان دارد منجر به تشخیص اشتباه سرطان یا حمله‌ی قلبی شود. هنوز استانداردهای ایمنی شفافی در این باره وجود ندارد، زیرا بسیاری از شرکت‌ها هنوز داده‌های آموزشی مدل‌هایشان را افشا نکرده‌اند.

کارشناسان معتقدند آینده‌ی سلامت دیجیتال به این بستگی دارد که دولت‌ها و شرکت‌ها مرز میان نوآوری و مسئولیت را چگونه تعریف کنند. به خاطر داشته باشید که بدون اعتماد، هیچ فناوری‌ای نمی‌تواند جان انسان را نجات دهد.

  • اگر به کاربردهای مثبت هوش مصنوعی در حوزه‌ی سلامت علاقه دارید، خبر تشخیص سرطان سینه با هوش مصنوعی را از دست ندهید. فناوری‌ای که می‌تواند در آینده جان زنان را در سرتاسر جهان نجات دهد.