اخبار سلامت و پزشکی > پزشکی

چرا هوش مصنوعی قابل اعتماد نیست؟


همشهری آنلاین – آرش نهاوندی: داستان از این قرار است که مردی به اروژانس مراجعه کرده بود که دچار توهمات شنوایی و بینایی شده و ادعا کرده بود که همسایه‌اش او را مسموم کرده است. او که دچار کم آبی شده بود پس از یک تلاش ناکام برای فرار از درمانگاه، با مایعات و الکترولیت‌ها مورد درمان قرار گرفت. او پس ازدرمان اولیه توضیح داد که یک رژیم غذایی بسیار محدود گرفته و سعی کرده بود نمک را به طور کامل حذف کند. او تمام نمک غذای خود را با سدیم بروماید که اغلب به عنوان ضد تشنج سگ استفاده می‌شود، جایگزین کرده بود. او در ادامه توضیح داد که این کار را با استناد از اطلاعاتی که از چت جی پی تی دریافت کرده بود، انجام داده است.

اشتباه مرگبار

او پس از بهبودی بیشتر اطلاعاتی که از چت جی پی تی به دست آورده بود گفت که پس از مطالعه در مورد اثرات منفی کلرید سدیم یا نمک طعام بر سلامت فرد، از اینکه فقط می‌توانست مطالب مربوط به کاهش سدیم از رژیم غذایی خود را پیدا کند، شگفت‌زده شد. او با الهام از سابقه تحصیل در رشته تغذیه در دانشگاه، تصمیم گرفت یک آزمایش شخصی برای حذف کلرید از رژیم غذایی خود انجام دهد. او پس از مشاوره با چت جی پی تی به مدت ۳ ماه، کلرید سدیم را با سدیم برومید جایگزین کردد. در این سایت خوانده بود که کلرید را می‌توان با برومید جایگزین کرد، این در حالی است که سدیم برومید بیشتر به عنوان داروی سگ کاربرد دارد و همچنین برای اهداف نظافت منزل نیز به کار می‌رود. البت هسدیم بوومید کابردهای مختلفی دارد و از پر مصرف‌ترین نمک‌های برومیدی محسوب می‌شود. این ماده شیمیایی علاوه بر صنعت نفت و گاز در داروسازی و پزشکی نیز به عنوان ضد انعقادف ضد تشنج به کار می‌رود.

پارانویا و توهمات

این اشتباه چت پی تی عاقبت دردناکی را برای این مرد ۶۰ ساله رغم زد. در بخشی از مقاله مطالعه‌ای که روی این مرد انجام شده وضعیت وی در ساعات اولیه پذیرش در اورژانس اینچنین تشریح شده است: در ۲۴ ساعت اول بستری، او دچار پارانویا و توهمات شنیداری و دیداری فزاینده‌ای شد که پس از تلاش برای فرار، منجر به بستری شدن اجباری در بیمارستان روانی به دلیل ناتوانی شدید شد.

پزشکان به این نتیجه رسیدند که این مرد از برومیسم یا مسمومیت با برومید رنج می‌برد، بیماری‌ که امروزه نادر است اما در اوایل قرن بیستم شایع‌تر بوده است. این تحقیق خاطرنشان کرد که برومید در آن زمان در چندین داروی بدون نسخه یافت می‌شد و تا ۸ درصد از پذیرش‌های روانپزشکی مرتبط با برومیسم در آن زمان را تشکیل می‌داد.

انتشار اخبار این مطالعه باعث ایجاد نگرانی‌های جدی درباره احتمال ارائه اطلاعات اشتباه توسط هوش مصنوعی به ویژه در عرصه ‌های پزشکی و درمان شده است. اما آیا این نگرانی‌ها با واقعیت آنچه در حال رخ دادن است، انطباق دارد یا صرفا نگرانی‌هایی است که درباره یک اتفاق موردی بروز پیدا کرده.

اشکالات هوش مصنوعی

چرا هوش مصنوعی قابل اعتماد نیست؟

اگرچه مشاوره‌های پزشکی مبتنی بر هوش مصنوعی و بررسی آنلاین علائم، مزایای بالقوه‌ای را ارائه می‌دهند، اما دارای معایب قابل توجهی نیز هستند. این موارد شامل خطاهای احتمالی در تشخیص، عدم وجود ارتباط انسانی، نگرانی‌های اخلاقی و خطرات مربوط به حریم خصوصی داده‌ها می‌شود. علاوه بر این، جستجوی آنلاین علائم می‌تواند منجر به خود تشخیصی بر اساس اطلاعات ناقص یا نادرست شود که به طور بالقوه باعث نگرانی غیرضروری یا تأخیر در مراقبت‌های پزشکی مناسب می‌شود. در این بخش از مطلب به تشریح برخی از خطاهای هوش مصنوعی می‌‍پردازیم.

اطلاعات نادرست یا گمراه‌کننده

سیستم‌های هوش مصنوعی، از جمله بررسی‌کننده‌های علائم و چت‌بات‌ها، گاهی اوقات می‌توانند اطلاعات نادرست یا ناقصی ارائه دهند که منجر به تشخیص نادرست یا خوددرمانی نامناسب می‌شود.

فقدان همدلی و ارتباط انسانی

هوش مصنوعی فاقد همدلی و درک یک پزشک انسانی است که می‌تواند برای راحتی و اعتماد بیمار بسیار مهم باشد. این امر می‌تواند به ویژه در موقعیت‌های حساس یا هنگام مواجهه با مسائل پیچیده پزشکی اهمیت داشته باشد.

نگرانی‌های اخلاقی

ابزارهای مبتنی بر هوش مصنوعی، سوالات اخلاقی در مورد حریم خصوصی داده‌ها، سوگیری الگوریتمی و پاسخگویی را مطرح می‌کنند. اگر یک هوش مصنوعی اشتباه کند، تعیین اینکه چه کسی مسئول است، دشوار است.

عوارض وابستگی به هوش مصنوعی

وابستگی بیش از حد به هوش مصنوعی می‌تواند بیماران را از جستجوی مراقبت‌های پزشکی مناسب منصرف کند و می‌تواند منجر به کاهش تعامل انسان با پزشکان و متخصصان مراقبت‌های بهداشتی شود.

خطرات زیر پا گذاشتن حریم خصوصی

سیستم‌های هوش مصنوعی نیاز به دسترسی به حجم زیادی از داده‌های بیمار دارند که نگرانی‌هایی را در مورد نقض داده‌ها و سوءاستفاده از اطلاعات حساس ایجاد می‌کند.

سوء تعبیر و اضطراب

جستجوهای آنلاین می‌تواند منجر به سوء تعبیر علائم و نگرانی بی‌مورد شود. بیماران ممکن است بر اساس اطلاعات محدود، واکنش بیش از حد به علائم رایج نشان دهند یا تشخیص اشتباه بدهند.

بیشتر بخوانید:

  • هشدار: ChatGPT ممکن است درمان اشتباه تجویز کند!
  • چطور هوش مصنوعی وسائل پزشکی را دگرگون می‌کند



منبع:همشهری آنلاین

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوشته های مشابه

دکمه بازگشت به بالا