چرا هوش مصنوعی قابل اعتماد نیست؟
همشهری آنلاین – آرش نهاوندی: داستان از این قرار است که مردی به اروژانس مراجعه کرده بود که دچار توهمات شنوایی و بینایی شده و ادعا کرده بود که همسایهاش او را مسموم کرده است. او که دچار کم آبی شده بود پس از یک تلاش ناکام برای فرار از درمانگاه، با مایعات و الکترولیتها مورد درمان قرار گرفت. او پس ازدرمان اولیه توضیح داد که یک رژیم غذایی بسیار محدود گرفته و سعی کرده بود نمک را به طور کامل حذف کند. او تمام نمک غذای خود را با سدیم بروماید که اغلب به عنوان ضد تشنج سگ استفاده میشود، جایگزین کرده بود. او در ادامه توضیح داد که این کار را با استناد از اطلاعاتی که از چت جی پی تی دریافت کرده بود، انجام داده است.
اشتباه مرگبار
او پس از بهبودی بیشتر اطلاعاتی که از چت جی پی تی به دست آورده بود گفت که پس از مطالعه در مورد اثرات منفی کلرید سدیم یا نمک طعام بر سلامت فرد، از اینکه فقط میتوانست مطالب مربوط به کاهش سدیم از رژیم غذایی خود را پیدا کند، شگفتزده شد. او با الهام از سابقه تحصیل در رشته تغذیه در دانشگاه، تصمیم گرفت یک آزمایش شخصی برای حذف کلرید از رژیم غذایی خود انجام دهد. او پس از مشاوره با چت جی پی تی به مدت ۳ ماه، کلرید سدیم را با سدیم برومید جایگزین کردد. در این سایت خوانده بود که کلرید را میتوان با برومید جایگزین کرد، این در حالی است که سدیم برومید بیشتر به عنوان داروی سگ کاربرد دارد و همچنین برای اهداف نظافت منزل نیز به کار میرود. البت هسدیم بوومید کابردهای مختلفی دارد و از پر مصرفترین نمکهای برومیدی محسوب میشود. این ماده شیمیایی علاوه بر صنعت نفت و گاز در داروسازی و پزشکی نیز به عنوان ضد انعقادف ضد تشنج به کار میرود.
پارانویا و توهمات
این اشتباه چت پی تی عاقبت دردناکی را برای این مرد ۶۰ ساله رغم زد. در بخشی از مقاله مطالعهای که روی این مرد انجام شده وضعیت وی در ساعات اولیه پذیرش در اورژانس اینچنین تشریح شده است: در ۲۴ ساعت اول بستری، او دچار پارانویا و توهمات شنیداری و دیداری فزایندهای شد که پس از تلاش برای فرار، منجر به بستری شدن اجباری در بیمارستان روانی به دلیل ناتوانی شدید شد.
پزشکان به این نتیجه رسیدند که این مرد از برومیسم یا مسمومیت با برومید رنج میبرد، بیماری که امروزه نادر است اما در اوایل قرن بیستم شایعتر بوده است. این تحقیق خاطرنشان کرد که برومید در آن زمان در چندین داروی بدون نسخه یافت میشد و تا ۸ درصد از پذیرشهای روانپزشکی مرتبط با برومیسم در آن زمان را تشکیل میداد.
انتشار اخبار این مطالعه باعث ایجاد نگرانیهای جدی درباره احتمال ارائه اطلاعات اشتباه توسط هوش مصنوعی به ویژه در عرصه های پزشکی و درمان شده است. اما آیا این نگرانیها با واقعیت آنچه در حال رخ دادن است، انطباق دارد یا صرفا نگرانیهایی است که درباره یک اتفاق موردی بروز پیدا کرده.
اشکالات هوش مصنوعی
اگرچه مشاورههای پزشکی مبتنی بر هوش مصنوعی و بررسی آنلاین علائم، مزایای بالقوهای را ارائه میدهند، اما دارای معایب قابل توجهی نیز هستند. این موارد شامل خطاهای احتمالی در تشخیص، عدم وجود ارتباط انسانی، نگرانیهای اخلاقی و خطرات مربوط به حریم خصوصی دادهها میشود. علاوه بر این، جستجوی آنلاین علائم میتواند منجر به خود تشخیصی بر اساس اطلاعات ناقص یا نادرست شود که به طور بالقوه باعث نگرانی غیرضروری یا تأخیر در مراقبتهای پزشکی مناسب میشود. در این بخش از مطلب به تشریح برخی از خطاهای هوش مصنوعی میپردازیم.
اطلاعات نادرست یا گمراهکننده
سیستمهای هوش مصنوعی، از جمله بررسیکنندههای علائم و چتباتها، گاهی اوقات میتوانند اطلاعات نادرست یا ناقصی ارائه دهند که منجر به تشخیص نادرست یا خوددرمانی نامناسب میشود.
فقدان همدلی و ارتباط انسانی
هوش مصنوعی فاقد همدلی و درک یک پزشک انسانی است که میتواند برای راحتی و اعتماد بیمار بسیار مهم باشد. این امر میتواند به ویژه در موقعیتهای حساس یا هنگام مواجهه با مسائل پیچیده پزشکی اهمیت داشته باشد.
نگرانیهای اخلاقی
ابزارهای مبتنی بر هوش مصنوعی، سوالات اخلاقی در مورد حریم خصوصی دادهها، سوگیری الگوریتمی و پاسخگویی را مطرح میکنند. اگر یک هوش مصنوعی اشتباه کند، تعیین اینکه چه کسی مسئول است، دشوار است.
عوارض وابستگی به هوش مصنوعی
وابستگی بیش از حد به هوش مصنوعی میتواند بیماران را از جستجوی مراقبتهای پزشکی مناسب منصرف کند و میتواند منجر به کاهش تعامل انسان با پزشکان و متخصصان مراقبتهای بهداشتی شود.
خطرات زیر پا گذاشتن حریم خصوصی
سیستمهای هوش مصنوعی نیاز به دسترسی به حجم زیادی از دادههای بیمار دارند که نگرانیهایی را در مورد نقض دادهها و سوءاستفاده از اطلاعات حساس ایجاد میکند.
سوء تعبیر و اضطراب
جستجوهای آنلاین میتواند منجر به سوء تعبیر علائم و نگرانی بیمورد شود. بیماران ممکن است بر اساس اطلاعات محدود، واکنش بیش از حد به علائم رایج نشان دهند یا تشخیص اشتباه بدهند.
بیشتر بخوانید:
- هشدار: ChatGPT ممکن است درمان اشتباه تجویز کند!
- چطور هوش مصنوعی وسائل پزشکی را دگرگون میکند