Featured
- Get link
- Other Apps
جدیدترین توسعه در هوش مصنوعی
چند ماه پیش، زنی در اواسط 50 سالگی -
اجازه دهید او را سوفی بنامیم - یک سکته هموراژیک را تجربه کرد. مغزش شروع به خونریزی
کرد. او تحت عمل جراحی مغز قرار گرفت، اما قلبش از تپش ایستاد.
مصیبت سوفی باعث آسیب مغزی قابل توجهی
شد. او بی پاسخ بود. وقتی از او می پرسیدند نمی توانست انگشتانش را فشار دهد یا
چشمانش را باز کند، و وقتی پوستش نیشگون گرفته بود، تکان نخورد. او برای نفس کشیدن
به یک لوله تراکئوستومی در گردن و یک لوله تغذیه برای رساندن مواد غذایی مستقیم به
معدهاش نیاز داشت، زیرا نمیتوانست قورت دهد. مراقبت های پزشکی او از آنجا باید
به کجا برسد؟
هالند کاپلان، پزشک داخلی در کالج پزشکی
بیلور که در مراقبت از سوفی نقش داشت، به یاد میآورد که این سؤال دشوار، همانطور
که معمولاً در این نوع موقعیتها وجود دارد، به اعضای خانواده سوفی سپرده شد. اما
خانواده نتوانستند موافقت کنند. دختر سوفی اصرار داشت که مادرش میخواهد درمانهای
پزشکی را متوقف کند و در آرامش بمیرد. یکی دیگر از اعضای خانواده به شدت مخالف بود
و اصرار داشت که سوفی "یک مبارز" است. وضعیت برای همه افراد درگیر، از
جمله پزشکان سوفی، ناراحت کننده بود.
پدرگرایی هوش مصنوعی می تواند استقلال
بیمار را در معرض خطر قرار دهد - اگر اجازه دهیم.
دیوید وندلر، یک متخصص اخلاق زیستی در
مؤسسه ملی بهداشت ایالات متحده، می گوید که تصمیمات پایان زندگی می تواند برای
جانشینان بسیار ناراحت کننده باشد، افرادی که باید از طرف شخص دیگری این تماس ها
را انجام دهند. وندلر و همکارانش روی ایدهای کار کردهاند که میتواند کارها را
آسانتر کند: ابزاری مبتنی بر هوش مصنوعی که میتواند به جانشینان کمک کند تا پیشبینی
کنند که خود بیماران در هر موقعیتی چه میخواهند.
ابزار هنوز ساخته نشده است. اما وندلر
قصد دارد آن را بر روی داده های پزشکی، پیام های شخصی و پست های رسانه های اجتماعی
خود آموزش دهد. او امیدوار است که نه تنها بتواند در تعیین خواسته های بیمار دقیق
تر باشد، بلکه استرس و بار عاطفی تصمیم گیری دشوار را برای اعضای خانواده کاهش دهد.
وندلر، همراه با برایان ارپ، متخصص
اخلاق زیستی در دانشگاه آکسفورد و همکارانشان، امیدوارند که به محض تأمین بودجه
برای آن، احتمالاً در ماههای آینده، ساخت این ابزار را آغاز کنند. اما ارائه آن
ساده نخواهد بود. منتقدان تعجب میکنند که چگونه میتوان چنین ابزاری را از نظر
اخلاقی بر روی دادههای یک فرد آموزش داد و آیا تصمیمات مرگ یا زندگی باید به هوش
مصنوعی سپرده شود.
زندگی کن یا بمیر
حدود 34 درصد از افراد در یک محیط پزشکی
به دلایل مختلف قادر به تصمیم گیری در مورد مراقبت از خود نیستند. برای مثال ممکن
است ناخودآگاه باشند یا قادر به استدلال یا برقراری ارتباط نباشند. این رقم در میان
افراد مسن بالاتر است - یک مطالعه روی افراد بالای 60 سال در ایالات متحده نشان
داد که 70٪ از کسانی که با تصمیمات مهم در مورد مراقبت از خود مواجه شده اند، فاقد
ظرفیت لازم برای تصمیم گیری خودشان هستند. وندلر می گوید: «این فقط تصمیمات زیادی
نیست، بلکه تصمیمات واقعاً مهم زیادی است. «انواع تصمیماتی که اساساً تعیین میکنند
که آیا فرد در آینده نزدیک زندگی میکند یا میمیرد.»
فشرده سازی قفسه سینه بر روی قلب نارسا
ممکن است عمر فرد را افزایش دهد. اما این درمان ممکن است منجر به شکستگی سینه و
دندهها شود و تا زمانی که فرد به اطراف مراجعه کند، ممکن است آسیب مغزی قابل توجهی
ایجاد شود. کارکرد قلب و ریهها با دستگاه ممکن است خون اکسیژندار را برای سایر
اندامها حفظ کند - اما بهبودی تضمینی نیست و فرد ممکن است در این مدت به عفونتهای
متعددی مبتلا شود. یک فرد بیمار لاعلاج ممکن است بخواهد به آزمایش داروها و روشهای
تجویز شده در بیمارستان که میتوانند چند هفته یا چند ماه دیگر ارائه دهند، ادامه
دهد. اما ممکن است شخص دیگری بخواهد از این مداخلات چشم پوشی کند و در خانه راحت
تر باشد.
علوم اعصاب جدید درک ما از روند مرگ را
به چالش می کشد - فرصت هایی را برای افراد زنده به ارمغان می آورد.
فقط از هر سه بزرگسال در ایالات متحده یک
نفر هر نوع دستورالعمل قبلی را تکمیل می کند - یک سند قانونی که مراقبت های پایان
زندگی را که ممکن است بخواهند دریافت کنند مشخص می کند. وندلر تخمین می زند که بیش
از 90 درصد از تصمیمات پایان زندگی توسط فردی غیر از بیمار گرفته می شود. نقش جانشین
این است که این تصمیم را بر اساس باورهایی در مورد نحوه درمان بیمار اتخاذ کند.
اما مردم عموماً در انجام این نوع پیش بینی ها خیلی خوب نیستند. مطالعات نشان میدهد
که جانشینها در حدود ۶۸ درصد مواقع تصمیمات پایان زندگی بیمار
را به دقت پیشبینی میکنند.
وندلر اضافه می کند که خود تصمیمات نیز
می توانند بسیار ناراحت کننده باشند. در حالی که برخی از جانشینان از حمایت از عزیزان
خود احساس رضایت می کنند، برخی دیگر با بار عاطفی دست و پنجه نرم می کنند و می
توانند ماه ها یا حتی سال ها بعد احساس گناه کنند. برخی می ترسند که خیلی زود به
زندگی عزیزان خود پایان دهند. دیگران نگران هستند که رنج خود را بی جهت طولانی
کرده اند. وندلر می گوید: «این واقعا برای بسیاری از مردم بد است. "مردم این
را به عنوان یکی از بدترین کارهایی که تا به حال انجام داده اند توصیف می کنند."
وندلر در حال کار بر روی راه هایی برای
کمک به جانشینان در گرفتن این نوع تصمیمات بوده است. بیش از 10 سال پیش، او ایده
ابزاری را توسعه داد که می تواند یک پات را پیش بینی کند
ترجیحات افراد بر اساس ویژگی هایی
مانند سن، جنسیت و وضعیت بیمه. این ابزار بر اساس یک الگوریتم کامپیوتری آموزش
داده شده بر روی نتایج نظرسنجی از جمعیت عمومی است. ممکن است خام به نظر برسد، اما
به نظر می رسد این ویژگی ها بر احساس مردم در مورد مراقبت های پزشکی تأثیر می
گذارد. به عنوان مثال، یک نوجوان بیشتر از یک نوجوان 90 ساله درمان تهاجمی را
انتخاب می کند. و تحقیقات نشان میدهد که پیشبینیهای مبتنی بر میانگینها میتواند
دقیقتر از حدسهای اعضای خانواده باشد.
در سال 2007، وندلر و همکارانش یک نسخه
اولیه «بسیار اساسی» از این ابزار را بر اساس مقدار کمی داده ساختند. وندلر میگوید،
این ابزار سادهسازی «حداقل به خوبی جانشینهای نزدیکتر» در پیشبینی نوع مراقبتی
که مردم میخواهند انجام داد.
اکنون Wendler،
Earp و همکارانشان روی یک ایده جدید کار می
کنند. ابزار جدیدی که محققان قصد دارند بسازند، به جای اینکه بر اساس ویژگی های
خام باشد، شخصی سازی خواهد شد. این تیم استفاده از هوش مصنوعی و یادگیری ماشینی را
برای پیشبینی اولویتهای درمانی بیمار بر اساس دادههای شخصی مانند سابقه پزشکی،
همراه با ایمیلها، پیامهای شخصی، تاریخچه مرور وب، پستهای رسانههای اجتماعی یا
حتی لایکهای فیسبوک پیشنهاد میکند. نتیجه یک «دوقلوی روانشناختی دیجیتال» یک
فرد خواهد بود – ابزاری که پزشکان و اعضای خانواده میتوانند برای راهنمایی مراقبتهای
پزشکی یک فرد با آن مشورت کنند. هنوز مشخص نیست که این ابزار در عمل چگونه خواهد
بود، اما تیم امیدوار است که این ابزار را قبل از اصلاح آن بسازد و آزمایش کند.
محققان ابزار خود را پیش بینی کننده
ترجیحات بیمار شخصی سازی شده یا به اختصار P4 می نامند. وندلر میگوید، در تئوری، اگر آنطور که میخواهند کار
کند، میتواند از نسخه قبلی ابزار دقیقتر و دقیقتر از جایگزینهای انسانی باشد. Earp میگوید که این میتواند بیشتر منعکسکننده
تفکر فعلی بیمار باشد تا یک دستورالعمل قبلی، که ممکن است یک دهه قبل از آن امضا
شده باشد.
شرط بندی بهتر؟
به گفته جنیفر بلومنتال باربی، ابزاری
مانند P4 همچنین میتواند به کاهش بار عاطفی
جانشینها در اتخاذ چنین تصمیمهای مهم مرگ یا زندگی در مورد اعضای خانوادهشان
کمک کند، که گاهی اوقات ممکن است افراد را با علائم اختلال استرس پس از سانحه
مواجه کند. کارشناس اخلاق پزشکی در کالج پزشکی بیلور در تگزاس.
کاپلان میگوید: برخی از جانشینان «فلج
تصمیمگیری» را تجربه میکنند و ممکن است از این ابزار برای کمک به هدایت آنها در
فرآیند تصمیمگیری استفاده کنند. در مواردی مانند این، P4 میتواند به کاهش برخی از باری که ممکن
است جانشینها تجربه میکنند، کمک کند، بدون اینکه لزوماً پاسخی سیاه و سفید به
آنها بدهد. برای مثال، ممکن است نشان دهد که یک فرد «احتمالاً» یا «بعید» است که
احساس خاصی در مورد یک درمان داشته باشد، یا یک امتیاز درصدی را نشان دهد که نشان
میدهد چقدر احتمال دارد که پاسخ درست یا غلط باشد.
اتوماسیون می تواند به ما در انتخاب های
سخت کمک کند، اما به تنهایی نمی تواند این کار را انجام دهد.
کاپلان می تواند تصور کند که ابزاری
مانند P4 در مواردی مانند سوفی مفید باشد، جایی
که اعضای مختلف خانواده ممکن است نظرات متفاوتی در مورد مراقبت های پزشکی یک فرد
داشته باشند. در این موارد، این ابزار میتواند به این اعضای خانواده ارائه شود تا
به آنها در رسیدن به یک تصمیم کمک کند.
همچنین می تواند به تصمیم گیری در مورد
مراقبت از افرادی که جانشین ندارند کمک کند. کاپلان یک پزشک داخلی در بیمارستان بن
تاوب در هیوستون است، یک بیمارستان «شبکه ایمنی» که بیماران را چه بیمه درمانی
داشته باشند یا نه، درمان میکند. او می گوید: «بسیاری از بیماران ما فاقد مدرک،
زندانی، بی خانمان هستند. "ما از بیمارانی مراقبت می کنیم که اساساً نمی
توانند مراقبت خود را در جای دیگری دریافت کنند."
این بیماران تا زمانی که کاپلان آنها
را ببیند، اغلب در شرایط سخت و در مراحل پایانی بیماری قرار دارند. بسیاری از آنها
نمی توانند در مورد مراقبت خود صحبت کنند، و برخی اعضای خانواده ندارند که از طرف
آنها صحبت کنند. کاپلان میگوید که میتواند ابزاری مانند P4 را تصور کند که در موقعیتهایی مانند این استفاده میشود تا به
پزشکان بینش بیشتری نسبت به آنچه بیمار ممکن است بخواهد بدهد. در چنین مواردی، برای
مثال، یافتن نمایه رسانه اجتماعی فرد ممکن است دشوار باشد. اما اطلاعات دیگر ممکن
است مفید باشد. وندلر میگوید: «اگر چیزی پیشبینیکننده باشد، من آن را در مدل میخواهم.
اگر معلوم شود که رنگ موی افراد یا جایی که به مدرسه ابتدایی رفتهاند یا حرف اول
نام خانوادگی آنها [پیشبینی خواستههای یک فرد] است، میخواهم آنها را اضافه کنم.»
این رویکرد توسط تحقیقات مقدماتی از Earp و همکارانش پشتیبانی میشود که شروع به
اجرای نظرسنجیها برای یافتن احساس افراد در مورد استفاده از P4 کردهاند. این تحقیق ادامه دارد، اما پاسخهای اولیه نشان میدهد که
اگر جانشین انسانی در دسترس نباشد، مردم مایلند این مدل را امتحان کنند. Earp می گوید که او نیز همین احساس را دارد.
او همچنین میگوید که اگر
P4 و یک
جانشین پیشبینیهای متفاوتی ارائه میکردند، «احتمالاً به جای مدل، به انسانی که
مرا میشناسد موکول میکردم».
انسان نیست
احساسات Earp به یک غریزه درونی خیانت می کند که بسیاری دیگر نیز به اشتراک می
گذارند: اینکه این تصمیمات بزرگ در حالت ایده آل باید توسط یک انسان گرفته شود.
"سوال این است: چگونه می خواهیم تصمیمات پایان زندگی گرفته شود و توسط چه کسی؟"
گئورگ استارک، یک ر محقق در موسسه فناوری فدرال لوزان سوئیس.
او نگران پتانسیل اتخاذ رویکردی فناورانه و تبدیل تصمیمات شخصی، پیچیده و شخصی به
«یک موضوع مهندسی» است.
برایانا مور، یک متخصص اخلاق در
دانشگاه روچستر، می گوید اولین واکنش او به شنیدن در مورد P4 این بود: "اوه، نه." مور یک
متخصص اخلاق بالینی است که برای بیماران، اعضای خانواده و کارکنان بیمارستان در دو
بیمارستان مشاوره ارائه می دهد. او میگوید: «بسیاری از کار ما واقعاً فقط نشستن
با افرادی است که با تصمیمهای وحشتناکی روبرو هستند ... آنها هیچ گزینه خوبی
ندارند. «آنچه که جانشینان واقعاً به آن نیاز دارند این است که شما با آنها بنشینید
و داستان آنها را بشنوید و از طریق گوش دادن فعال و تأیید نقش [آنها] از آنها حمایت
کنید... صادقانه بگویم، نمیدانم چقدر به چنین چیزی نیاز است. "
شبیه سازی دیجیتالی افرادی که دوستشان
داریم می تواند برای همیشه نحوه غم و اندوه ما را تغییر دهد.
مور می پذیرد که جانشینان همیشه هنگام
تصمیم گیری در مورد مراقبت از عزیزانشان به درستی عمل نمی کنند. حتی اگر بتوانیم
از خود بیماران بپرسیم، احتمالاً در طول زمان پاسخ آنها تغییر می کند. مور این را
مشکل «آن زمان خود، اکنون خود» می نامد.
و او فکر نمی کند که ابزاری مانند P4 لزوما آن را حل کند. حتی اگر خواستههای
یک فرد در یادداشتها، پیامها و پستهای رسانههای اجتماعی قبلی به وضوح بیان شده
باشد، دانستن اینکه تا زمانی که در یک موقعیت پزشکی قرار نگیرید چه احساسی دارید میتواند
بسیار دشوار باشد. کاپلان به یاد می آورد که یک مرد 80 ساله مبتلا به پوکی استخوان
را درمان می کرد که قاطعانه گفته بود که می خواهد در صورت توقف ضربان قلبش تحت
فشار قفسه سینه قرار گیرد. اما وقتی لحظه فرا رسید، استخوانهای او آنقدر نازک و
شکننده بودند که نمیتوانست در برابر فشارها مقاومت کند. کاپلان به یاد می آورد که
استخوان هایش «مثل خلال دندان» می ترکد و جناغ جناغ مرد از دنده هایش جدا می شود.
"و پس از آن اینطور است که ما چه کار می کنیم؟ به چه کسی کمک می کنیم؟ آیا
واقعاً کسی می تواند این را بخواهد؟» کاپلان می گوید.
نگرانی های دیگری نیز وجود دارد. برای
شروع، یک هوش مصنوعی آموزش دیده در پست های رسانه های اجتماعی یک فرد ممکن است در
نهایت یک "همزاد روانی" نباشد. بلومنتال-باربی میگوید: «هر یک از ما که
در رسانههای اجتماعی حضور داریم، میدانیم که اغلب آنچه در نمایه رسانههای
اجتماعی خود قرار میدهیم، واقعاً نشاندهنده آن چیزی نیست که واقعاً به آن اعتقاد
داریم یا ارزش آن را داریم یا میخواهیم.» و حتی اگر این کار را انجام میدادیم،
سخت است که بدانیم چگونه این پستها ممکن است احساسات ما را در مورد مراقبتهای پایان
زندگی منعکس کنند—بسیاری از مردم این بحثها را با اعضای خانوادهشان به اندازه
کافی سخت میبینند، چه رسد به اینکه در پلتفرمهای عمومی.
همانطور که اوضاع پیش میآید، هوش
مصنوعی همیشه کار خوبی در ارائه پاسخ به سؤالات انسانی انجام نمیدهد. حتی تغییر
نامحسوس دستور داده شده به یک مدل هوش مصنوعی می تواند پاسخی کاملاً متفاوت برای
شما ایجاد کند. استارک میگوید: «تصور کنید این اتفاق برای یک مدل زبان بزرگ تنظیم
شده رخ دهد که قرار است به شما بگوید یک بیمار در پایان عمرش چه میخواهد. "این
ترسناک است."
از سوی دیگر، انسان ها نیز خطاپذیر
هستند. واسیلیکی رحیم زاده، متخصص اخلاق زیستی در کالج پزشکی بیلور، فکر می کند P4 ایده خوبی است، البته به شرطی که به
طور دقیق آزمایش شود. او میگوید: «ما نباید این فناوریها را بالاتر از
استانداردهای خود نگه داریم.
Earp و Wendler چالش های پیش روی خود را تصدیق می
کنند. آنها امیدوارند ابزاری که میسازند بتواند اطلاعات مفیدی را که ممکن است
منعکسکننده خواستههای یک فرد باشد، بدون نقض حریم خصوصی جمعآوری کند. آنها میخواهند
این راهنمای مفیدی باشد که بیماران و جانشینان بتوانند از آن استفاده کنند، اما نه
یک راه پیشفرض برای دادن پاسخهای سیاه و سفید نهایی در مورد مراقبت از فرد.
حتی اگر در آن جبهه موفق شوند، ممکن
است نتوانند نحوه استفاده از چنین ابزاری را کنترل کنند. مثلاً موردی مانند سوفی
را در نظر بگیرید. اگر P4 مورد استفاده قرار می گرفت، پیش بینی
آن تنها ممکن است به شکستگی بیشتر روابط خانوادگی که در حال حاضر تحت فشار هستند
کمک کند. بلومنتال-باربی میگوید: و اگر بهعنوان نزدیکترین شاخص خواستههای خود
بیمار ارائه شود، این احتمال وجود دارد که پزشکان بیمار از نظر قانونی احساس کنند
که باید خروجی P4 را در مورد نظرات اعضای خانواده دنبال
کنند. او میگوید: «این میتواند برای اعضای خانواده بسیار کثیف و همچنین بسیار
ناراحتکننده باشد».
وندلر می گوید: «چیزی که من بیشتر
نگران آن هستم این است که چه کسی آن را کنترل می کند. او میترسد که بیمارستانها
از ابزارهایی مانند P4 برای اجتناب از انجام اقدامات پرهزینه
استفاده کنند. او میگوید: «میتواند انواع انگیزههای مالی وجود داشته باشد.
همه افرادی که توسط MIT
Technology Review با آنها تماس گرفته اند موافق هستند که استفاده از ابزاری مانند P4 باید اختیاری باشد و برای همه جذاب
نخواهد بود. Earp میگوید: «من فکر میکنم این پتانسیل این
را دارد که برای برخی افراد مفید باشد. من فکر میکنم افراد زیادی هستند که از این
ایده که یک سیستم مصنوعی باید به هر طریقی در تصمیمگیریشان دخالت داشته باشد،
ناراحت خواهند بود.
- Get link
- Other Apps
Popular Posts
- Get link
- Other Apps
- Get link
- Other Apps
Comments
Post a Comment