اجازه دهید فیلیپ نیچکه را به شما معرفی کنم که با نام «دکتر. مرگ» یا «ایلان ماسک کمک به خودکشی».
نیچکه یک هدف کنجکاو دارد: او می خواهد مرگ را “ضد پزشکی” کند و خودکشی کمکی را تا حد امکان بدون کمک از طریق فناوری انجام دهد. همانطور که همکار من Will Heaven گزارش می دهد، Nitschke ماشینی به اندازه تابوت به نام Sarco ساخته است. افرادی که به دنبال پایان دادن به زندگی خود هستند می توانند پس از انجام یک خودارزیابی روانپزشکی مبتنی بر الگوریتم وارد دستگاه شوند. اگر آنها عبور کنند، سارکو گاز نیتروژن آزاد می کند که در عرض چند دقیقه آنها را خفه می کند. کسی که مرگ را انتخاب کرده است باید به سه سوال پاسخ دهد: تو کیستی؟ شما کجا هستید؟ و آیا می دانید با فشار دادن آن دکمه چه اتفاقی می افتد؟
در سوئیس، جایی که کمک به خودکشی قانونی است، نامزدهای اتانازی باید توانایی ذهنی خود را نشان دهند که معمولاً توسط روانپزشک ارزیابی می شود. اما نیچکه می خواهد مردم را به طور کامل از معادله خارج کند.
نیچکه یک مثال افراطی است. اما همانطور که ویل می نویسد، هوش مصنوعی در حال حاضر برای تریاژ و درمان بیماران در تعداد فزاینده ای از زمینه های مراقبت های بهداشتی استفاده می شود. الگوریتم ها در حال تبدیل شدن به بخش مهمی از مراقبت هستند، و ما باید تلاش کنیم تا اطمینان حاصل کنیم که نقش آنها محدود به تصمیمات پزشکی است، نه تصمیمات اخلاقی.
ویل به بررسی اخلاق نامرتب تلاش برای توسعه هوش مصنوعی میپردازد که میتواند به تصمیمگیری درباره مرگ و زندگی در اینجا کمک کند.
احتمالاً من تنها کسی نیستم که به شدت احساس ناراحتی می کند در مورد اجازه دادن به الگوریتم ها درباره زندگی یا مرگ افراد تصمیم گیری کنند. به نظر میرسد کار نیچکه یک مورد کلاسیک از اعتماد نابجا به قابلیتهای الگوریتمها است. او سعی دارد با معرفی فناوری که می تواند تصمیمات ظاهراً «بی طرفانه» و «عینی» بگیرد، از قضاوت های پیچیده انسانی چشم پوشی کند.
این مسیر خطرناکی است و ما می دانیم که به کجا منتهی می شود. سیستمهای هوش مصنوعی منعکسکننده انسانهایی هستند که آنها را میسازند، و آنها مملو از تعصبات هستند. ما سیستمهای تشخیص چهره را دیدهایم که سیاهپوستان را نمیشناسند و به آنها برچسب مجرم یا گوریل میزنند. در هلند، مقامات مالیاتی از الگوریتمی برای از بین بردن تقلب در مزایا استفاده کردند و تنها برای مجازات افراد بی گناه – عمدتاً افراد کم درآمد و اعضای اقلیت های قومی، تلاش کردند. این منجر به عواقب ویرانگر برای هزاران نفر شد: ورشکستگی، طلاق، خودکشی، و نگهداری کودکان به سرپرستی.
از آنجایی که هوش مصنوعی در بخش مراقبتهای بهداشتی به کار گرفته شده است تا به تصمیمگیری در بالاترین حد ممکن کمک کند وجود دارد، بررسی انتقادی چگونگی ساخت این سیستم ها از همیشه ضروری تر است. حتی اگر بتوانیم یک الگوریتم کامل با سوگیری صفر ایجاد کنیم، الگوریتمها فاقد تفاوتهای ظریف و پیچیدگی برای تصمیمگیری درباره انسان و جامعه به تنهایی هستند. ما باید به دقت بپرسیم که واقعاً میخواهیم چقدر تصمیمگیری را به هوش مصنوعی بسپاریم. هیچ چیز اجتناب ناپذیری وجود ندارد که اجازه دهیم آن را عمیق تر و عمیق تر به زندگی و جوامع خود وارد کنیم. این یک انتخاب توسط انسان است.