golpanabanner

چرا هوش مصنوعی نباید تصمیمات مرگ و زندگی بگیرد؟

اجازه دهید فیلیپ نیچکه را به شما معرفی کنم که با نام «دکتر. مرگ» یا «ایلان ماسک کمک به خودکشی».

شاید دوست داشته باشید: تمامی نیازهای خود را با خرید پلی استیشن پلاس اکسترا برآورده کنید

نیچکه یک هدف کنجکاو دارد: او می خواهد مرگ را “ضد پزشکی” کند و خودکشی کمکی را تا حد امکان بدون کمک از طریق فناوری انجام دهد. همانطور که همکار من Will Heaven گزارش می دهد، Nitschke ماشینی به اندازه تابوت به نام Sarco ساخته است. افرادی که به دنبال پایان دادن به زندگی خود هستند می توانند پس از انجام یک خودارزیابی روانپزشکی مبتنی بر الگوریتم وارد دستگاه شوند. اگر آنها عبور کنند، سارکو گاز نیتروژن آزاد می کند که در عرض چند دقیقه آنها را خفه می کند. کسی که مرگ را انتخاب کرده است باید به سه سوال پاسخ دهد: تو کیستی؟ شما کجا هستید؟ و آیا می دانید با فشار دادن آن دکمه چه اتفاقی می افتد؟

در سوئیس، جایی که کمک به خودکشی قانونی است، نامزدهای اتانازی باید توانایی ذهنی خود را نشان دهند که معمولاً توسط روانپزشک ارزیابی می شود. اما نیچکه می خواهد مردم را به طور کامل از معادله خارج کند.

نیچکه یک مثال افراطی است. اما همانطور که ویل می نویسد، هوش مصنوعی در حال حاضر برای تریاژ و درمان بیماران در تعداد فزاینده ای از زمینه های مراقبت های بهداشتی استفاده می شود. الگوریتم ها در حال تبدیل شدن به بخش مهمی از مراقبت هستند، و ما باید تلاش کنیم تا اطمینان حاصل کنیم که نقش آنها محدود به تصمیمات پزشکی است، نه تصمیمات اخلاقی.

ویل به بررسی اخلاق نامرتب تلاش برای توسعه هوش مصنوعی می‌پردازد که می‌تواند به تصمیم‌گیری درباره مرگ و زندگی در اینجا کمک کند.

احتمالاً من تنها کسی نیستم که به شدت احساس ناراحتی می کند در مورد اجازه دادن به الگوریتم ها درباره زندگی یا مرگ افراد تصمیم گیری کنند. به نظر می‌رسد کار نیچکه یک مورد کلاسیک از اعتماد نابجا به قابلیت‌های الگوریتم‌ها است. او سعی دارد با معرفی فناوری که می تواند تصمیمات ظاهراً «بی طرفانه» و «عینی» بگیرد، از قضاوت های پیچیده انسانی چشم پوشی کند.

این مسیر خطرناکی است و ما می دانیم که به کجا منتهی می شود. سیستم‌های هوش مصنوعی منعکس‌کننده انسان‌هایی هستند که آن‌ها را می‌سازند، و آن‌ها مملو از تعصبات هستند. ما سیستم‌های تشخیص چهره را دیده‌ایم که سیاه‌پوستان را نمی‌شناسند و به آنها برچسب مجرم یا گوریل می‌زنند. در هلند، مقامات مالیاتی از الگوریتمی برای از بین بردن تقلب در مزایا استفاده کردند و تنها برای مجازات افراد بی گناه – عمدتاً افراد کم درآمد و اعضای اقلیت های قومی، تلاش کردند. این منجر به عواقب ویرانگر برای هزاران نفر شد: ورشکستگی، طلاق، خودکشی، و نگهداری کودکان به سرپرستی.

از آنجایی که هوش مصنوعی در بخش مراقبت‌های بهداشتی به کار گرفته شده است تا به تصمیم‌گیری در بالاترین حد ممکن کمک کند وجود دارد، بررسی انتقادی چگونگی ساخت این سیستم ها از همیشه ضروری تر است. حتی اگر بتوانیم یک الگوریتم کامل با سوگیری صفر ایجاد کنیم، الگوریتم‌ها فاقد تفاوت‌های ظریف و پیچیدگی برای تصمیم‌گیری درباره انسان و جامعه به تنهایی هستند. ما باید به دقت بپرسیم که واقعاً می‌خواهیم چقدر تصمیم‌گیری را به هوش مصنوعی بسپاریم. هیچ چیز اجتناب ناپذیری وجود ندارد که اجازه دهیم آن را عمیق تر و عمیق تر به زندگی و جوامع خود وارد کنیم. این یک انتخاب توسط انسان است.

Makayla Massey

کاشف برنده جایزه کل معتاد زامبی. متعصب فرهنگ پاپ بی عذرخواهی. تواهولیک.

No images found in the media library. معرفی ربات ناشناس پرسش و پاسخ: راهی نوین برای ارتباطات
No images found in the media library. آشنایی با قیمت تولید محتوا در gozare.com
No images found in the media library. معرفی کدام سایت شرط بندی کمترین مبلغ شارژ
No images found in the media library. معرفی کدام سایت شرط بندی کمترین مبلغ شارژ
No images found in the media library. معرفی سایت شرط بندی و کانال یوتیوب: دنیای سرگرمی و سرمایه‌گذاری
No images found in the media library. معرفی مجله نیازمندی آسمونی: یک مرجع بی‌نظیر برای اطلاعات و خدمات

پست های جذاب برای شما

تماس با ما