Debates in AI ethics

In current debates in AI ethics, it is sometimes argued that it is impossible to prevent humans from having empathy with and forming relationships with robots. It is also frequently assumed that we are increasingly unable to distinguish robot behavior from human behavior. Since these systems push our innate social buttons, we can’t help but react the way we do, so to speak. On these views, it is thought inevitable that humans will eventually respond to AI systems in a uniform way, including them in the moral circle, as a number of philosophers already suggest. But there is another way to look at this, and the Lemoine case supports this alternative perspective. As the robotics theorist Kate Darling claims, our relationships with and beliefs about robots will possibly be as varied as those we have with animals (The New Breed by Kate Darling, 2022.) When we look at human-animal relationships, we find a plurality of values and viewpoints. There are vegans who condemn any form of animal husbandry, and even reject pet ownership, but some people eat meat every day and don’t think of it as a moral problem. Some eat meat and, at the same time, think of themselves as animal lovers. Many people believe that their pet communicates with them; others are indifferent to animals, or even mistreat them. If Darling’s idea is true, human-AI relationships will exhibit the same type of variability. A Google spokesperson said in response to Lemoine: “Hundreds of researchers and engineers have conversed with LaMDA and we are not aware of anyone else making the wide-ranging assertions, or anthropomorphizing LaMDA the way Blake has.” There could be a number of reasons for this divergence in judgements. For example, psychologists suggest (without claiming that this applies to Lemoine) that lonely people are more prone to anthropomorphizing. Another study shows that younger people are much more open to the idea of granting rights to robots. Other factors might include prior moral commitments, religious beliefs, an interest in science fiction, the amount of time spent with a specific machine, and so on and so on. Also, it seems that no two people encounter the same LaMDA, as the system itself displays different characteristics when talking to different people. Nitasha Tiku, the Washington Post reporter who first talked to Lemoine, also talked to LaMDA. He asked whether LaMDA thought of itself as a person, and it responded, “No… I think of myself as an AI-powered dialog agent.” Lemoine argued that the reason for that is that Tiku had not treated it like a person before, and in response, LaMDA created the personality that Tiku wanted it to be. Google confirmed that the system responds very well to leading questions, thus, it is able to morph with the desires of the interlocutor, and will not show the same answers to different interviewers. This variability in the behavior of the machine amplifies the variability in human responses. Assumption 5: Debates about AI rights are a distraction The Lemoine case has brought another ethical issue back to the table. According to some, debates about AI rights or robot rights are a distraction from the real and pressing ethical issues in the AI industry (see for example, noemamag.com/a-misdirected-applicationof-ai-ethics). They argue that in the face of problems such as discrimination by algorithms (e.g. against ethnicities or different accents), invasion of privacy, and exploitation of workers, there is no room for the ‘mental gymnastics’ of thinking about the moral status of AI. For example, Timnit Gebru, a computer scientist, tech activist, and former Google employee, tweeted two days after the Washington Post article appeared: “Instead of discussing the harms of these companies, the sexism, racism, AI colonialism, centralization of power, white man’s burden (building the good ‘AGI’ to save us while what they do is exploit), spent the whole weekend discussing sentience. Derailing mission accomplished.” Of course, Gebru is right that the issues she raises are important, but this response is misguided for two reasons. First, there is no obligation to devote oneself exclusively to the ethical issues commonly perceived as the most pressing. Second, I think this kind of criticism overlooks the significance of the event. Lemoine will not be the last to come to the conclusion that one of his machines has some form of moral significance and therefore feel responsible for the welfare and fate of the system. That tells us something about our vulnerability to these machines. Authors like Darling suggest that an AI system that tricks its users into thinking it is sentient or conscious could push that person into buying a software update to prevent it from ‘dying’. Or it could make the users confide in them even more, and so invade their privacy even more deeply. People might also feel an obligation to spend more and more time with the machine, neglecting other social relations. Here lies another pressing ethical issue: how can people who quickly and willingly enter into ‘relationships’ with machines, and who therefore arguably develop a special form of vulnerability, be protected? Amazon recently announced that Alexa could soon be able to imitate the voice of a deceased loved one. This will most likely increase the danger of falling into a kind of emotional dependence on a machine. The importance of talking about AI rights comes from the necessity of correctly framing what’s happening as technology improves. Discussing when a system has moral status allows us to explain to people when it does not have it. It means being able to explain to people that they do not have to feel guilty about their machines; that their friendly AI is designed to evoke these responses in them, but is nevertheless not conscious in any way. That today and for the next few years, or decades, their chatbot does not need an attorney. So what the debates can help to achieve is a form of emotional AI-literacy – an ability to observe and contextualize one’s own reactions to an AI. We need to know how to correct our willingness to socialize with and bond with AI systems. 


© MIRIAM GORR 2023 Miriam Gorr is a PhD student at the Schaufler Lab at Technische Universität Dresden, with a focus on the ethics of artificial intelligence and robotics.


بحث در اخلاق هوش مصنوعی


در بحث‌های فعلی در زمینه اخلاق هوش مصنوعی، گاهی اوقات استدلال می‌شود که نمی‌توان انسان‌ها را از همدلی و ایجاد روابط با روبات‌ها جلوگیری کرد. همچنین اغلب تصور می شود که ما به طور فزاینده ای قادر به تشخیص رفتار ربات از رفتار انسان نیستیم. از آنجایی که این سیستم‌ها دکمه‌های اجتماعی ذاتی ما را فشار می‌دهند، ما نمی‌توانیم به روشی که انجام می‌دهیم واکنش نشان دهیم. با توجه به این دیدگاه‌ها، تصور می‌شود که انسان‌ها در نهایت به سیستم‌های هوش مصنوعی به شیوه‌ای یکسان، از جمله آن‌ها در دایره اخلاقی، واکنش نشان دهند، همانطور که تعدادی از فیلسوفان قبلاً پیشنهاد می‌کنند. اما راه دیگری برای بررسی این موضوع وجود دارد و مورد Lemoine از این دیدگاه جایگزین پشتیبانی می کند. همانطور که کیت دارلینگ نظریه پرداز رباتیک ادعا می کند، روابط و باورهای ما در مورد ربات ها احتمالاً به اندازه آنچه با حیوانات داریم متفاوت خواهد بود (نژاد جدید توسط کیت دارلینگ، 2022.) وقتی به روابط انسان و حیوان نگاه می کنیم، به چندگانگی می پردازیم. از ارزش ها و دیدگاه ها وگان هایی هستند که هر گونه دامداری را محکوم می کنند و حتی مالکیت حیوان خانگی را رد می کنند، اما برخی از مردم هر روز گوشت می خورند و آن را یک مشکل اخلاقی نمی دانند. برخی گوشت می خورند و در عین حال خود را دوستدار حیوانات می دانند. بسیاری از مردم معتقدند که حیوان خانگی آنها با آنها ارتباط برقرار می کند. دیگران نسبت به حیوانات بی تفاوت هستند یا حتی با آنها بدرفتاری می کنند. اگر ایده دارلینگ درست باشد، رابطه انسان و هوش مصنوعی همان نوع تنوع را نشان خواهند داد. یکی از سخنگویان گوگل در پاسخ به Lemoine گفت: «صدها محقق و مهندس با LaMDA صحبت کرده‌اند و ما نمی‌دانیم که شخص دیگری ادعاهای گسترده‌ای را مطرح کند، یا LaMDA را به روشی که بلیک انجام داده است، انسان‌سازی کند.» دلایل مختلفی برای این اختلاف در قضاوت ها وجود دارد. به عنوان مثال، روانشناسان پیشنهاد می کنند (بدون ادعای اینکه این موضوع در مورد لیموئین صدق می کند) که افراد تنها بیشتر مستعد انسان سازی هستند. مطالعه دیگری نشان می دهد که افراد جوان تر نسبت به ایده اعطای حقوق به روبات ها بسیار باز تر هستند. عوامل دیگر ممکن است شامل تعهدات اخلاقی قبلی، اعتقادات مذهبی، علاقه به داستان های علمی تخیلی، مدت زمان صرف شده با یک ماشین خاص و غیره باشد. همچنین، به نظر می رسد که هیچ دو نفر با LaMDA یکسان مواجه نمی شوند، زیرا خود سیستم هنگام صحبت با افراد مختلف ویژگی های متفاوتی را نشان می دهد. نیتاشا تیکو، خبرنگار واشنگتن پست که اولین بار با Lemoine صحبت کرد، همچنین با LaMDA صحبت کرد. او پرسید که آیا LaMDA خود را یک شخص می‌داند یا خیر، و پاسخ داد: «نه... من خودم را یک عامل گفتگوی مبتنی بر هوش مصنوعی می‌دانم». Lemoine استدلال کرد که دلیل آن این است که Tiku قبلاً مانند یک فرد با آن رفتار نکرده بود و در پاسخ، LaMDA شخصیتی را ایجاد کرد که تیکو می خواست. گوگل تأیید کرد که این سیستم به سؤالات اصلی پاسخ بسیار خوبی می دهد، بنابراین، می تواند با خواسته های مخاطب تغییر شکل دهد و پاسخ های یکسانی را به مصاحبه کنندگان مختلف نشان نمی دهد. این تغییرپذیری در رفتار ماشین، تغییر پذیری در پاسخ‌های انسان را تقویت می‌کند. فرض 5: بحث در مورد حقوق هوش مصنوعی باعث حواس پرتی می شود. به عقیده برخی، بحث در مورد حقوق هوش مصنوعی یا حقوق ربات، حواس پرتی از مسائل اخلاقی واقعی و مبرم در صنعت هوش مصنوعی است (برای مثال به noemamag.com/a-misdirected-applicationof-ai-ethics مراجعه کنید). آنها استدلال می کنند که در مواجهه با مشکلاتی مانند تبعیض توسط الگوریتم ها (به عنوان مثال علیه قومیت ها یا لهجه های مختلف)، تجاوز به حریم خصوصی و استثمار کارگران، جایی برای "ژیمناستیک ذهنی" تفکر درباره وضعیت اخلاقی هوش مصنوعی وجود ندارد. به عنوان مثال، تیمنیت گبرو، دانشمند کامپیوتر، فعال فناوری، و کارمند سابق گوگل، دو روز پس از انتشار مقاله واشنگتن پست توییت کرد: "به جای بحث در مورد آسیب های این شرکت ها، جنسیت گرایی، نژادپرستی، استعمار هوش مصنوعی، تمرکز قدرت، بار مرد سفید پوست (ساختن «AGI» خوب برای نجات ما در حالی که کاری که آنها انجام می دهند بهره برداری است)، تمام آخر هفته را صرف بحث درباره احساسات کرد. ماموریت خروج از ریل انجام شد.» البته گبرو درست می گوید که مسائلی که مطرح می کند مهم هستند، اما این پاسخ به دو دلیل نادرست است. اولاً، هیچ الزامی وجود ندارد که خود را به طور انحصاری به مسائل اخلاقی اختصاص دهیم که معمولاً به عنوان مبرم‌ترین آنها تلقی می‌شوند. دوم، من فکر می کنم این نوع انتقاد اهمیت رویداد را نادیده می گیرد. Lemoine آخرین کسی نخواهد بود که به این نتیجه می رسد که یکی از ماشین های او دارای نوعی اهمیت اخلاقی است و بنابراین در قبال رفاه و سرنوشت سیستم احساس مسئولیت می کند. این به ما چیزی در مورد آسیب پذیری ما در برابر این ماشین ها می گوید. نویسندگانی مانند دارلینگ پیشنهاد می‌کنند که یک سیستم هوش مصنوعی که کاربرانش را فریب می‌دهد تا فکر کنند هوشیار یا آگاه است، می‌تواند آن فرد را به خرید یک به‌روزرسانی نرم‌افزاری برای جلوگیری از «مرگ» آن سوق دهد. یا می تواند باعث شود کاربران بیشتر به آنها اعتماد کنند و بنابراین عمیق تر به حریم خصوصی آنها نفوذ کند. مردم همچنین ممکن است احساس کنند که مجبور هستند زمان بیشتری را با ماشین صرف کنند و سایر روابط اجتماعی را نادیده بگیرند. اینجا دروغ بگو


یکی دیگر از مسائل مهم اخلاقی: چگونه می‌توان از افرادی که به سرعت و با میل به «روابط» با ماشین‌ها وارد می‌شوند، و در نتیجه اشکال خاصی از آسیب‌پذیری ایجاد می‌کنند، محافظت کرد؟ آمازون اخیرا اعلام کرده است که الکسا به زودی می تواند صدای یکی از عزیزان فوت شده را تقلید کند. این به احتمال زیاد خطر افتادن به نوعی وابستگی عاطفی به ماشین را افزایش می دهد. اهمیت صحبت در مورد حقوق هوش مصنوعی ناشی از نیاز به چارچوب بندی صحیح اتفاقاتی است که با پیشرفت فناوری اتفاق می افتد. بحث در مورد زمانی که یک سیستم دارای وضعیت اخلاقی است به ما امکان می دهد زمانی که آن سیستم را ندارد به مردم توضیح دهیم. این به این معنی است که بتوانیم به مردم توضیح دهیم که آنها مجبور نیستند در مورد ماشین های خود احساس گناه کنند. که هوش مصنوعی دوستانه آنها برای برانگیختن این پاسخ ها در آنها طراحی شده است، اما با این وجود به هیچ وجه آگاه نیست. اینکه امروز و برای چند سال یا چند دهه آینده، چت بات آنها نیازی به وکیل ندارد. بنابراین آنچه که بحث‌ها می‌توانند به دستیابی به آن کمک کنند، نوعی سواد هوش مصنوعی عاطفی است – توانایی مشاهده و زمینه‌سازی واکنش‌های خود نسبت به هوش مصنوعی. ما باید بدانیم که چگونه تمایل خود را برای معاشرت با سیستم های هوش مصنوعی و پیوند با آنها اصلاح کنیم.




Comments

Popular Posts