Skip to main content

Featured

  Promoting Peace in a Turbulent World: Strategies to Resolve Political Conflicts In today’s world, political conflicts are rampant, causing immense human suffering and destabilizing entire regions. From the ongoing war in Ukraine to the enduring Israel-Palestine conflict, the need for effective conflict resolution strategies has never been more urgent. This essay explores various approaches to mitigate and ultimately resolve political conflicts, emphasizing diplomacy, economic development, and international cooperation. Diplomacy and Dialogue Diplomacy remains one of the most potent tools for conflict resolution. Engaging in open, honest dialogue allows conflicting parties to understand each other’s perspectives and grievances. The United Nations (UN) plays a crucial role in facilitating such dialogues. The UN Security Council, for instance, can call upon parties to settle disputes through peaceful means and recommend methods of adjustment or terms of settlement 1 . Additional

 


25 Questions To AskYourself About AI


ChatGPT and other forms of artificial intelligence raise all sorts of issues that we’re only beginning to address. There’s a lot to work out.


LAST YEAR was when artificial intelligence appeared to come into its own, with seemingly magical bots creating images, answering questions, even writing literature. But as with all new tools, society has to figure out which tasks AI is best for, and how to use it without breaking things. That’s especially tricky when we’re still trying to figure out what the technology can even do in the first place. We set out to identify some of the thorniest questions that AI poses—or will pose—for all sorts of people in all sorts of fields. These are questions with no right or wrong answers, but are designed to make us think about how AI could change, well, almost everything. For help, we tapped the minds of friends, colleagues and some leading AI experts: Mutale Nkonde, founder and chief executive of AI for the People; Sarah Myers West, managing director of the AI Now Institute; Reid Blackman, AI ethical-risk adviser and author of “Ethical Machines”; Tom Coughlin, 2023 president elect of the Institute of Electrical and Electronics Engineers; Jelena Kovačević, IEEE fellow and dean of the NYU Tandon School of Engineering; Karen Panetta, IEEE fellow and dean of graduate engineering at Tufts University; and Mehtab Khan, a resident fellow at Yale Law School. Here are some of the toughest brain teasers that emerged: 

1 Is it OK for AI to brainstorm ideas for projects or products that you later claim as your own? Would it change your answer if you came up with the original question? What if you fine-tuned some of the ideas? What if you give the AI some credit for helping you? 

2 If a painting, song, novel or movie that you love was generated by an AI, would you want to know? Would it change your reaction if you knew the great was a machine? Should an AIgenerated piece of art be allowed to enter an art competition?

 3 If an AI plagiarizes an artist and somebody uses that output, who should be blamed? Would the answer change if the user wasn’t aware that the AI had committed plagiarism, and how would they prove that they were unaware? 

4 Should AI tools be made free or subsidized for people who can’t afford them? If not, would that disadvantage workers and students who wouldn’t have access to them? 

5 Unlike human thinking, machine learning is a “black box” that can’t fully illustrate its rationale. Even if machine learning is right more often than humans, should we trust it more than professionals, such as doctors, who can justify their decision? 

6 Assume AI is substantially more accurate than humans in life-or-death decision making, such as driving or medical diagnoses. However, it tends to fail more in certain situations, such as not recognizing children in a crosswalk. Is it ethical to use the AI because, in aggregate, many more people will be saved?

 7 While today’s AI isn’t sentient, it can appear to be. Would it be naive or creepy to develop a sense of friendship with such an AI? What about a romantic relationship? Would the answer differ if the AI actually were sentient?

 8 How do you draw the ethical line for using a chatbot like ChatGPT? Would it be OK for write an email to schedule a meeting? A sales pitch to a client? A religious sermon? A conversation in an online dating app? A letter to a friend going through depression? 

9 It isn’t currently possible to copyright the output of an AI. Should it be? If so, who should own the copyright: the user, the AI provider, the people whose material trained the AI? All of them? 10 If AI systems become appreciably better at driving cars than humans are, would it be unethical for people to drive on their own, since this increases the risk of an accident and could cost tens of thousands of lives a year? What if AI was only somewhat better, but in the aggregate would still save thousands of lives a year? 

11 AI improves by learning from its mistakes—which often includes biased or hateful statements about marginalized groups. Should AI providers be responsible for rooting out these biases before releasing their products? Should affected groups be able to sue the companies for harassment if they fail to do so?

 12 Given AI’s potential for harm (such as being inaccurate or biased), should there be a government evaluation and approval process for major new AI developments, as there is for medications? What if this significantly delays the release of new AI tools? 

13 If AI generates messages for a company’s internal communications that incorporate racist, sexist, antigay or other abusive language, can employees sue for harassment? If so, who do they sue—their employer or the tech provider? 

14 Research shows that some AI-driven tasks, such as evaluating job candidates, are more prone to discrimination. But using AI also allows more applicants to be considered, since there are only so many applications that HR can read. Is that trade-off acceptable? 

15 Is it ethical to restrict AI surveillance, such as facial recognition, in law enforcement to protect privacy, even if it means that fewer criminals—including violent ones—will be caught or convicted? 

16 AI is already creating chat, audio and video representations that mimic deceased people. Will conversing with them comfort loved ones, or prolong the feeling of loss and prevent them from moving on? If the chatbots are flawed, could they warp our understanding of who the person really was? 

17 AI may be able to discover new medical treatments if it can scan large volumes of health records. Should our personal health records be made available for this purpose, if it has the potential to improve or save millions of lives? How would we guard privacy in that case? 

18 AI chatbot therapists have been proliferating in recent years, but therapy apps are not regulated under medical-privacy laws, and some have been shown to share information with other parties, such as advertisers. Given that, would you trust one with your secrets? What if you were assured that the AI would delete whatever you said at your request? 

19 Is it OK to address a chatbot or virtual assistant in a manner that is harsh or abusive—even though it doesn’t actually have feelings? Does that change if the AI can feign emotions? Coulbad behavior toward chatbots encourage us to behave worse toward real people? 

20 Assuming it’s possible to create a sentient AI, should society first develop a bill of rights on such issues as labor conditions, freedom of speech and association, right to privacy, even the right to die? Should the sentient AIs themselves be the ones to devise or amend this bill of rights?

 21 Would it be ethical for a chatbot to write a Ph.D thesis, as long as the student looks over and makes refinements to the work? What percent of rewriting would be the minimum to make this acceptable?

 22 Should content creators block AI from crawling their sites and learning from their work? What if this was the only way for important information to be accessed by the AI? What if the AI cites their work to provide adequate credit? 

23 AI doesn’t have moral capabilities. So is it moral to ask it for help making moral decisions? 

24 Should people have the right to know when AI is used to make a decision that affects them, such as mortgage evaluations? Should anyone rejected by an AI have the right to challenge the decision and receive a reevaluation by humans?

 25 Should AI companies take extra efforts to build diverse development teams? Is it fair for AI to make decisions affecting certain ethnic or cultural groups if no one from those groups was involved in developing the AI? 


Mr. Captain is a writer in Asheville, N.C.



از خود در مورد هوش مصنوعی بپرسید


ChatGPT و سایر اشکال هوش مصنوعی انواع مشکلاتی را ایجاد می کنند که ما تازه شروع به حل آنها کرده ایم. کارهای زیادی برای انجام دادن وجود دارد.


سال گذشته زمانی بود که هوش مصنوعی با ربات‌های به ظاهر جادویی متولد شد که عکس می‌سازند، به سؤالات پاسخ می‌دهند و حتی ادبیات می‌نویسند. اما مانند همه ابزارهای جدید، جامعه باید بفهمد که هوش مصنوعی برای کدام وظایف بهترین است و چگونه از آن بدون شکستن چیزها استفاده کند. این به ویژه زمانی دشوار است که ما هنوز در تلاشیم تا بفهمیم این فناوری در وهله اول چه کاری می تواند انجام دهد. ما تصمیم گرفتیم برخی از سخت ترین سوالاتی را که هوش مصنوعی برای انواع افراد در انواع زمینه ها مطرح می کند، شناسایی کنیم. اینها سوالاتی هستند که هیچ پاسخ درست یا غلطی ندارند، اما به گونه ای طراحی شده اند که ما را به این فکر کنند که چگونه هوش مصنوعی می تواند تقریباً همه چیز را تغییر دهد. برای کمک، ما از ذهن دوستان، همکاران و برخی از کارشناسان برجسته هوش مصنوعی استفاده کردیم: Mutale Nkonde، بنیانگذار و مدیر عامل AI for People. سارا مایرز وست، مدیر عامل مؤسسه AI Now; رید بلکمن، مشاور ریسک اخلاقی هوش مصنوعی و نویسنده کتاب Ethical Machines. تام کوفلین، رئیس منتخب موسسه مهندسین برق و الکترونیک در سال 2023؛ Jelena Kovačević، عضو IEEE و رئیس دانشکده مهندسی تاندون نیویورک؛ کارن پانتا، عضو IEEE و رئیس مهندسی فارغ التحصیل در دانشگاه تافتس. و مهتاب خان، یکی از همکاران مقیم دانشکده حقوق ییل. در اینجا برخی از چالش‌برانگیزترین بازی‌های ذهنی ارائه شده است:



آیا ایده‌آل بودن هوش مصنوعی برای پروژه‌ها یا محصولاتی است که بعداً ادعا می‌کنید متعلق به خودتان هستند؟ آیا اگر سوال اصلی را بپرسید، پاسخ شما را تغییر می دهد؟ اگر چند ایده را به خوبی تنظیم کنید چه؟ اگر برای کمک به شما اعتبار هوش مصنوعی قائل شوید چه؟

آیا می خواهید بدانید که آیا نقاشی، آهنگ، رمان یا فیلمی که دوست دارید توسط هوش مصنوعی ساخته شده است؟ آیا اگر میدانستید که ماشین آنقدر بزرگ است، واکنش شما را تغییر می دهد؟ آیا یک اثر هنری تولید شده توسط هوش مصنوعی باید اجازه ورود به یک مسابقه هنری را داشته باشد؟

    3

 اگر هوش مصنوعی هنرمندی را سرقت کند و شخصی از آن خروجی استفاده کند، مقصر کیست؟ اگر کاربر بداند که هوش مصنوعی مرتکب سرقت ادبی شده است، پاسخ تغییر می‌کند و چگونه ثابت می‌کند که بی‌اطلاع است؟

4

 آیا ابزارهای هوش مصنوعی باید برای افرادی که توانایی خرید آن ها را ندارند رایگان ساخته شود یا یارانه پرداخت شود؟ در غیر

 این صورت آیا کارگران و دانشجویانی که دسترسی ندارند آسیب خواهند دید؟

5

 برخلاف تفکر انسان، یادگیری ماشینی یک "جعبه سیاه" است که نمی تواند منطق خود را به طور کامل بیان کند. حتی اگر

 یادگیری ماشینی دقیق تر از انسان باشد، آیا باید بیشتر از متخصصانی مانند پزشکان که می توانند تصمیمات خود را توجیه کنند به آن اعتماد کنیم؟

فرض کنید هوش مصنوعی در تصمیم گیری های مرگ یا زندگی، مانند رانندگی یا تشخیص های پزشکی، به طور قابل توجهی از انسان ها دقیق تر است. با این حال، در موقعیت‌های خاص، مانند تشخیص ندادن کودکان در مسیرهای عابر پیاده، اغلب با شکست مواجه می‌شود. آیا استفاده از هوش مصنوعی اخلاقی است زیرا در کل افراد بیشتری نجات خواهند یافت؟

    7

 در حالی که هوش مصنوعی امروزی حساس نیست، ممکن است اینطور به نظر برسد. آیا دوست یابی با چنین هوش مصنوعی

 ساده لوحانه یا ترسناک خواهد بود؟ رابطه عاشقانه چطور؟ اگر هوش مصنوعی واقعاً حساس بود، پاسخ متفاوت بود؟

    8 

چگونه خط اخلاقی را برای استفاده از ربات چت مانند ChatGPT ترسیم می کنید؟ آیا نوشتن ایمیل برای برنامه ریزی جلسه خوب است؟ پیشنهاد فروش به مشتری؟ خطبه دینی؟ چت در یک برنامه دوستیابی آنلاین؟ نامه ای به دوستی که افسرده است؟

9

 در حال حاضر، امکان کپی رایت خروجی یک هوش مصنوعی وجود ندارد. اگر چنین است، چه کسی باید صاحب حق چاپ باشد: کاربر، ارائه دهنده هوش مصنوعی، افرادی که محتوای آنها هوش مصنوعی را آموزش داده است؟ همه آنها؟ 

10 اگر سیستم‌های هوش مصنوعی در رانندگی ماشین‌ها بسیار بهتر از انسان‌ها شوند، آیا رانندگی به تنهایی برای مردم غیراخلاقی خواهد بود زیرا خطر تصادفات را افزایش می‌دهد که می‌تواند جان ده‌ها هزار نفر در سال را به همراه داشته باشد؟ اگر هوش مصنوعی اندکی بهتر بود، اما به طور کلی هنوز جان هزاران نفر در سال را نجات می داد، چه؟

11

 هوش مصنوعی با یادگیری از اشتباهات خود - که اغلب شامل اظهارات مغرضانه یا نفرت انگیز در مورد گروه های به حاشیه رانده شده است - بهبود می یابد. آیا ارائه دهندگان هوش مصنوعی باید قبل از انتشار محصولات خود مسئول ریشه‌یابی این سوگیری‌ها باشند؟ آیا گروه‌های آسیب‌دیده می‌توانند در صورت کوتاهی از شرکت‌ها برای آزار و اذیت شکایت کنند؟

    12

 با توجه به پتانسیل آسیب‌رسانی هوش مصنوعی (مانند نادرست بودن یا مغرضانه بودن)، آیا باید یک فرآیند ارزیابی و تأیید دولت برای پیشرفت‌های جدید هوش مصنوعی مانند داروها وجود داشته باشد؟ اگر این امر به طور قابل توجهی انتشار ابزارهای جدید هوش مصنوعی را به تاخیر بیندازد چه؟

13

اگر هوش مصنوعی پیام‌هایی را برای ارتباطات داخلی شرکت تولید کند که حاوی زبان نژادپرستانه، جنسیت‌ستیز، ضد همجنس‌بازی یا دیگر زبان‌های توهین‌آمیز باشد، آیا کارمندان می‌توانند برای آزار و اذیت شکایت کنند؟ اگر چنین است، آنها از چه کسی شکایت می کنند - کارفرمای خود یا ارائه دهنده فناوری؟

14

تحقیقات نشان می دهد که برخی از وظایف مبتنی بر هوش مصنوعی، مانند ارزیابی نامزدهای شغلی، بیشتر مستعد تبعیض هستند. اما استفاده از هوش مصنوعی به متقاضیان بیشتری اجازه ورود به N را نیز می دهد

تبلیغات. آیا این تبادل قابل قبول است؟

15

 آیا محدود کردن نظارت هوش مصنوعی، مانند تشخیص چهره، در مجریان قانون برای محافظت از حریم خصوصی اخلاقی

 است، حتی اگر به این معنی باشد که مجرمان کمتری - از جمله مجرمان خشن - دستگیر یا محکوم شوند؟

16

 AI در حال حاضر در حال ایجاد نمایشگرهای چت، صوتی و تصویری است که افراد متوفی را تقلید می کند. آیا صحبت با آنها باعث آرامش عزیزان می شود یا احساس از دست دادن را طولانی می کند و آنها را از ادامه راه باز می دارد؟ اگر چت‌بات‌ها ناقص باشند، آیا می‌توانند درک ما را از اینکه آن شخص واقعاً چه کسی بوده، تحریف کنند؟


17 

هوش مصنوعی اگر بتواند حجم زیادی از پرونده های سلامت را اسکن کند، ممکن است بتواند درمان های پزشکی جدیدی را کشف کند. آیا سوابق سلامت شخصی ما باید برای این منظور در دسترس باشد، اگر پتانسیل بهبود یا نجات جان میلیون ها نفر را داشته باشد؟ پس چگونه از حریم خصوصی محافظت کنیم؟

18

 درمانگر ربات چت هوش مصنوعی در سال‌های اخیر در حال افزایش بوده‌اند، اما برنامه‌های درمانی تحت قوانین حفظ حریم خصوصی پزشکی تنظیم نمی‌شوند و نشان داده شده است که برخی از آنها اطلاعات را با طرف‌های دیگر، مانند تبلیغ‌کنندگان، به اشتراک می‌گذارند. با در نظر گرفتن این موضوع، آیا به یکی از رازهای خود اعتماد می کنید؟ اگر به شما اطمینان داده شود که هوش مصنوعی هر آنچه را که گفته اید به درخواست شما حذف می کند، چه می شود؟

19 

آیا اشکالی ندارد که با یک ربات چت یا دستیار مجازی به شیوه ای بی ادبانه یا توهین آمیز صحبت کنید - حتی اگر واقعاً هیچ احساسی نداشته باشد؟ اگر هوش مصنوعی بتواند احساسات را تظاهر کند، آیا این تغییر خواهد کرد؟ آیا سرکوب چت بات ها ما را تشویق می کند که با افراد واقعی بدتر رفتار کنیم؟

20

 با فرض امکان ایجاد هوش مصنوعی حساس، آیا جامعه ابتدا باید یک منشور قانونی در مورد موضوعاتی مانند شرایط کار، آزادی بیان و اجتماع، حق حریم خصوصی، حتی حق مردن تدوین کند؟ آیا هوش مصنوعی خود باید اختراع یا اصلاح این منشور حقوقی باشد؟


      21

 آیا داشتن یک ربات چت برای نوشتن پایان نامه دکتری اخلاقی است، تا زمانی که دانشجو کار را تماشا و تصحیح کند؟ حداقل درصد بازنویسی برای قابل قبول بودن چقدر است؟

      22

 آیا تولیدکنندگان محتوا باید از خزیدن هوش مصنوعی به سایت هایشان و یادگیری از کارشان جلوگیری کنند؟ اگر این تنها راه برای دستیابی هوش مصنوعی به اطلاعات مهم بود چه؟ اگر هوش مصنوعی به کار آنها برای ارائه اعتبار کافی اشاره کند چه؟

23

. هوش مصنوعی قابلیت اخلاقی ندارد. پس آیا این اخلاقی است که از او برای تصمیم گیری اخلاقی کمک بخواهیم؟

24

 آیا مردم باید این حق را داشته باشند که بدانند چه زمانی از هوش مصنوعی برای اتخاذ تصمیمی که بر آنها تأثیر میگذارد، مانند ارزیابی وام مسکن استفاده می شود؟ آیا فردی که توسط یک هوش مصنوعی رد شده است، باید این حق را داشته باشد که تصمیم خود را به چالش بکشد و آن را مجدداً توسط انسان ارزیابی کند؟

      25

 آیا شرکت های هوش مصنوعی باید برای ایجاد تیم های توسعه متنوع بیشتر تلاش کنند؟ آیا عادلانه است که یک هوش مصنوعی تصمیماتی اتخاذ کند که بر گروه های قومی یا فرهنگی خاصی تأثیر بگذارد اگر هیچ یک از آن گروه ها در توسعه هوش مصنوعی سهیم نباشند؟



آقای کاپیتان یک نویسنده در اشویل، N.C است. می توانید با او در report@wsj.com تماس بگیرید.

Comments

Popular Posts