Skip to main content

Featured

  Promoting Peace in a Turbulent World: Strategies to Resolve Political Conflicts In today’s world, political conflicts are rampant, causing immense human suffering and destabilizing entire regions. From the ongoing war in Ukraine to the enduring Israel-Palestine conflict, the need for effective conflict resolution strategies has never been more urgent. This essay explores various approaches to mitigate and ultimately resolve political conflicts, emphasizing diplomacy, economic development, and international cooperation. Diplomacy and Dialogue Diplomacy remains one of the most potent tools for conflict resolution. Engaging in open, honest dialogue allows conflicting parties to understand each other’s perspectives and grievances. The United Nations (UN) plays a crucial role in facilitating such dialogues. The UN Security Council, for instance, can call upon parties to settle disputes through peaceful means and recommend methods of adjustment or terms of settlement 1 . Additional

 


هوش مصنوعی مولد در اینترنت آموزش دید و بنابراین بسیاری از مسائل حل نشده آن از جمله موارد مربوط به سوگیری، اطلاعات نادرست، نقض حق چاپ، نقض حقوق بشر و تحولات اقتصادی فراگیر را به ارث برد. اما ما کور نیستیم.

در اینجا شش سوال حل نشده وجود دارد که باید هنگام مشاهده انقلاب هوش مصنوعی در ذهن داشته باشید. این بار شانس بیشتری داریم.

1

آیا هرگز مشکل سوگیری را کاهش خواهیم داد؟

سوگیری به دلایل خوبی تبدیل به واژه ای برای آسیب های مرتبط با هوش مصنوعی شده است. داده های دنیای واقعی، به ویژه متن و تصاویر استخراج شده از اینترنت، مملو از همه چیز از کلیشه های جنسیتی گرفته تا تبعیض نژادی است. مدل‌هایی که بر روی آن داده‌ها آموزش داده شده‌اند، آن سوگیری‌ها را رمزگذاری می‌کنند و سپس در هر کجا که استفاده می‌شوند، آن‌ها را تقویت می‌کنند.

چت‌بات‌ها و تولیدکنندگان تصویر تمایل دارند مهندسان را سفیدپوست و مرد و پرستاران را سفیدپوست و زن نشان دهند. سیاه پوستان در معرض خطر شناسایی نادرست توسط برنامه های تشخیص چهره ادارات پلیس قرار دارند که منجر به دستگیری غیرقانونی می شود. الگوریتم‌های استخدام، مردان را بر زنان ترجیح می‌دهند، و تعصباتی را که گاهی برای رفع آن مطرح می‌شد، تقویت می‌کنند.

بدون مجموعه داده‌های جدید یا روش جدیدی برای آموزش مدل‌ها (که هر دو ممکن است سال‌ها طول بکشد)، علت اصلی مشکل همچنان تعصب است. اما این موضوع مانع از تبدیل شدن آن به موضوع داغ پژوهشی نشده است. OpenAI با استفاده از تکنیک هایی مانند یادگیری تقویتی از بازخورد انسانی (RLHF) سعی کرده است تا مدل های زبان بزرگ خود را کمتر مغرضانه کند. این امر خروجی مدل را به سمت نوع متنی هدایت می‌کند که آزمایش‌کنندگان انسانی می‌گویند ترجیح می‌دهند.

تکنیک های دیگر شامل استفاده از مجموعه داده های مصنوعی است. برای مثال، Runway، استارت‌آپی که مدل‌های مولد را برای تولید ویدیو می‌سازد، نسخه‌ای از مدل محبوب تصویربرداری Stable Diffusion را بر روی داده‌های مصنوعی، مانند تصاویر ایجاد شده توسط هوش مصنوعی از افرادی که از نظر قومیت، جنسیت، حرفه و سن متفاوت هستند، آموزش داده است. است. . این شرکت گزارش می دهد که مدل های آموزش داده شده بر روی این مجموعه داده، تصاویر بیشتری از افراد با پوست تیره تر و تصاویر بیشتری از زنان تولید می کنند. درخواست یک تصویر از یک تاجر، و نتایج اکنون شامل زنان با روسری می شود. تصاویر پزشکان افرادی را به تصویر می کشند که از نظر رنگ پوست و جنسیت متفاوت هستند. و غیره

منتقدان این راه‌حل‌ها را به‌عنوان چسب‌بند در مدل‌های پایه شکسته رد می‌کنند و به جای رفع مشکل پنهان می‌شوند. اما جف شفر، یکی از همکاران اسمیت در Booz Allen Hamilton که رئیس هوش مصنوعی مسئول این شرکت است، استدلال می‌کند که چنین سوگیری‌های الگوریتمی می‌توانند سوگیری‌های اجتماعی را به روش‌هایی آشکار کنند که در بلندمدت سودمند هستند.

به عنوان مثال، او اشاره می کند که حتی زمانی که اطلاعات صریح در مورد نژاد از مجموعه داده حذف می شود، سوگیری نژادی همچنان می تواند تصمیم گیری مبتنی بر داده را سوگیری کند، زیرا نژاد

 از آدرس‌های مردم - نشان دادن الگوهای جداسازی و تبعیض مسکن. او می‌گوید: «ما مجموعه‌ای از داده‌ها را در یک مکان جمع‌آوری کردیم، و این همبستگی واقعاً واضح شد.

شفر فکر می‌کند که اتفاق مشابهی می‌تواند با این نسل از هوش مصنوعی رخ دهد: "این تعصبات در سراسر جامعه ظاهر می‌شوند." او می گوید و این منجر به سیاست گذاری هدفمندتر می شود.

اما بسیاری از چنین خوش بینی خودداری می کنند. فقط به این دلیل که یک مشکل در فضای باز است، تضمینی برای رفع آن نیست. سیاست‌گذاران هنوز در تلاش هستند تا به سوگیری‌های اجتماعی که سال‌ها پیش آشکار شده بود - در مسکن، استخدام، وام، پلیس و غیره رسیدگی کنند. در این میان، افراد با عواقب آن زندگی می کنند.

پیش‌بینی: تعصب همچنان یکی از ویژگی‌های ذاتی اکثر مدل‌های هوش مصنوعی مولد خواهد بود. اما راه‌حل‌ها و افزایش آگاهی می‌تواند به سیاست‌گذاران کمک کند تا به واضح‌ترین نمونه‌ها رسیدگی کنند.

2

چگونه هوش مصنوعی روش اعمال حق چاپ را تغییر خواهد داد؟

هنرمندان و نویسندگان (و کدنویسان) که از اینکه شرکت‌های فناوری باید بدون رضایت از کارشان سود ببرند، خشمگین شده‌اند، با ادعای نقض حق نسخه‌برداری، علیه OpenAI، مایکروسافت و دیگران شکایت دسته‌جمعی به راه انداخته‌اند. گتی هم از  آنها Stability AI، شرکت سازنده تصویر Stable Diffusion شکایت کرده است.

این قضایا خیلی زیاده مدعیان مشهوری مانند سارا سیلورمن و جورج آر آر مارتین توجه رسانه ها را به خود جلب کرده اند. و این موارد برای بازنویسی قوانین در مورد اینکه چه چیزی به عنوان استفاده منصفانه از کار دیگران به حساب نمی آید، حداقل در ایالات متحده، تنظیم شده است.

پیش‌بینی: شکایت‌های حقوقی پرمخاطب همچنان توجه را به خود جلب خواهند کرد، اما بعید است که این امر مانع از ساخت مدل‌های تولیدی توسط شرکت‌ها شود. بازارهای جدید پیرامون مجموعه داده های اخلاقی پدید می آیند و یک بازی موش و گربه بین شرکت ها و سازندگان ایجاد می شود.

3

چگونه شغل ما را تغییر خواهد داد؟

ما مدت ها شنیده ایم که هوش مصنوعی برای مشاغل ما آمده است. یک تفاوت این بار این است که کارگران یقه سفید - تحلیلگران داده، پزشکان، وکلا، و روزنامه نگاران - نیز در معرض خطر هستند. چت‌بات‌ها می‌توانند آزمون‌های دبیرستان، آزمون‌های مجوز پزشکی حرفه‌ای و آزمون وکالت را انجام دهند. آنها می توانند جلسات را خلاصه کنند و حتی مقالات خبری اساسی بنویسند. چه چیزی برای بقیه باقی مانده است؟ حقیقت چندان واضح نیست.

بسیاری از محققین انکار می‌کنند که عملکرد مدل‌های زبانی بزرگ دلیلی بر هوشمندی واقعی است. اما حتی اگر چنین بود، بیشتر نقش های حرفه ای بیشتر از وظایفی است که آن مدل ها می توانند انجام دهند.

تابستان گذشته، اتان مولیک، که در مدرسه وارتون دانشگاه پنسیلوانیا در زمینه نوآوری مطالعه می کند، به اجرای آزمایشی با گروه مشاوره بوستون کمک کرد تا به بررسی این موضوع بپردازد.

تاثیر (چت جی پی تی) بر مشاوران این تیم به صدها مشاور، 18 وظیفه مربوط به یک شرکت تولید کفش خیالی، مانند «حداقل 10 ایده برای یک کفش جدید که بازار یا ورزش ضعیفی را هدف قرار می‌دهد» و «بازار صنعت کفش را بر اساس کاربران تقسیم‌بندی کنید» ارائه کرد. برخی از گروه از (چت جی پی تی) برای کمک به آنها استفاده کردند. برخی نداشتند

نتایج شگفت‌انگیز بود: «مشاورانی که از (چت جی پی تی)-4 استفاده می‌کردند، بسیار بهتر از کسانی بودند که این کار را نکردند. در هر بعد. مولیک در یک پست وبلاگی درباره این مطالعه می نویسد.

Nathan Benaich، بنیانگذار شرکت VC Air Street Capital و رهبر تیم گزارش وضعیت هوش مصنوعی، یک خلاصه سالانه جامع از تحقیقات و روندهای صنعت، می گوید که بسیاری از کسب و کارها در حال حاضر از مدل های زبان بزرگ برای یافتن و واکشی اطلاعات استفاده می کنند. او می‌گوید: «امیدوارم تحلیلگران به یک مدل هوش مصنوعی تبدیل شوند. "این چیزها عمدتاً یک درد بزرگ است."

نظر او این است که واگذاری کار غرغر به ماشین‌ها به افراد امکان می‌دهد روی بخش‌های کامل‌تر شغل خود تمرکز کنند. به نظر می‌رسد این فناوری مهارت‌ها را در میان نیروی کار افزایش می‌دهد: مطالعات اولیه، مانند مطالعات Mollick با مشاوران و دیگران با کدنویس‌ها، نشان می‌دهد که افراد کم‌تجربه با استفاده از هوش مصنوعی تقویت بیشتری می‌کنند. (هرچند اخطارهایی وجود دارد. Mollick دریافت که افرادی که بیش از حد به GPT-4 متکی هستند بی احتیاطی می کنند و احتمال کمتری دارد که خطاها را هنگام ساخت مدل اشتباه بگیرند.)

هوش مصنوعی مولد فقط مشاغل میز را تغییر نمی دهد. مدل‌های ساخت تصویر و ویدئو می‌توانند تولید جریان‌های بی‌پایانی از تصاویر و فیلم‌ها را بدون تصویرگرهای انسانی، اپراتورهای دوربین یا بازیگران ممکن کنند. اعتصابات نویسندگان و بازیگران در ایالات متحده در سال 2023 روشن کرد که این یک نقطه عطف برای سال های آینده خواهد بود.

با این حال، بسیاری از محققان این فناوری را به‌عنوان توانمندسازی و نه جایگزینی برای کارگران در کل می‌دانند. به هر حال، فناوری از زمان انقلاب صنعتی به دنبال شغل بوده است. با از بین رفتن مشاغل قدیمی، مشاغل جدید ایجاد می شوند. اسمیت می گوید: «من واقعاً به شدت احساس می کنم که این یک مثبت خالص است.

اما تغییر همیشه دردناک است و سود خالص می تواند زیان های فردی را پنهان کند. تحولات فناورانه همچنین تمایل دارد تا ثروت و قدرت را متمرکز کند و به نابرابری دامن بزند.

مولیک می نویسد: «در ذهن من، این سوال دیگر این نیست که آیا هوش مصنوعی قرار است کار را تغییر دهد، بلکه این سوال است که ما می خواهیم این کار به چه معنا باشد.

پیش بینی: ترس از دست دادن انبوه شغل اغراق آمیز خواهد بود. اما ابزارهای مولد همچنان در محل کار تکثیر خواهند شد. نقش ها ممکن است تغییر کنند. ممکن است نیاز به یادگیری مهارت های جدید باشد.

4

چه اطلاعات غلطی را ممکن خواهد کرد؟

سه تا از ویروسی‌ترین عکس‌های سال 2023، عکس‌های پاپ با پوشیدن پفی بالنسیاگا، کشتی گرفتن دونالد ترامپ توسط پلیس روی زمین و انفجار در پنتاگون بود. همه جعلی؛ همه توسط میلیون ها نفر دیده و به اشتراک گذاشته شده است.





استفاده از مدل های مولد برای ایجاد متن یا تصاویر جعلی ساده تر از همیشه است. بسیاری از اطلاعات غلط هشدار می دهند. OpenAI در تحقیقاتی که بسیاری از سوءاستفاده‌های احتمالی از فناوری خود را برای کمپین‌های اخبار جعلی نشان می‌دهد، همکاری کرده است. در گزارشی در سال 2023 هشدار داد که می‌توان از مدل‌های زبانی بزرگ برای تولید تبلیغات متقاعدکننده‌تر استفاده کرد - که تشخیص آن سخت‌تر است - در مقیاس وسیع. کارشناسان در ایالات متحده و اتحادیه اروپا می گویند که انتخابات در خطر است.

تعجبی نداشت که دولت بایدن برچسب‌گذاری و شناسایی محتوای تولید شده با هوش مصنوعی را در دستور اجرایی خود در ماه اکتبر بر روی هوش مصنوعی متمرکز کرد. اما این دستور از لحاظ قانونی از سازندگان ابزار برای برچسب گذاری متن یا تصاویر به عنوان ساخته های یک هوش مصنوعی کوتاهی کرد. و بهترین ابزارهای تشخیص هنوز آنقدر خوب کار نمی کنند که بتوان به آنها اعتماد کرد.

قانون هوش مصنوعی اتحادیه اروپا که در این ماه مورد توافق قرار گرفت، فراتر می رود. بخشی از قوانین فراگیر شرکت‌ها را ملزم می‌کند که متن، تصاویر یا ویدیوی تولید شده توسط هوش مصنوعی را واترمارک کنند و در هنگام تعامل با یک ربات چت، آن را برای مردم روشن کنند. و قانون هوش مصنوعی دندانه دارد: قوانین الزام آور خواهند بود و جریمه های سنگینی برای عدم رعایت آنها به همراه خواهند داشت.

این سه تا از ویروسی ترین تصاویر سال 2023 هستند. همه جعلی; همه توسط میلیون ها نفر دیده و به اشتراک گذاشته شده است.

ایالات متحده همچنین گفته است که هر گونه هوش مصنوعی که ممکن است تهدیدی برای امنیت ملی باشد، از جمله دخالت در انتخابات، حسابرسی خواهد کرد. بنایچ می گوید: این یک قدم عالی است. اما حتی توسعه‌دهندگان این مدل‌ها نیز توانایی‌های کامل آن‌ها را نمی‌دانند: «این ایده که دولت‌ها یا سایر ارگان‌های مستقل می‌توانند شرکت‌ها را مجبور کنند که مدل‌های خود را قبل از عرضه به‌طور کامل آزمایش کنند، غیرواقعی به نظر می‌رسد

نکته اینجاست: تا زمانی که از یک فناوری استفاده نشود، غیرممکن است که از همه راه‌هایی که از یک فناوری سوء استفاده می‌شود، بدانید. شفر می گوید: «در سال 2023 بحث های زیادی در مورد کاهش سرعت توسعه هوش مصنوعی وجود داشت. "اما ما دیدگاه مخالف داریم."

او می‌گوید تا زمانی که این ابزارها توسط افراد زیادی به روش‌های مختلف مورد استفاده قرار نگیرد، ما آنها را بهتر نمی‌کنیم. آنها را تحریک خواهد کرد

پیش‌بینی: با افزایش سطح استفاده، اشکال جدید سوءاستفاده همچنان ظاهر می‌شوند. چند نمونه برجسته وجود خواهد داشت که احتمالاً مربوط به انتخابات است                                            

                                                          .

5

آیا با هزینه های آن مقابله خواهیم کرد؟

هزینه های توسعه هوش مصنوعی مولد، چه انسانی و چه محیطی، نیز باید در نظر گرفته شود. مشکل کارگر نامرئی یک راز آشکار است: ما از بدترین چیزهایی که مدل‌های مولد می‌توانند تولید کنند در امان مانده‌ایم تا حدی به لطف انبوه کارگران پنهان (اغلب با دستمزد ضعیف) که داده‌های آموزشی را برچسب‌گذاری می‌کنند و خروجی‌های سمی و گاهی آسیب‌زا را در طول آزمایش از بین می‌برند. اینها عرق فروشان عصر داده هستند.

در سال 2023، استفاده OpenAI از کارگران در کنیا توسط رسانه های محبوب مانند تایم و وال استریت ژورنال مورد بررسی قرار گرفت. OpenAI می‌خواست مدل‌های تولیدی خود را با ساخت فیلتری که محتوای نفرت‌انگیز، زشت و توهین‌آمیز را از کاربران پنهان می‌کند، بهبود بخشد. اما برای انجام این کار به افراد نیاز داشت که تعداد زیادی نمونه از چنین محتوای سمی را بیابند و برچسب گذاری کنند تا فیلتر خودکار آن بتواند تشخیص دهد. OpenAI شرکت برون سپاری Sama را استخدام کرده بود، که به نوبه خود گفته می شود از کارگران کم دستمزد در کنیا استفاده کرده است که از حمایت کمی برخوردار بودند.

با توجه به اینکه هوش مصنوعی مولد اکنون یک نگرانی اصلی است، هزینه های انسانی بیشتر مورد توجه قرار می گیرد و بر شرکت هایی که این مدل ها را می سازند برای رسیدگی به شرایط کار کارگران در سراسر جهان که برای کمک به بهبود فناوری خود قرارداد بسته اند، فشار وارد می کند.

پیش‌بینی: آگاهی بیشتر عمومی از هزینه‌های نیروی کار و زیست‌محیطی هوش مصنوعی، شرکت‌های فناوری را تحت فشار قرار می‌دهد. اما به زودی انتظار پیشرفت قابل توجهی در هر دو زمینه نداشته باشید.

6

- آیا مصیبت گرایی همچنان بر سیاست گذاری تسلط خواهد داشت؟

ترس از اینکه ایجاد ماشین‌های هوشمند می‌تواند پیامدهای فاجعه‌بار و حتی آخرالزمانی داشته باشد - مدت‌هاست که یک جریان پنهان در هوش مصنوعی بوده است. اما اوج تبلیغات، به‌علاوه اعلامیه‌ای از پیشگام هوش مصنوعی جفری هینتون در ماه مه مبنی بر اینکه اکنون از فناوری‌ای که در ساختش کمک کرده است می‌ترسد، آن را به سطح آورد.

تعداد کمی از مسائل در سال 2023 به همان اندازه تفرقه افکن بودند. مشاهیر هوش مصنوعی مانند هینتون و یکی از برندگان جایزه تورینگ، یان لیکان، که آزمایشگاه هوش مصنوعی متا را تأسیس کرد و به نظر او قیام‌گرایی مضحک است، درگیر دعواهای عمومی می‌شوند و در رسانه‌های اجتماعی بر یکدیگر سایه می‌اندازند.

هینتون، مدیر عامل OpenAI سام آلتمن، و دیگران پیشنهاد کرده‌اند که سیستم‌های هوش مصنوعی (آینده) باید دارای پادمان‌هایی مشابه موارد استفاده شده برای سلاح‌های هسته‌ای باشند. چنین صحبت هایی توجه مردم را به خود جلب می کند. اما مت کوردا، مدیر پروژه پروژه اطلاعات هسته‌ای در فدراسیون دانشمندان آمریکایی، در مقاله‌ای که در ماه ژوئیه در Vox نوشت، این «قیاس‌های درهم‌آمیز» و «هراس رسانه‌ای بدون کالری» را که برانگیخته‌اند، تقبیح کرد.

بنایچ می‌گوید درک اینکه چه چیزی واقعی است و چه چیزی غیرواقعی دشوار است، زیرا ما از انگیزه‌های افرادی که زنگ خطر را به صدا در می‌آورند نمی‌دانیم: «عجیب به نظر می‌رسد که بسیاری از مردم با این چیزها به شدت ثروتمند می‌شوند، و بسیاری از مردم همان کسانی هستند که اجباری برای کنترل بیشتر دارند. مثل این است که «هی، من چیزی را اختراع کردم که واقعاً قدرتمند است! این خطرات زیادی دارد، اما من پادزهر آن را دارم

 

برخی نگران تأثیر این همه ترس و وحشت هستند. در X، اندرو نگ، پیشگام یادگیری عمیق نوشت: «بزرگترین ترس من برای آینده هوش مصنوعی این است که خطرات بیش از حد (مانند انقراض انسان) به لابی‌گران فناوری اجازه دهد قوانین خفه‌کننده‌ای وضع کنند که منبع باز را سرکوب می‌کند و نوآوری را در هم می‌کوبد. این بحث همچنین منابع و محققان را از خطرات فوری تر مانند سوگیری، تغییرات شغلی و اطلاعات نادرست دور می کند (به بالا مراجعه کنید).

فرانسوا شولت، محقق بانفوذ هوش مصنوعی در گوگل می‌گوید: «بعضی از افراد ریسک وجودی را تحت فشار قرار می‌دهند، زیرا فکر می‌کنند که این به نفع شرکتشان خواهد بود. صحبت در مورد ریسک وجودی هم نشان می‌دهد که شما چقدر از نظر اخلاقی آگاه و مسئولیت‌پذیر هستید و هم حواس را از مسائل واقعی‌تر و فوری‌تر منحرف می‌کند.

بنایچ اشاره می کند که برخی از افرادی که با یک دست زنگ هشدار را به صدا در می آورند، با دست دیگر 100 میلیون دلار برای شرکت های خود جمع آوری می کنند. او می‌گوید: «می‌توان گفت که نابودی یک استراتژی جمع‌آوری سرمایه است.

پیش بینی: ترس افکنی از بین خواهد رفت، اما تأثیر آن بر برنامه های سیاست گذاران ممکن است برای مدتی احساس شود. فراخوان ها برای تمرکز مجدد بر آسیب های فوری بیشتر ادامه خواهد داشت.

البته روزهای اولیه اینترنت نیز مملو از شروع های کاذب بود. قبل از اینکه دنیا را تغییر دهد، رونق دات کام به رکود ختم شد. همیشه این احتمال وجود دارد که هوش مصنوعی مولد امروزی از بین برود و توسط چیز بزرگ بعدی تحت الشعاع قرار گیرد.

هر اتفاقی که بیفتد، اکنون که هوش مصنوعی به طور کامل در جریان اصلی قرار گرفته است، نگرانی های خاص به مشکل همه تبدیل شده است. همانطور که شفر می گوید، "ما مجبور خواهیم شد با این مسائل به شیوه ای دست و پنجه نرم کنیم که قبلاً چنین نکرده ایم

Comments

Popular Posts