رهبران متعهد می شوند که آسیب های هوش مصنوعی را محدود کنند
بلچلی، بریتانیا ، اینجا در حومههای انگلیسی، در همان منطقهای که
رمز شکنان جنگ جهانی دوم رمز انیگما نازیها را شکستند، رهبران جهان متعهد شدند که
برای کاهش خطرات فناوری که آنها میگویند یک تهدید جدی است، همکاری کنند. به گفته
آنها، هوش مصنوعی در پیشرفته ترین اشکال خود می تواند خطرات فاجعه باری را در زمینه
هایی از جمله امنیت سایبری و بیوتکنولوژی ایجاد کند ، یا حتی از کنترل انسان فرار
کند. میشل دانلان، وزیر علوم، نوآوری و فناوری بریتانیا، به نقل از یک رمز شکن که
روی این کار می کرد، گفت: «گاهی اوقات ارزش دارد که داستان های علمی تخیلی را جدی
بگیریم. در بیانیه افتتاحیه این اجلاس دو روزه که از چهارشنبه آغاز شد، ایالات
متحده، چین و دو ده کشور دیگر متعهد شدند که در ارزیابی خطرات ناشی از سیستمهای
هوش مصنوعی آینده (مدلها) همکاری نزدیکتری داشته باشند. قدرتمندتر از آنچه امروز
وجود دارد، و در نظر گرفتن چارچوب های قانونی برای کنترل استقرار آنها. در بیانیه
مشترک با اشاره به سوءاستفاده احتمالی از سیستمهای قدرتمند هوش مصنوعی توسط بازیگران
بد یا حتی «پتانسیل آسیب جدی، حتی فاجعهبار، عمدی یا غیرعمدی، از حیاتیترین قابلیتهای
این مدلهای هوش مصنوعی» آمده است. از دست دادن کنترل سیستم هایی که به طور کامل
درک نشده اند و پیش بینی آنها دشوار است. این تعهد اولین بیانیه مهم بین المللی
است که هشدارهایی را در مورد تهدید وجودی بالقوه برای بشریت از مدل های جدید
قدرتمند هوش مصنوعی منعکس می کند. بحث در مورد اینکه چقدر این هشدارها باید جدی
گرفته شود و چه باید کرد در مورد آنها در دستور کار این نشست خواهد بود که شامل یک
هیئت آمریکایی به رهبری معاون رئیس جمهور کامالا هریس و همچنین مدیران شرکت های
برجسته هوش مصنوعی از جمله ایلان ماسک و سم آلتمن، مدیر عامل. هر دوی مدیران فناوری نسبت به آنچه که می گویند
پتانسیل مخرب بالقوه <اپن ای آی > هوش مصنوعی است، هشدار داده اند که به طور
جداگانه سعی در ایجاد آن دارند. دیگران، از جمله مدیر سیاستگذاری متا پلتفرم و نیک
کلگ، معاون سابق نخستوزیر بریتانیا، گفتند که این خطرات گمانهزنی باعث انحراف
حواس از مشکلات فعلی میشود ، مانند محافظت از انتخابات در برابر ویدیوهای جعلی
تولید شده توسط هوش مصنوعی. کلگ روز سه شنبه گفت: "اگر زمان زیادی را صرف
نگرانی در مورد چیزی در خارج از کشور می کنید، زمان کمتری را صرف نگرانی در مورد چیزهایی
می کنید که درست جلوی بینی شما قرار دارد." روز چهارشنبه، ایالات متحده اعلام
کرد که یک مرکز ایمنی هوش مصنوعی را به عنوان بخشی از وزارت بازرگانی خود ایجاد
خواهد کرد و متعهد شد که با همتای بریتانیایی خود برای تعیین استانداردهایی برای
محک زدن قابلیت های هوش مصنوعی و سیستم های جمع آوری داده ها همکاری کند. گزارش های
شرکت های هوش مصنوعی برای همکاری . بریتانیا همچنین برنامه های آینده خود را برای
نشست های ایمنی هوش مصنوعی که در سال آینده در کره جنوبی و فرانسه برگزار می شود،
اعلام کرد. دخالت چین در این اجلاس توسط مقامات غربی و مدیران صنعتی مورد توجه
قرار گرفته است، زیرا برخی نگران هستند که هوش مصنوعی به عنوان بخشی از مسابقه تسلیحاتی
بین ابرقدرت های جهان مورد استفاده قرار گیرد. وو ژائوهوی، معاون وزیر علوم و
فناوری چین، در این اجلاس گفت که این کشور از کار بین المللی برای ساخت سیستم های
آزمایش و ارزیابی هوش مصنوعی حمایت می کند. تهدید یک آخرالزمان هوش مصنوعی به دست
ماشینهای خداگونه مدتهاست که موضوع جذاب فرهنگ پاپ بوده است. اما از زمان انتشار
هوش مصنوعی که توانایی غیرعادی فناوری جدید
را در ارائه پاسخهای قابل قبول و روان به سؤالات تقریباً در هر موضوعی نشان میدهد،
به موضوع بحث در مورد اولویتهایی که سیاستگذاران باید تعیین کنند نیز تبدیل شده
است. در سخنرانی روز چهارشنبه، هریس گفت کارشناسان باید تعریف خود را از ایمنی هوش
مصنوعی گسترش دهند تا مجموعه گستردهتری از خطرات، از جمله آسیبهای اجتماعی را که
به گفته او در حال حاضر وجود دارد ء مانند تعصب، تبعیض یا توانایی آن در انتشار
اطلاعات نادرست، شامل شود. چند مورد از این موضوعات توسط فرمان اجرایی ایالات متحده
که در اوایل این هفته امضا شد هدف قرار گرفت. این نگرانیها توسط برخی گروههای
حقوق دیجیتال و کارگری که نامه سرگشادهای در انتقاد از اولویتهای اجلاس صادر
کردند، تکرار شده است. در این نامه آمده است: «این در مورد اخراج شدن شما از شغل توسط
یک الگوریتم، یا ارجاع ناعادلانه برای دریافت وام بر اساس هویت یا کد پستی شما
است. کسبوکارهای کوچک و هنرمندان از کار تعطیل شدهاند و نوآوری در حال خفه شدن
است.»
Comments
Post a Comment