The real threat from AI
منبع: نیوساینتیستنشخوار: (AI) هوش مصنوعی
فناوری در آینده پاسخگو باشد، به جای اینکه چگونه امروز بتوانیم مسئولیت بزرگی در زمینه فناوری داشته باشیم. همه اینها توهم اجتناب ناپذیری را ایجاد می کند و نشان می دهد که ما به جای مجموعه ای از تصمیمات آگاهانه و قابل کنترل توسط سازمان ها و افراد، تکامل هوش مصنوعی را مشاهده می کنیم. مهم است که فقط آنچه گفته می شود، بلکه به چه کسی گوش داده می شود، در نظر نگیریم. ما شاهد استقبال گرم آلتمن توسط تنظیم کننده ها در سراسر اروپا هستیم، در حالی که صدای افرادی که تحت تأثیر منفی هوش مصنوعی قرار گرفته اند به سختی شنیده می شود. این نشانه همان چیزی است که آکادمیک کیت کرافورد آن را «مشکل پسر سفیدپوست» هوش مصنوعی نامیده است: ادعاهای مربوط به خطر وجودی عمدتاً از موضع سفیدپوستان مرفه قدرت ناشی میشوند، کسانی که کمترین احتمال را دارند که آسیبهای امروزی هوش مصنوعی را تجربه کنند (اما بیشترین مسئولیت ایجاد آنها). ما در برههای حساس هستیم که دولتها با چالشهای تنظیم مؤثر هوش مصنوعی دست و پنجه نرم میکنند. مقابله با روایتهای ابرهوشی و ریسک وجودی برای اطمینان از اینکه این بحثها بر صداهای جوامع آسیبدیده متمرکز میشود، به جای منافع اختصاصی فناوریهای بزرگ، و تعامل آنها با تأثیرات واقعی هوش مصنوعی، حیاتی است. حواس پرتی هوش عمومی مصنوعی ❚ در ماههای اخیر، سیل ادعاهایی مبنی بر اینکه هوش مصنوعی فوقهوشمند روزی میتواند به نابودی بشریت منجر شود، وجود داشته است. سام آلتمن، مدیر عامل OpenAI، گفته است که این فناوری می تواند منجر به "نورهایی برای همه ما شود"، در حالی که جفری هینتون، پیشگام هوش مصنوعی، به دلیل ترس از اینکه هوش مصنوعی تهدیدی برای آینده بشریت است، از گوگل استعفا داد. مطرح می کند. این ادعاها ترسناک هستند - اما نه به این دلیل که درست هستند. آنها ترسناک هستند زیرا به طور قابل توجهی مکالمات را در مورد تأثیرات هوش مصنوعی تغییر شکل داده و هدایت می کنند و به چه معناست که هوش مصنوعی به طور مسئولانه توسعه یابد. روایتی که ممکن است روزی هوش مافوق بشری را توسعه دهد و تهدیدی برای بشریت باشد، خط داستانی آشنای فیلم هاست و ریشه های محکمی در تصویر عمومی هوش مصنوعی دارد. این روایت همیشه در دسترس گزارشهای رسانهای بوده است، اما سال 2023 سالی است که به بحثهای سیاستی و نظارتی پیرامون هوش مصنوعی نیز راه پیدا کرد. این نگران کننده است، زیرا شواهد کمی برای اثبات ادعاهای احساسی و هیجان انگیز ارائه شده است، و شواهد محدودی که به آنها اشاره می شود، معمولاً قابل بررسی نیستند. برای مثال، ادعاهایی مبنی بر اینکه مدلهای زبانی بزرگ ویژگیهای بهاصطلاح اضطراری را نشان میدهند (تواناییهایی که برای آنها آموزش ندیدهاند، اما به نحوی ظاهر شدهاند) معمولاً بر روی عملکردهای پیشبینیشده – اما قابل توضیح – متمرکز هستند. وقتی ساندار پیچای، مدیر عامل Alphabet، علیرغم اینکه ساندار پیچای، مدیر عامل Alphabet ادعا کرد، علیرغم اینکه Google به رباتهای حرفهای چت پاسخ داده بود، به رباتهای حرفهای چت پاسخ داده بود. توضیح قابل قبول تر از کارمند سابق گوگل مارگارت میچل بود که به توسعه بارد اشاره کرد که شامل جنبه هایی از PaLM پیشین خود بود که داده های آموزشی بنگالی را داشت. این یک یادآوری دیگر است که مدلهای AI فقط به انجام کارهایی برنامهریزی شدهاند. ادعاهای مربوط به ویژگیهای اضطراری برای منحرف کردن درخواستها برای شفافسازی و پایان دادن به بحث درباره مسئولیتهای توسعهدهندگان استفاده میشود. بلندترین صداهایی که در مورد خطر وجودی فریاد می زنند از Silicon Valley می آیند. به نظر می رسد که این موضوع با سهم فناوری بزرگ در هدایت نوآوری و سرمایه گذاری در هوش مصنوعی مغایرت دارد، اما این روایت ها با منحرف کردن توجه از اقدامات فعلی فناوری های بزرگ به جای حدس و گمان در مورد توانایی های فرضی آینده هوش مصنوعی از منافع آن محافظت می کنند. MhairiAitken M استدلال می کند که با پیشنهاد Amight هوش خود را توسعه می دهد، تمرکز به سمتی می رود که تهدید واقعی از AI ادعاها در مورد خطر وجودی هوش مصنوعی ترسناک است - اما نه به دلیل اینکه درست است.
Comments
Post a Comment