The real threat from AI 

منبع: نیوساینتیست
نشخوار: (AI) هوش مصنوعی

فناوری در آینده پاسخگو باشد، به جای اینکه چگونه امروز بتوانیم مسئولیت بزرگی در زمینه فناوری داشته باشیم. همه اینها توهم اجتناب ناپذیری را ایجاد می کند و نشان می دهد که ما به جای مجموعه ای از تصمیمات آگاهانه و قابل کنترل توسط سازمان ها و افراد، تکامل هوش مصنوعی را مشاهده می کنیم. مهم است که فقط آنچه گفته می شود، بلکه به چه کسی گوش داده می شود، در نظر نگیریم. ما شاهد استقبال گرم آلتمن توسط تنظیم کننده ها در سراسر اروپا هستیم، در حالی که صدای افرادی که تحت تأثیر منفی هوش مصنوعی قرار گرفته اند به سختی شنیده می شود. این نشانه همان چیزی است که آکادمیک کیت کرافورد آن را «مشکل پسر سفیدپوست» هوش مصنوعی نامیده است: ادعاهای مربوط به خطر وجودی عمدتاً از موضع سفیدپوستان مرفه قدرت ناشی می‌شوند، کسانی که کمترین احتمال را دارند که آسیب‌های امروزی هوش مصنوعی را تجربه کنند (اما بیشترین مسئولیت ایجاد آن‌ها). ما در برهه‌ای حساس هستیم که دولت‌ها با چالش‌های تنظیم مؤثر هوش مصنوعی دست و پنجه نرم می‌کنند. مقابله با روایت‌های ابرهوشی و ریسک وجودی برای اطمینان از اینکه این بحث‌ها بر صداهای جوامع آسیب‌دیده متمرکز می‌شود، به جای منافع اختصاصی فناوری‌های بزرگ، و تعامل آنها با تأثیرات واقعی هوش مصنوعی، حیاتی است. حواس پرتی هوش عمومی مصنوعی ❚ در ماه‌های اخیر، سیل ادعاهایی مبنی بر اینکه هوش مصنوعی فوق‌هوشمند روزی می‌تواند به نابودی بشریت منجر شود، وجود داشته است. سام آلتمن، مدیر عامل OpenAI، گفته است که این فناوری می تواند منجر به "نورهایی برای همه ما شود"، در حالی که جفری هینتون، پیشگام هوش مصنوعی، به دلیل ترس از اینکه هوش مصنوعی تهدیدی برای آینده بشریت است، از گوگل استعفا داد. مطرح می کند. این ادعاها ترسناک هستند - اما نه به این دلیل که درست هستند. آنها ترسناک هستند زیرا به طور قابل توجهی مکالمات را در مورد تأثیرات هوش مصنوعی تغییر شکل داده و هدایت می کنند و به چه معناست که هوش مصنوعی به طور مسئولانه توسعه یابد. روایتی که ممکن است روزی هوش مافوق بشری را توسعه دهد و تهدیدی برای بشریت باشد، خط داستانی آشنای فیلم هاست و ریشه های محکمی در تصویر عمومی هوش مصنوعی دارد. این روایت همیشه در دسترس گزارش‌های رسانه‌ای بوده است، اما سال 2023 سالی است که به بحث‌های سیاستی و نظارتی پیرامون هوش مصنوعی نیز راه پیدا کرد. این نگران کننده است، زیرا شواهد کمی برای اثبات ادعاهای احساسی و هیجان انگیز ارائه شده است، و شواهد محدودی که به آنها اشاره می شود، معمولاً قابل بررسی نیستند. برای مثال، ادعاهایی مبنی بر اینکه مدل‌های زبانی بزرگ ویژگی‌های به‌اصطلاح اضطراری را نشان می‌دهند (توانایی‌هایی که برای آن‌ها آموزش ندیده‌اند، اما به نحوی ظاهر شده‌اند) معمولاً بر روی عملکردهای پیش‌بینی‌شده – اما قابل توضیح – متمرکز هستند. وقتی ساندار پیچای، مدیر عامل Alphabet، علی‌رغم اینکه ساندار پیچای، مدیر عامل Alphabet ادعا کرد، علی‌رغم اینکه Google به ربات‌های حرفه‌ای چت پاسخ داده بود، به ربات‌های حرفه‌ای چت پاسخ داده بود. توضیح قابل قبول تر از کارمند سابق گوگل مارگارت میچل بود که به توسعه بارد اشاره کرد که شامل جنبه هایی از PaLM پیشین خود بود که داده های آموزشی بنگالی را داشت. این یک یادآوری دیگر است که مدل‌های AI فقط به انجام کارهایی برنامه‌ریزی شده‌اند. ادعاهای مربوط به ویژگی‌های اضطراری برای منحرف کردن درخواست‌ها برای شفاف‌سازی و پایان دادن به بحث درباره مسئولیت‌های توسعه‌دهندگان استفاده می‌شود. بلندترین صداهایی که در مورد خطر وجودی فریاد می زنند از Silicon Valley می آیند. به نظر می رسد که این موضوع با سهم فناوری بزرگ در هدایت نوآوری و سرمایه گذاری در هوش مصنوعی مغایرت دارد، اما این روایت ها با منحرف کردن توجه از اقدامات فعلی فناوری های بزرگ به جای حدس و گمان در مورد توانایی های فرضی آینده هوش مصنوعی از منافع آن محافظت می کنند. MhairiAitken M استدلال می کند که با پیشنهاد Amight هوش خود را توسعه می دهد، تمرکز به سمتی می رود که تهدید واقعی از AI ادعاها در مورد خطر وجودی هوش مصنوعی ترسناک است - اما نه به دلیل اینکه درست است.

Comments

Popular Posts