رهبران فناوری در مورد تهدیدات هوش مصنوعی برای بشریت

 ا ختلاف نظر دارند

پیشگامان هوش مصنوعی در حال مبارزه بر سر این هستند که کدام یک از خطرات این فناوری ترسناک ترین است. یک اردوگاه، که شامل برخی از مدیران ارشد ساخت سیستم‌های هوش مصنوعی پیشرفته است، استدلال می‌کند که ایجاد آن می‌تواند منجر به فاجعه شود. در اردوگاه دیگر دانشمندانی حضور دارند که می گویند این نگرانی در درجه اول باید بر نحوه پیاده سازی هوش مصنوعی در حال حاضر و اینکه چگونه می تواند به زندگی روزمره ما آسیب برساند متمرکز شود. داریو آمودی، توسعه‌دهنده اصلی هوش مصنوعی در Anthropic، در مورد خطرات آن هشدار می‌دهد. او تابستان امسال در مقابل کنگره شهادت داد که هوش مصنوعی می تواند چنین تهدیدی برای بشریت باشد. سام آلتمن، رئیس OpenAI، خالق ChatGPT، در بهار امسال به جهان سفر کرد و گفت که هوش مصنوعی روزی می‌تواند آسیب جدی یا بدتر از آن ایجاد کند. و ایلان ماسک در یک رویداد وال استریت ژورنال در ماه می گفت که "هوش مصنوعی شانسی برای نابود کردن بشریت دارد" - کمی قبل از راه اندازی شرکت هوش مصنوعی خود. انتظار می‌رود آلتمن، ماسک و دیگر مدیران ارشد هوش مصنوعی هفته آینده در اولین جلسه از مجموعه نشست‌های پشت درهای بسته در مورد هوش مصنوعی به میزبانی چاک شومر، رهبر اکثریت سنای ایالات متحده شرکت کنند تا در مورد موضوعاتی از جمله بررسی سناریوهای روز قیامت بحث کنند. ". گروهی دیگر از دانشمندان هوش مصنوعی این هشدارها را علمی تخیلی حواس پرتی یا حتی یک ترفند بازاریابی حیله گر می نامند. آنها می گویند که شرکت ها و تنظیم کننده های هوش مصنوعی باید منابع محدود خود را بر روی تهدیدات موجود و قریب الوقوع این فناوری متمرکز کنند، مانند ابزارهایی که اطلاعات نادرست قوی درباره انتخابات تولید می کنند یا سیستم هایی که اثرات سوگیری های انسانی را تشدید می کنند. این اختلاف زمانی تشدید می‌شود که شرکت‌ها و دولت‌ها در سرتاسر جهان تلاش می‌کنند تصمیم بگیرند که منابع و توجه را به روش‌هایی متمرکز کنند که منافع را به حداکثر برسانند و نقاط منفی فناوری را به حداقل برسانند. نیکلاس مایال، یکی از بنیانگذاران Future Society، یک اندیشکده که روی حاکمیت هوش مصنوعی کار می کند و تلاش می کند این شکاف را پر کند، گفت: «این یک دوگانگی بسیار واقعی و رو به رشد است. "این پایان ماه است در مقابل پایان جهان." با وجود تمام توجهی که به آن شده است، بحث عمومی جدی در مورد خطر وجودی هوش مصنوعی - یا همان طور که بیشتر نگران آن هستند، "خطر x" - تا همین اواخر به حاشیه ای از فیلسوفان و محققان هوش مصنوعی محدود شده بود. این موضوع پس از انتشار ChatGPT توسط OpenAI در اواخر سال گذشته و بهبودهای بعدی که پاسخ‌هایی شبیه به انسان را ارائه کرد، تغییر کرد و هشدارهایی مبنی بر اینکه چنین سیستم‌هایی می‌توانند به هوش مافوق بشری دست یابند. محققان برجسته از جمله جفری هینتون که یکی از پدرخوانده‌های هوش مصنوعی به حساب می‌آید، ادعا کرده‌اند که این هوش مصنوعی دارای ذره‌ای از استدلال انسانی است. هینتون امسال نقش خود را در Google Alphabet ترک کرد تا آزادانه تر در مورد خطرات هوش مصنوعی صحبت کند. دیوید کروگر، استاد یادگیری ماشین در دانشگاه کمبریج، با هشدارهای خطر وجودی گفت: "یک تابو وجود دارد که شما را مسخره می کنند و مانند یک دیوانه با شما رفتار می کنند، و این امر بر آینده شغلی شما تاثیر می گذارد." در ماه مه، کروگر به سازماندهی بیانیه ای کمک کرد که گفت خطر انقراض ناشی از هوش مصنوعی با خطرات بیماری همه گیر و جنگ هسته ای برابری می کند. این سند توسط صدها کارشناس هوش مصنوعی از جمله مقامات ارشد و محققان در گوگل، OpenAI و Anthropic امضا شده است. کروگر گفت: "من می خواستم محققان بدانند که در شرکت خوبی هستند." برخی استدلال می کنند که برای شرکت های هوش مصنوعی پارادوکس وجود دارد که بر ریسک X سیستم ها تأکید کنند زیرا این تصور را ایجاد می کند که فناوری آنها فوق العاده پیچیده است. دانیل شوئنبرگر، وکیل سابق گوگل که در فهرست اصول هوش مصنوعی 2018 کار می کرد و است، می گوید: «بدیهی است که این افراد از هیاهویی که هنوز در حال ایجاد است سود می برند

Comments

Popular Posts