رهبران فناوری در مورد تهدیدات هوش مصنوعی برای بشریت
ا ختلاف نظر دارند
پیشگامان هوش مصنوعی در حال مبارزه بر سر این هستند که کدام یک از خطرات این فناوری ترسناک ترین است. یک اردوگاه، که شامل برخی از مدیران ارشد ساخت سیستمهای هوش مصنوعی پیشرفته است، استدلال میکند که ایجاد آن میتواند منجر به فاجعه شود. در اردوگاه دیگر دانشمندانی حضور دارند که می گویند این نگرانی در درجه اول باید بر نحوه پیاده سازی هوش مصنوعی در حال حاضر و اینکه چگونه می تواند به زندگی روزمره ما آسیب برساند متمرکز شود. داریو آمودی، توسعهدهنده اصلی هوش مصنوعی در Anthropic، در مورد خطرات آن هشدار میدهد. او تابستان امسال در مقابل کنگره شهادت داد که هوش مصنوعی می تواند چنین تهدیدی برای بشریت باشد. سام آلتمن، رئیس OpenAI، خالق ChatGPT، در بهار امسال به جهان سفر کرد و گفت که هوش مصنوعی روزی میتواند آسیب جدی یا بدتر از آن ایجاد کند. و ایلان ماسک در یک رویداد وال استریت ژورنال در ماه می گفت که "هوش مصنوعی شانسی برای نابود کردن بشریت دارد" - کمی قبل از راه اندازی شرکت هوش مصنوعی خود. انتظار میرود آلتمن، ماسک و دیگر مدیران ارشد هوش مصنوعی هفته آینده در اولین جلسه از مجموعه نشستهای پشت درهای بسته در مورد هوش مصنوعی به میزبانی چاک شومر، رهبر اکثریت سنای ایالات متحده شرکت کنند تا در مورد موضوعاتی از جمله بررسی سناریوهای روز قیامت بحث کنند. ". گروهی دیگر از دانشمندان هوش مصنوعی این هشدارها را علمی تخیلی حواس پرتی یا حتی یک ترفند بازاریابی حیله گر می نامند. آنها می گویند که شرکت ها و تنظیم کننده های هوش مصنوعی باید منابع محدود خود را بر روی تهدیدات موجود و قریب الوقوع این فناوری متمرکز کنند، مانند ابزارهایی که اطلاعات نادرست قوی درباره انتخابات تولید می کنند یا سیستم هایی که اثرات سوگیری های انسانی را تشدید می کنند. این اختلاف زمانی تشدید میشود که شرکتها و دولتها در سرتاسر جهان تلاش میکنند تصمیم بگیرند که منابع و توجه را به روشهایی متمرکز کنند که منافع را به حداکثر برسانند و نقاط منفی فناوری را به حداقل برسانند. نیکلاس مایال، یکی از بنیانگذاران Future Society، یک اندیشکده که روی حاکمیت هوش مصنوعی کار می کند و تلاش می کند این شکاف را پر کند، گفت: «این یک دوگانگی بسیار واقعی و رو به رشد است. "این پایان ماه است در مقابل پایان جهان." با وجود تمام توجهی که به آن شده است، بحث عمومی جدی در مورد خطر وجودی هوش مصنوعی - یا همان طور که بیشتر نگران آن هستند، "خطر x" - تا همین اواخر به حاشیه ای از فیلسوفان و محققان هوش مصنوعی محدود شده بود. این موضوع پس از انتشار ChatGPT توسط OpenAI در اواخر سال گذشته و بهبودهای بعدی که پاسخهایی شبیه به انسان را ارائه کرد، تغییر کرد و هشدارهایی مبنی بر اینکه چنین سیستمهایی میتوانند به هوش مافوق بشری دست یابند. محققان برجسته از جمله جفری هینتون که یکی از پدرخواندههای هوش مصنوعی به حساب میآید، ادعا کردهاند که این هوش مصنوعی دارای ذرهای از استدلال انسانی است. هینتون امسال نقش خود را در Google Alphabet ترک کرد تا آزادانه تر در مورد خطرات هوش مصنوعی صحبت کند. دیوید کروگر، استاد یادگیری ماشین در دانشگاه کمبریج، با هشدارهای خطر وجودی گفت: "یک تابو وجود دارد که شما را مسخره می کنند و مانند یک دیوانه با شما رفتار می کنند، و این امر بر آینده شغلی شما تاثیر می گذارد." در ماه مه، کروگر به سازماندهی بیانیه ای کمک کرد که گفت خطر انقراض ناشی از هوش مصنوعی با خطرات بیماری همه گیر و جنگ هسته ای برابری می کند. این سند توسط صدها کارشناس هوش مصنوعی از جمله مقامات ارشد و محققان در گوگل، OpenAI و Anthropic امضا شده است. کروگر گفت: "من می خواستم محققان بدانند که در شرکت خوبی هستند." برخی استدلال می کنند که برای شرکت های هوش مصنوعی پارادوکس وجود دارد که بر ریسک X سیستم ها تأکید کنند زیرا این تصور را ایجاد می کند که فناوری آنها فوق العاده پیچیده است. دانیل شوئنبرگر، وکیل سابق گوگل که در فهرست اصول هوش مصنوعی 2018 کار می کرد و است، می گوید: «بدیهی است که این افراد از هیاهویی که هنوز در حال ایجاد است سود می برند
Comments
Post a Comment