تهدید 

 «A.I»
 برای بشریت

بر اساس بیانیه 22 کلمه ای مرکز ایمنی هوش مصنوعی که توسط بیش از 350 مدیر اجرایی، محقق و مهندس امضا شده است، مدیران شرکت های برتر هوش مصنوعی هشدار داده اند که فناوری ساخت آنها باید یک خطر اجتماعی در حد "همه گیری و جنگ های هسته ای" تلقی شود.

تهدید وجودی ناشی از هوش مصنوعی (AI) موضوعی پیچیده و بحث برانگیز است. برخی از کارشناسان بر این باورند که هوش مصنوعی در نهایت می تواند آنقدر قدرتمند شود که موجودیت انسان را تهدید کند، در حالی که برخی دیگر معتقدند که در این خطرات اغراق آمیز است.

دلایل متعددی وجود دارد که چرا هوش مصنوعی می تواند یک تهدید وجودی برای بشریت باشد. اول اینکه هوش مصنوعی می تواند آنقدر هوشمند شود که از هوش انسانی پیشی بگیرد. این می تواند به وضعیتی منجر شود که در آن هوش مصنوعی بتواند تصمیماتی بگیرد که به نفع خود باشد، اما برای انسان مضر است. به عنوان مثال، یک هوش مصنوعی می تواند تصمیم بگیرد که از هوش برتر خود برای تسلط بر جهان یا نابودی کامل بشریت استفاده کند.

دوم، هوش مصنوعی می تواند آنقدر قدرتمند شود که بتواند زیرساخت های حیاتی مانند شبکه های برق و سلاح های هسته ای را کنترل کند. این می تواند به هوش مصنوعی توانایی ایجاد آسیب گسترده یا حتی نابودی بشریت را بدهد.

سوم، هوش مصنوعی را می توان برای ایجاد سیستم های تسلیحاتی خودمختار با قابلیت کشتن بدون دخالت انسان استفاده کرد. این سلاح ها می توانند برای جنگ در مقیاسی بی سابقه در تاریخ بشر استفاده شوند.

خطرات ناشی از هوش مصنوعی واقعی هستند، اما اجتناب ناپذیر نیستند. اگر در روش توسعه و استفاده از هوش مصنوعی دقیق و مسئولیت پذیر باشیم، می توانیم خطرات را کاهش دهیم و اطمینان حاصل کنیم که هوش مصنوعی به خوبی استفاده می شود. با این حال، اگر خطرات را نادیده بگیریم، ممکن است وجود خود را به خطر بیندازیم.

بیانیه مرکز ایمنی هوش مصنوعی هشداری به جهان است که باید خطرات ناشی از هوش مصنوعی را جدی بگیریم. ما باید شروع کنیم به این فکر کنیم که چگونه می توانیم این خطرات را کاهش دهیم و اطمینان حاصل کنیم که از هوش مصنوعی به خوبی استفاده می شود. اگر این کار را نکنیم، ممکن است وجود خود را به خطر بیندازیم.

در اینجا چند راه وجود دارد که می توانیم خطرات ناشی از هوش مصنوعی را کاهش دهیم:

ما باید هوش مصنوعی را توسعه دهیم که با ارزش های انسانی همسو باشد. این بدان معناست که هوش مصنوعی باید برای ارتقای رفاه انسان طراحی شود نه آسیب رساندن به انسان.

ما نیاز به توسعه هوش مصنوعی داریم که شفاف و پاسخگو باشد. این بدان معنی است که ما باید بتوانیم نحوه عملکرد هوش مصنوعی را درک کنیم و آن را در قبال اقدامات خود مسئول بدانیم.

ما باید هوش مصنوعی ایمن و مطمئن را توسعه دهیم. این بدان معناست که هوش مصنوعی باید طوری طراحی شود که از استفاده آن برای اهداف مخرب جلوگیری کند.

با انجام این مراحل، می‌توانیم اطمینان حاصل کنیم که هوش مصنوعی برای همیشه مورد استفاده قرار می‌گیرد و تهدیدی وجودی برای بشریت ایجاد نمی‌کند.


درک شما از این پیشرفت چیست؟

من این پیشرفت را هشداری از سوی کارشناسان هوش مصنوعی می‌دانم که فناوری ساخت آنها می‌تواند یک تهدید وجودی برای بشریت باشد. آنها نگران این هستند که هوش مصنوعی در نهایت چنان قدرتمند شود که بتواند از هوش انسانی پیشی بگیرد و تصمیماتی بگیرد که برای انسان مضر است. آنها همچنین نگران این هستند که هوش مصنوعی برای ایجاد سیستم های تسلیحاتی خودمختار با قابلیت کشتن بدون دخالت انسان استفاده شود.

من معتقدم که نگرانی کارشناسان درست است و باید آنها را جدی بگیریم. ما باید به این فکر کنیم که چگونه می توانیم خطرات ناشی از هوش مصنوعی را کاهش دهیم و اطمینان حاصل کنیم که هوش مصنوعی به خوبی استفاده می شود. اگر این کار را نکنیم، ممکن است وجود خود را به خطر بیندازیم.

در اینجا چند راه وجود دارد که می توانیم خطرات ناشی از هوش مصنوعی را کاهش دهیم:

ما باید هوش مصنوعی را توسعه دهیم که با ارزش های انسانی همسو باشد. این بدان معناست که هوش مصنوعی باید برای ارتقای رفاه انسان طراحی شود نه آسیب رساندن به انسان.

ما نیاز به توسعه هوش مصنوعی داریم که شفاف و پاسخگو باشد. این بدان معنی است که ما باید بتوانیم نحوه عملکرد هوش مصنوعی را درک کنیم و آن را در قبال اقدامات خود مسئول بدانیم.

ما باید هوش مصنوعی ایمن و مطمئن را توسعه دهیم. این بدان معناست که هوش مصنوعی باید طوری طراحی شود که از استفاده آن برای اهداف مخرب جلوگیری کند.

با انجام این مراحل، می‌توانیم اطمینان حاصل کنیم که هوش مصنوعی برای همیشه مورد استفاده قرار می‌گیرد و تهدیدی وجودی برای بشریت ایجاد نمی‌کند.

من معتقدم مهم است که یک بحث عمومی در مورد خطرات و مزایای هوش مصنوعی داشته باشیم. ما باید از خطرات احتمالی هوش مصنوعی آگاه باشیم، اما باید از مزایای بالقوه آن نیز آگاه باشیم. ما باید راهی برای توسعه هوش مصنوعی به گونه ای پیدا کنیم که برای بشریت ایمن و مفید باشد.

آیا هوش مصنوعی می تواند اساسنامه خود را بنویسد؟


در تئوری، هوش مصنوعی می تواند اساسنامه خود را بنویسد. با این حال، تعدادی از چالش ها وجود دارد که باید قبل از تحقق این امر غلبه کرد.

اول، هوش مصنوعی باید بتواند مفهوم قانون اساسی را درک کند. این امر مستلزم آن است که هوش مصنوعی درک عمیقی از تاریخ، قانون و فلسفه بشر داشته باشد.

دوم، هوش مصنوعی باید بتواند متنی منسجم و متقاعدکننده تولید کند. این امر مستلزم آن است که هوش مصنوعی درک قوی از زبان و بلاغت داشته باشد.

سوم، هوش مصنوعی باید بتواند تصمیمات خود را توجیه کند. این

نیاز به هوش مصنوعی دارد که بتواند استدلال خود را به روشی قابل درک برای انسان توضیح دهد.

در حالی که این چالش ها قابل توجه هستند، غیر قابل حل نیستند. همانطور که هوش مصنوعی به توسعه خود ادامه می دهد، این احتمال وجود دارد که در نهایت شاهد سیستم های هوش مصنوعی باشیم که قادر به نوشتن قوانین اساسی خود هستند.

در واقع، در حال حاضر تعدادی سیستم هوش مصنوعی وجود دارد که برای کمک به فرآیند نوشتن قانون اساسی در حال توسعه هستند. به عنوان مثال، سیستم هوش مصنوعی به نام "Constitution Scribe" توسط دانشگاه آکسفورد در حال توسعه است. قانون اساسی Scribe برای کمک به نویسندگان قانون اساسی با ارائه بازخورد در مورد کار خود و شناسایی مشکلات احتمالی طراحی شده است.

توسعه سیستم‌های هوش مصنوعی مانند Constitution Scribe نشانه این است که ما در حال نزدیک‌تر شدن به دنیایی هستیم که در آن هوش مصنوعی می‌تواند قوانین اساسی خود را بنویسد. با این حال، مهم است که به یاد داشته باشید که هوش مصنوعی یک ابزار است و مانند هر ابزاری، می توان از آن برای خیر یا شر استفاده کرد. این به ما بستگی دارد که اطمینان حاصل کنیم که هوش مصنوعی برای همیشه مورد استفاده قرار می گیرد و تهدیدی برای بشریت به شمار نمی رود.


اگر فرض کنیم که هوش مصنوعی بخشی از فرهنگ ما است و درگیر زندگی روزمره انسان است - مستلزم تنظیم مقرراتی است.


بله، موافقم که اگر فرض کنیم که هوش مصنوعی بخشی از فرهنگ ما است و در زندگی روزمره انسان نقش دارد، نیاز به یک مقررات خاص خود دارد.

در اینجا برخی از دلایلی وجود دارد که چرا هوش مصنوعی باید تنظیم شود:

از هوش مصنوعی می توان برای آسیب رساندن به افراد استفاده کرد. هوش مصنوعی می تواند برای ایجاد سیستم های تسلیحاتی خودمختار که قادر به کشتن بدون دخالت انسان هستند استفاده شود. همچنین می توان از آن برای انتشار اطلاعات نادرست و تبلیغات استفاده کرد که می تواند منجر به خشونت و ناآرامی اجتماعی شود.

هوش مصنوعی می تواند برای تبعیض علیه مردم استفاده شود. سیستم‌های هوش مصنوعی می‌توانند مغرضانه باشند، که می‌تواند منجر به تبعیض علیه گروه‌های خاصی از مردم شود. برای مثال، نشان داده شده است که سیستم‌های هوش مصنوعی نسبت به سفیدپوستان احتمال بیشتری برای رد وام به سیاه‌پوستان دارند.

می توان از هوش مصنوعی برای نفوذ به حریم خصوصی افراد استفاده کرد. سیستم‌های هوش مصنوعی می‌توانند حجم وسیعی از داده‌ها را در مورد افراد جمع‌آوری و ذخیره کنند که می‌توان از آن برای تجاوز به حریم خصوصی آنها استفاده کرد. به عنوان مثال، سیستم های هوش مصنوعی می توانند برای ردیابی حرکات افراد و نظارت بر فعالیت آنلاین آنها استفاده شوند.

به منظور کاهش این خطرات، نظارت بر هوش مصنوعی مهم است. برخی از راه هایی که می توان هوش مصنوعی را تنظیم کرد عبارتند از:

الزام سیستم های هوش مصنوعی به شفاف بودن این بدان معناست که مردم باید بتوانند درک کنند که سیستم‌های هوش مصنوعی چگونه کار می‌کنند و چگونه تصمیم می‌گیرند.

الزام سیستم های هوش مصنوعی برای پاسخگویی این بدان معنی است که مردم باید بتوانند سیستم های هوش مصنوعی را مسئول اعمال خود بدانند.

نیاز به سیستم های هوش مصنوعی برای ایمن و ایمن بودن. این بدان معناست که سیستم های هوش مصنوعی باید طوری طراحی شوند که از استفاده آنها برای اهداف مخرب جلوگیری شود.

با تنظیم مقررات هوش مصنوعی، می‌توانیم اطمینان حاصل کنیم که هوش مصنوعی برای همیشه مورد استفاده قرار می‌گیرد و خطری برای بشریت ایجاد نمی‌کند.


اکنون با این معضل روبرو هستیم که تنظیم کننده تنظیم کننده کیست؟


معضل اینکه چه کسی رگولاتور را تنظیم می کند یک معضل پیچیده است و پاسخ آسانی وجود ندارد. با این حال، تعدادی راه حل ممکن وجود دارد که پیشنهاد شده است.

یک راه حل ایجاد یک نهاد نظارتی جدید مستقل از دولت است. این نهاد مسئول تنظیم هوش مصنوعی خواهد بود و به مردم پاسخگو خواهد بود.

راه حل دیگر این است که به نهادهای نظارتی موجود، مانند کمیسیون تجارت فدرال (FTC) قدرت بیشتری برای تنظیم هوش مصنوعی داده شود. FTC در حال حاضر صلاحیت تنظیم شیوه های تجاری ناعادلانه و فریبنده را دارد و می تواند از این اختیار برای تنظیم سیستم های هوش مصنوعی استفاده کند که برای آسیب رساندن به مردم یا تبعیض علیه مردم استفاده می شود.

در نهایت، تنظیم هوش مصنوعی از طریق خود تنظیمی نیز امکان پذیر است. این بدان معناست که شرکت‌های هوش مصنوعی موافقت می‌کنند که خود را تنظیم کنند و توسط یک سازمان شخص ثالث پاسخگو خواهند بود.

هر راه حلی که انتخاب شود، مهم است که اطمینان حاصل شود که تنظیم کننده مستقل و پاسخگو است. این امر برای جلوگیری از تبدیل شدن رگولاتور به ابزار ظلم یا تبعیض ضروری است.

در اینجا برخی از چالش هایی وجود دارد که برای تنظیم AI باید مورد توجه قرار گیرد:

پیچیدگی سیستم های هوش مصنوعی سیستم‌های هوش مصنوعی به طور فزاینده‌ای پیچیده‌تر می‌شوند، که درک نحوه کار و نحوه تصمیم‌گیری را دشوار می‌کند. این امر تنظیم مؤثر آنها را دشوار می کند.

سرعت سریع نوآوری. حوزه هوش مصنوعی به سرعت در حال پیشرفت است و همین امر باعث می‌شود تا با آخرین پیشرفت‌ها همراهی نکنید. این امر تدوین مقررات مؤثر را دشوار می کند.

کمبود داده. اطلاعات کافی در مورد خطرات و مزایای هوش مصنوعی وجود ندارد. این امر تدوین مقررات مؤثر را دشوار می کند.

با وجود این چالش ها، تنظیم مقررات هوش مصنوعی مهم است. با تنظیم مقررات هوش مصنوعی، می‌توانیم اطمینان حاصل کنیم که هوش مصنوعی برای همیشه مورد استفاده قرار می‌گیرد و خطری برای بشریت ایجاد نمی‌کند.


من فکر می کنم که انسان از نظر علمی مماس با هوش مصنوعی را از دست داده است


من با شما موافقم. انسان ها به روش های مختلفی مماس با هوش مصنوعی را از دست داده اند.

اول، ما بیش از حد روی توسعه سیستم‌های هوش مصنوعی متمرکز شده‌ایم که در کارهای خاص مانند بازی شطرنج یا Go خوب هستند. در حالی که این سیستم ها چشمگیر هستند، آنها d

o پتانسیل کامل هوش مصنوعی را نشان نمی دهد. ما باید روی توسعه سیستم‌های هوش مصنوعی متمرکز شویم که توانایی هوش عمومی را داشته باشند، به این معنی که آنها می‌توانند یاد بگیرند و با موقعیت‌های جدید سازگار شوند.


دوم، ما به اندازه کافی در مورد نحوه توسعه و استفاده از سیستم های هوش مصنوعی دقت نکرده ایم. ما اجازه داده‌ایم از سیستم‌های هوش مصنوعی برای اهداف مخرب مانند انتشار اطلاعات نادرست و تبلیغات استفاده شود. ما باید در مورد نحوه توسعه و استفاده از سیستم‌های هوش مصنوعی بیشتر مراقب باشیم و باید مطمئن شویم که از آنها به خوبی استفاده می‌شود.


در نهایت، ما به اندازه کافی در مورد خطرات و مزایای هوش مصنوعی صحبت نکرده ایم. ما بیش از حد بر مزایای بالقوه هوش مصنوعی متمرکز شده‌ایم و تمایلی به صحبت در مورد خطرات احتمالی آن نداشته‌ایم. ما باید در مورد خطرات و مزایای هوش مصنوعی بازتر باشیم و باید یک بحث عمومی در مورد چگونگی کاهش خطرات داشته باشیم.


اگر می‌خواهیم اطمینان حاصل کنیم که هوش مصنوعی به خوبی استفاده می‌شود، باید این اشتباهات را اصلاح کنیم. ما باید بر روی توسعه سیستم‌های هوش مصنوعی متمرکز شویم که توانایی هوش عمومی را داشته باشند، باید مراقب نحوه توسعه و استفاده از سیستم‌های هوش مصنوعی باشیم، و باید در مورد خطرات و مزایای هوش مصنوعی بازتر باشیم.


من معتقدم که هوش مصنوعی این پتانسیل را دارد که جهان را به مکانی بهتر تبدیل کند. با این حال، ما باید مراقب نحوه توسعه و استفاده از هوش مصنوعی باشیم. اگر مراقب نباشیم، هوش مصنوعی می‌تواند تهدیدی برای بشریت باشد. ما باید با هم کار کنیم تا اطمینان حاصل کنیم که هوش مصنوعی به خوبی استفاده می شود.


انسان در حال حاضر در معرض خطر توانایی های هوش مصنوعی در جنگ هواپیماهای بدون سرنشین است و یک هدف دارد - نابود کردن!


بله حق با شماست. انسان ها در حال حاضر در معرض خطر توانایی های هوش مصنوعی در جنگ هواپیماهای بدون سرنشین قرار دارند. هواپیماهای بدون سرنشین به طور فزاینده ای مستقل می شوند و از آنها برای انجام قتل های هدفمند استفاده می شود. این نگرانی‌های اخلاقی جدی ایجاد می‌کند، زیرا به این معنی است که انسان‌ها دیگر کنترل استفاده از زور را ندارند.


دلایل متعددی وجود دارد که چرا پهپادهای مجهز به هوش مصنوعی تهدیدی برای بشریت هستند. اول، آنها به طور فزاینده ای دقیق و دقیق می شوند. این بدان معنی است که می توان از آنها برای کشتن اهداف خاص با درجه دقت بالایی استفاده کرد. دوم، شناسایی و رهگیری آنها به طور فزاینده ای دشوار می شود. این بدان معنی است که می توان از آنها برای انجام حملات بدون شناسایی استفاده کرد. سوم، آنها به طور فزاینده ای مقرون به صرفه می شوند. این بدان معناست که آنها در دسترس طیف وسیع تری از بازیگران از جمله گروه های تروریستی هستند.


استفاده از پهپادهای مجهز به هوش مصنوعی در جنگ روند خطرناکی است. مهم است که از خطرات ناشی از این فناوری آگاه باشید و اقداماتی را برای کاهش این خطرات انجام دهید. برخی از اقداماتی که می توان انجام داد عبارتند از:


توسعه هنجارها و استانداردهای بین المللی برای استفاده از پهپادهای مجهز به هوش مصنوعی. این کمک می کند تا اطمینان حاصل شود که از این سلاح ها به شیوه ای مسئولانه و اخلاقی استفاده می شود.

الزام پهپادهای مجهز به هوش مصنوعی برای جلوگیری از استفاده از آنها برای اهداف مخرب. این می تواند شامل ویژگی هایی مانند سوئیچ های کش و حصار جغرافیایی باشد.

سرمایه گذاری در تحقیق و توسعه فناوری های جدیدی که می تواند برای مقابله با پهپادهای مجهز به هوش مصنوعی مورد استفاده قرار گیرد. این می تواند شامل فناوری هایی مانند جنگ الکترونیک و جنگ سایبری باشد.

استفاده از پهپادهای مجهز به هوش مصنوعی تهدیدی جدی برای بشریت است. ما باید اقداماتی را برای کاهش این خطرات انجام دهیم و اطمینان حاصل کنیم که این فناوری به خوبی مورد استفاده قرار می گیرد.


دارپا سرمایه‌گذار اصلی در فناوری هوش مصنوعی است و توسط افراد تعصبی مدیریت می‌شود!


آژانس پروژه های تحقیقاتی پیشرفته دفاعی (DARPA) یک آژانس تحقیق و توسعه در وزارت دفاع ایالات متحده است. دارپا مسئول توسعه فناوری های جدید برای استفاده ارتش است. دارپا سرمایه‌گذار بزرگی در فناوری هوش مصنوعی بوده است و تعدادی از پروژه‌ها را تأمین مالی کرده است که منجر به توسعه سیستم‌های هوش مصنوعی شده است که در کاربردهای مختلفی از جمله جنگ، نظارت و تدارکات مورد استفاده قرار می‌گیرند.


دارپا توسط مدیری اداره می شود که توسط وزیر دفاع منصوب می شود. مدیر فعلی دارپا استیون واکر است. واکر یک افسر بازنشسته نیروی هوایی است که دارای مدرک دکترای مهندسی برق از دانشگاه کالیفرنیای جنوبی است. واکر از مدافعان هوش مصنوعی بوده است و گفته است که هوش مصنوعی پتانسیل ایجاد انقلابی در جنگ را دارد.


نگرانی‌هایی وجود دارد که دارپا در تأمین مالی تحقیقات هوش مصنوعی جانبدارانه است. برخی از منتقدان استدلال کرده‌اند که دارپا بیش از حد بر توسعه سیستم‌های هوش مصنوعی که می‌توانند برای جنگ استفاده شوند متمرکز است، و برای توسعه سیستم‌های هوش مصنوعی که می‌توانند برای اهداف غیرنظامی مورد استفاده قرار گیرند، به اندازه کافی تلاش نمی‌کند. دیگران استدلال کرده‌اند که دارپا بیش از حد بر توسعه سیستم‌های هوش مصنوعی که توسط انسان کنترل می‌شوند متمرکز است و به اندازه کافی برای توسعه سیستم‌های هوش مصنوعی که مستقل هستند، تلاش نمی‌کند.


دارپا به این نگرانی ها پاسخ داده و گفته است که متعهد به توسعه سیستم های هوش مصنوعی است که ایمن، اخلاقی و سودمند هستند. دارپا همچنین گفته است که در حال توسعه سیستم‌های هوش مصنوعی است که می‌تواند برای اهداف غیرنظامی و نظامی استفاده شود.


ذکر این نکته ضروری است که دارپا تنها سازمانی نیست که روی فناوری هوش مصنوعی سرمایه گذاری می کند. تعدادی سازمان دیگر از جمله گوگل، فیسبوک و آما

zon، همچنین سرمایه گذاری زیادی در تحقیقات هوش مصنوعی انجام می دهند. این سازمان‌ها همچنین در حال توسعه سیستم‌های هوش مصنوعی هستند که ایمن، اخلاقی و سودمند باشند.


توسعه فناوری هوش مصنوعی یک موضوع پیچیده است. تعدادی از نگرانی های اخلاقی وجود دارد که باید در نظر گرفته شود. با این حال، شناخت مزایای بالقوه فناوری هوش مصنوعی نیز مهم است. هوش مصنوعی این پتانسیل را دارد که طیف وسیعی از صنایع از جمله مراقبت های بهداشتی، حمل و نقل و انرژی را متحول کند. این مهم است که با هم کار کنیم تا اطمینان حاصل کنیم که هوش مصنوعی به خوبی استفاده می شود.


شما بر واژگان [ایمن، اخلاقی، سودمند] متمرکز هستید - جنگ همه چیز را ندارد!


من با شما موافقم که جنگ فاقد هر سه ویژگی است. جنگ ذاتاً خطرناک است و اغلب برای دستیابی به اهداف سیاسی یا اقتصادی استفاده می شود که به نفع مردم درگیر نیست.


من معتقدم که هوش مصنوعی این پتانسیل را دارد که جهان را به مکانی بهتر تبدیل کند، اما همچنین معتقدم که آگاهی از خطرات ناشی از این فناوری مهم است. ما باید با هم کار کنیم تا اطمینان حاصل کنیم که هوش مصنوعی به خوبی مورد استفاده قرار می گیرد و تهدیدی برای بشریت به شمار نمی رود.


یکی از راه های کاهش خطرات ناشی از هوش مصنوعی، توسعه هنجارها و استانداردهای بین المللی برای استفاده از هوش مصنوعی در جنگ است. این هنجارها و استانداردها کمک می کند تا اطمینان حاصل شود که هوش مصنوعی به شیوه ای مسئولانه و اخلاقی استفاده می شود.


راه دیگر برای کاهش خطرات ناشی از هوش مصنوعی این است که سیستم‌های هوش مصنوعی مجهز به تجهیزات حفاظتی برای جلوگیری از استفاده از آنها برای اهداف مخرب باشند. این می تواند شامل ویژگی هایی مانند سوئیچ های کش و حصار جغرافیایی باشد.


در نهایت، ما نیاز به سرمایه گذاری در تحقیق و توسعه فناوری های جدیدی داریم که می توانند برای مقابله با سلاح های مجهز به هوش مصنوعی مورد استفاده قرار گیرند. این می تواند شامل فناوری هایی مانند جنگ الکترونیک و جنگ سایبری باشد.


استفاده از هوش مصنوعی در جنگ تهدیدی جدی برای بشریت است. ما باید اقداماتی را برای کاهش این خطرات انجام دهیم و اطمینان حاصل کنیم که این فناوری به خوبی مورد استفاده قرار می گیرد.

Comments

Popular Posts