It’s a really weird time in AI. In just six months, the public discourse around the technology has gone from “Chatbots generate funny sea shanties” to “AI systems could cause human extinction.” Who else is feeling whiplash?

My colleague Will Douglas Heaven asked AI experts why exactly people are talking about existential risk, and why now. Meredith Whittaker, president of the Signal Foundation (which is behind the private messaging app Signal) and a former Google researcher, sums it up nicely: “Ghost stories are contagious. It’s really exciting and stimulating to be afraid.”

We’ve been here before, of course: AI doom follows AI hype. But this time feels different. The Overton window has shifted in discussions around AI risks and policy. What was once an extreme view is now a mainstream talking point, grabbing not only headlines but the attention of world leaders. Read more from Will here.

Whittaker is not the only one who thinks this. While influential people in Big Tech companies such as Google and Microsoft, and AI startups like OpenAI, have gone all in on warning people about extreme AI risks and closing up their AI models from public scrutiny, Meta is going the other way.

Last week, on one of the hottest days of the year so far, I went to Meta’s Paris HQ to hear about the company’s recent AI work. As we sipped champagne on a rooftop with views to the Eiffel Tower, Meta’s chief AI scientist, Yann LeCun, a Turing Award winner, told us about his hobbies, which include building electronic wind instruments. But he was really there to talk about why he thinks the idea that a superintelligent AI system will take over the world is “preposterously ridiculous.”

People are worried about AI systems that “are going to be able to recruit all the resources in the world to transform the universe into paper clips,” LeCun said. “That’s just insane.” (He was referring to the “paper clip maximizer problem,” a thought experiment in which an AI asked to make as many paper clips as possible does so in ways that ultimately harms humans, while still fulfilling its main objective.)

He is in stark opposition to Geoffrey Hinton and Yoshua Bengio, two pioneering AI researchers (and the two other “godfathers of AI”), who shared the Turing prize with LeCun. Both have recently become outspoken about existential AI risk.

Joelle Pineau, Meta’s vice president of AI research, agrees with LeCun. She calls the conversation ”unhinged.” The extreme focus on future risks does not leave much bandwidth to talk about current AI harms, she says.

“When you start looking at ways to have a rational discussion about risk, you usually look at the probability of an outcome and you multiply it by the cost of that outcome. [The existential-risk crowd] have essentially put an infinite cost on that outcome,” says Pineau.

“When you put an infinite cost, you can’t have any rational discussions about any other outcomes. And that takes the oxygen out of the room for any other discussion, which I think is too bad.”

While talking about existential risk is a signal that tech people are aware of AI risks, tech doomers have a bigger ulterior motive, LeCun and Pineau say: influencing the laws that govern tech.

“At the moment, OpenAI is in a position where they are ahead, so the right thing to do is to slam the door behind you,” says LeCun. “Do we want a future in which AI systems are essentially transparent in their functioning or are … proprietary and owned by a small number of tech companies on the West Coast of the US?”

What was clear from my conversations with Pineau and LeCun was that Meta, which has been slower than competitors to roll out cutting-edge models and generative AI in products, is banking on its open-source approach to give it an edge in an increasingly competitive AI market. Meta is, for example, open-sourcing its first model in keeping with LeCun’s vision of how to build AI systems with human-level intelligence.

Open-sourcing technology sets a high bar, as it lets outsiders find faults and hold companies accountable, Pineau says. But it also helps Meta’s technologies become a more integral part of the infrastructure of the internet.

“When you actually share your technology, you have the ability to drive the way in which technology will then be done,” she says.




Deeper Learning


Five big takeaways from Europe’s AI Act

It’s crunch time for the AI Act. Last week, the European Parliament voted to approve its draft rules. My colleague Tate Ryan-Mosley has five takeaways from the proposal. The parliament would like the AI Act to include a total ban on real-time biometrics and predictive policing in public spaces, transparency obligations for large AI models, and a ban on the scraping of copyrighted material. It also classifies recommendation algorithms as “high risk” AI that requires stricter regulation.

What happens next? This does not mean the EU is going to adopt these policies outright. Next, members of the European Parliament will have to thrash out details with the Council of the European Union and the EU’s executive arm, the European Commission, before the draft rules become law. The final legislation will be a compromise between three different drafts from the three institutions. European lawmakers are aiming to get the AI Act in final shape by December, and the regulation should be in force by 2026.


Bits and Bytes


A fight over facial recognition will make or break the AI Act
Whether to ban the use of facial recognition software in public places will be the biggest fight in the final negotiations for the AI Act. Members of the European Parliament want a complete ban on the technology, while EU countries want the freedom to use it in policing. (Politico)

AI researchers sign a letter calling for focus on current AI harms
Another open letter! This one comes from AI researchers at the ACM conference on Fairness, Accountability, and Transparency (FAccT), calling on policymakers to use existing tools to “design, audit, or resist AI systems to protect democracy, social justice, and human rights.” Signatories include Alondra Nelson and Suresh Venkatasubramanian, who wrote the White House’s AI Bill of Rights.

The UK wants to be a global hub for AI regulation
The UK’s prime minister, Rishi Sunak, pitched his country as the global home of artificial-intelligence regulation. Sunak’s hope is that the UK could offer a “third way” between the EU’s AI Act and the US’s Wild West. Sunak is hosting a AI regulation summit in London in the fall. I’m skeptical. The UK can try, but ultimately its AI companies will be forced to comply with the EU’s AI Act if they want to do business in the influential trading bloc. (Time)

YouTube could give Google an edge in AI
Google has been tapping into the rich video repository of its video site YouTube to train its next large language model. This material could help Google train a model that can generate not only text but audio and video too. Apparently this is not lost on OpenAI, which has been secretly using YouTube data to train its AI models. (The Information)

A four-week-old AI startup raised €105 million
Talk about AI hype. Mistral, a brand-new French AI startup with no products and barely any employees, has managed to raise €105 million in Europe’s largest-ever seed round. The founders of the company previously worked at DeepMind and Meta. Two of them were behind the team that developed Meta’s open-source Llama language model. (Financial Times)


Solving the challenges of AI compilers

Power and thermal efficiency are essential for implementing AI models on smaller and smaller devices, but the challenge becomes more complex with the increasing number of devices, AI model types, application domains, and processor types. The work of the Qualcomm AI Research team covers more areas of power efficiency, from quantization and conditional compute to neural architecture search and compilation. Find out why compiler optimization techniques need to scale with AI, and how Qualcomm is enabling AI models to scale across use cases.


زمان واقعاً عجیبی در هوش مصنوعی است. در عرض تنها شش ماه، گفتمان عمومی پیرامون این فناوری از «چت ربات ها کانکس های خنده دار دریایی تولید می کنند» به «سیستم های هوش مصنوعی می توانند باعث انقراض انسان شوند» تبدیل شده است. چه کسی دیگری احساس شلاق می کند؟

همکار من ویل داگلاس هیون از کارشناسان هوش مصنوعی پرسید که چرا مردم دقیقاً از خطر وجودی صحبت می کنند و چرا اکنون؟ مردیث ویتاکر، رئیس بنیاد سیگنال (که پشت برنامه پیام‌رسان خصوصی سیگنال قرار دارد) و محقق سابق گوگل، آن را به خوبی خلاصه می‌کند: «داستان‌های ارواح مسری هستند. ترسیدن واقعاً هیجان‌انگیز و محرک است.»

البته ما قبلاً اینجا بوده‌ایم: نابودی هوش مصنوعی به دنبال تبلیغات هوش مصنوعی است. اما این بار حس متفاوتی دارد. پنجره Overton در بحث در مورد خطرات و سیاست های هوش مصنوعی تغییر کرده است. آنچه زمانی یک دیدگاه افراطی بود، اکنون به یک جریان اصلی بحث تبدیل شده است و نه تنها سرفصل ها، بلکه توجه رهبران جهان را به خود جلب می کند. اطلاعات بیشتر از ویل را اینجا بخوانید.

ویتاکر تنها کسی نیست که به این فکر می کند. در حالی که افراد با نفوذ در شرکت‌های بزرگ فناوری مانند گوگل و مایکروسافت و استارت‌آپ‌های هوش مصنوعی مانند OpenAI به مردم هشدار داده‌اند در مورد خطرات شدید هوش مصنوعی و بسته کردن مدل‌های هوش مصنوعی خود از نظارت عمومی، متا راه دیگری را در پیش گرفته است.

هفته گذشته، در یکی از گرم ترین روزهای سال تا کنون، به مقر متا پاریس رفتم تا در مورد کارهای اخیر هوش مصنوعی این شرکت با خبر شوم. در حالی که ما در پشت بامی با چشم‌انداز برج ایفل، شامپاین می‌نوشیدیم، یان لیکان، دانشمند ارشد هوش مصنوعی متا، برنده جایزه تورینگ، درباره سرگرمی‌های خود، که شامل ساخت سازهای بادی الکترونیکی است، به ما گفت. اما او واقعاً آنجا بود تا در مورد اینکه چرا فکر می‌کند این ایده که یک سیستم هوش مصنوعی فوق‌هوشمند جهان را تحت کنترل خود درخواهد آورد، "به طرز عجیبی مضحک" صحبت کند.

LeCun گفت: مردم نگران سیستم‌های هوش مصنوعی هستند که «می‌توانند تمام منابع موجود در جهان را برای تبدیل جهان به گیره‌های کاغذ به‌کار گیرند». "این فقط دیوانه کننده است." (اشاره او به «مشکل به حداکثر رساندن گیره کاغذ» بود، یک آزمایش فکری که در آن یک هوش مصنوعی از او خواسته بود تا جایی که ممکن است گیره کاغذ بسازد، این کار را به گونه‌ای انجام می‌دهد که در نهایت به انسان آسیب برساند، در حالی که همچنان هدف اصلی خود را برآورده می‌کند.)

او با جفری هینتون و یوشوا بنجیو، دو محقق پیشگام هوش مصنوعی (و دو پدرخوانده دیگر هوش مصنوعی) که جایزه تورینگ را با لیکان به اشتراک گذاشتند، مخالفت شدیدی دارد. هر دو اخیراً در مورد خطر وجودی هوش مصنوعی صحبت کرده اند.

Joelle Pineau، معاون تحقیقات هوش مصنوعی متا، با LeCun موافق است. او گفت و گو را "بی بند و بار" می نامد. او می‌گوید تمرکز شدید روی خطرات آینده، پهنای باند زیادی برای صحبت در مورد آسیب‌های فعلی هوش مصنوعی باقی نمی‌گذارد.

وقتی شروع به جستجوی راه‌هایی برای داشتن یک بحث منطقی درباره ریسک می‌کنید، معمولاً به احتمال یک نتیجه نگاه می‌کنید و آن را در هزینه آن نتیجه ضرب می‌کنید. پینو می‌گوید [جمعیت با ریسک وجودی] اساساً هزینه‌های بی‌نهایتی را روی این نتیجه گذاشته‌اند.

«وقتی هزینه‌ای بی‌نهایت می‌گذارید، نمی‌توانید هیچ بحث منطقی در مورد نتایج دیگری داشته باشید. و این اکسیژن را برای هر بحث دیگری از اتاق خارج می کند، که به نظر من خیلی بد است."

LeCun و Pineau می گویند در حالی که صحبت در مورد خطر وجودی سیگنالی است مبنی بر اینکه افراد فناوری از خطرات هوش مصنوعی آگاه هستند، اما محکومان فناوری انگیزه پنهان بزرگتری دارند: تأثیرگذاری بر قوانین حاکم بر فناوری.

LeCun می‌گوید: «در حال حاضر OpenAI در موقعیتی قرار دارد که آنها جلوتر هستند، بنابراین کار درست این است که در را پشت سر خود بکوبیم. آیا ما آینده‌ای می‌خواهیم که در آن سیستم‌های هوش مصنوعی اساساً در عملکرد خود شفاف باشند یا ... اختصاصی و متعلق به تعداد کمی از شرکت‌های فناوری در ساحل غربی ایالات متحده باشند؟»

آنچه از مکالمات من با Pineau و LeCun مشخص بود این بود که متا، که نسبت به رقبا در ارائه مدل‌های پیشرفته و هوش مصنوعی در محصولات کندتر بوده است، از رویکرد منبع باز خود استفاده می‌کند تا در رقابتی فزاینده به آن برتری دهد. بازار هوش مصنوعی به عنوان مثال، متا اولین مدل خود را منبع باز می‌سازد که مطابق با دیدگاه LeCun در مورد چگونگی ساخت سیستم‌های هوش مصنوعی با هوش در سطح انسانی است.

Pineau می‌گوید، فناوری منبع‌باز نقطه بالایی را تعیین می‌کند، زیرا به افراد خارجی اجازه می‌دهد ایرادات را پیدا کنند و شرکت‌ها را مسئول نگه دارند. اما همچنین به فناوری های متا کمک می کند تا به بخشی جدایی ناپذیر از زیرساخت اینترنت تبدیل شوند.

او می‌گوید: «وقتی واقعاً فناوری خود را به اشتراک می‌گذارید، می‌توانید راهی را که در آن فناوری انجام می‌شود، هدایت کنید.


یادگیری عمیق تر


پنج نکته مهم از قانون هوش مصنوعی اروپا

زمان سختی برای قانون هوش مصنوعی است. هفته گذشته، پارلمان اروپا به تصویب پیش نویس قوانین آن رای داد. همکار من تیت رایان-موسلی پنج نکته از این پیشنهاد دارد. پارلمان مایل است قانون هوش مصنوعی شامل ممنوعیت کامل بیومتریک بلادرنگ و پلیس پیش‌بینی در مکان‌های عمومی، تعهدات شفافیت برای مدل‌های بزرگ هوش مصنوعی، و ممنوعیت حذف مطالب دارای حق چاپ باشد. همچنین الگوریتم‌های توصیه را به عنوان هوش مصنوعی «پرخطر» طبقه‌بندی می‌کند که نیاز به مقررات سخت‌گیرانه‌تری دارد.

بعد چه اتفاقی می افتد؟ این بدان معنا نیست که اتحادیه اروپا این سیاست ها را به طور کامل اتخاذ خواهد کرد. در مرحله بعد، اعضای پارلمان اروپا تصمیم خواهند گرفت
من باید جزئیات را با شورای اتحادیه اروپا و بازوی اجرایی اتحادیه اروپا، کمیسیون اروپا، قبل از اینکه پیش نویس قوانین به قانون تبدیل شود، در میان بگذارم. قانون نهایی مصالحه ای بین سه پیش نویس مختلف از سه نهاد خواهد بود. قانونگذاران اروپایی قصد دارند قانون هوش مصنوعی را تا دسامبر به شکل نهایی درآورند و این مقررات باید تا سال 2026 اجرایی شود.


بیت ها و بایت ها


دعوا بر سر تشخیص چهره قانون هوش مصنوعی را ایجاد یا شکسته خواهد کرد
ممنوعیت استفاده از نرم‌افزار تشخیص چهره در مکان‌های عمومی بزرگترین مبارزه در مذاکرات نهایی برای قانون هوش مصنوعی خواهد بود. اعضای پارلمان اروپا خواستار ممنوعیت کامل این فناوری هستند، در حالی که کشورهای اتحادیه اروپا خواهان آزادی استفاده از آن در پلیس هستند. (پولیتیکو)

محققان هوش مصنوعی نامه ای را امضا می کنند که در آن خواستار تمرکز بر آسیب های فعلی هوش مصنوعی هستند
یک نامه سرگشاده دیگر! این یکی از محققان هوش مصنوعی در کنفرانس ACM در مورد انصاف، پاسخگویی و شفافیت (FAccT) است که از سیاستگذاران می‌خواهد از ابزارهای موجود برای «طراحی، حسابرسی یا مقاومت در برابر سیستم‌های هوش مصنوعی برای محافظت از دموکراسی، عدالت اجتماعی و حقوق بشر» استفاده کنند. امضاکنندگان عبارتند از آلوندرا نلسون و سورش ونکاتاسوبرامانیان که منشور حقوق هوش مصنوعی کاخ سفید را نوشت.

بریتانیا می خواهد یک مرکز جهانی برای مقررات هوش مصنوعی باشد
ریشی سوناک، نخست وزیر بریتانیا، کشورش را به عنوان خانه جهانی مقررات هوش مصنوعی معرفی کرد. امید سوناک این است که بریتانیا بتواند "راه سوم" را بین قانون هوش مصنوعی اتحادیه اروپا و غرب وحشی ایالات متحده ارائه دهد. Sunak میزبان اجلاس مقررات هوش مصنوعی در لندن در پاییز است. من شک دارم بریتانیا می تواند تلاش کند، اما در نهایت شرکت های هوش مصنوعی آن اگر بخواهند در بلوک تجاری تاثیرگذار تجارت کنند، مجبور خواهند شد از قانون هوش مصنوعی اتحادیه اروپا پیروی کنند. (زمان)

یوتیوب می تواند به گوگل در هوش مصنوعی برتری دهد
گوگل از مخزن ویدیوی غنی سایت ویدیویی خود یوتیوب استفاده می کند تا مدل بعدی زبان بزرگ خود را آموزش دهد. این مطالب می تواند به گوگل کمک کند تا مدلی را تربیت کند که نه تنها متن بلکه صدا و تصویر را نیز تولید کند. ظاهراً این موضوع در OpenAI که مخفیانه از داده‌های YouTube برای آموزش مدل‌های هوش مصنوعی خود استفاده می‌کند، گم نشده است. (اطلاعات)

یک استارت آپ چهار هفته ای هوش مصنوعی 105 میلیون یورو جمع آوری کرد
در مورد تبلیغات هوش مصنوعی صحبت کنید. میسترال، یک استارت‌آپ جدید هوش مصنوعی فرانسوی بدون محصول و تقریباً هیچ کارمندی، توانسته است ۱۰۵ میلیون یورو در بزرگترین دور اولیه اروپا جمع‌آوری کند. بنیانگذاران این شرکت قبلا در DeepMind و Meta کار می کردند. دو نفر از آنها پشت تیمی بودند که مدل زبان متن باز Meta را توسعه دادند. (فایننشال تایمز)


حل چالش های کامپایلرهای هوش مصنوعی


قدرت و راندمان حرارتی برای پیاده‌سازی مدل‌های هوش مصنوعی در دستگاه‌های کوچک‌تر و کوچک‌تر ضروری هستند، اما با افزایش تعداد دستگاه‌ها، انواع مدل‌های هوش مصنوعی، حوزه‌های کاربردی و انواع پردازنده‌ها، چالش پیچیده‌تر می‌شود. کار تیم تحقیقاتی Qualcomm AI حوزه‌های بیشتری از بهره‌وری انرژی، از کوانتیزاسیون و محاسبه شرطی گرفته تا جستجو و گردآوری معماری عصبی را پوشش می‌دهد. دریابید که چرا تکنیک‌های بهینه‌سازی کامپایلر باید با هوش مصنوعی مقیاس شوند و چگونه کوالکام مدل‌های هوش مصنوعی را قادر می‌سازد تا در موارد استفاده مقیاس شوند.

Comments

Popular Posts