Artificialintelligence


There is no doubt that the latest advances in artificial intelligence are more impressive than what came before, but are we in just another bubble ofAI hype? JeremyHsu reports


What actually is artificial intelligence? The term artificial intelligence was coined in1956by computer scientistJohnMcCarthy. The context was a workshop at Dartmouth College inNew Hampshire that attempted to “find how to make machines use language,form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves”. The field has evolved since then, but AI is essentially still about creating machines that can do what we can,and more. 

THIS moment for artificial intelligence is unlike any that has come before. Powerful languagebasedAIshave lurched forward and cannot produce reams of plausible prose that often can’t be distinguished from text written by humans. They can answer tricky technical questions, such as those posed to lawyers and computer programmers. They can even help better trainotherAIs. However,they have also raised serious concerns. Prominent AI researchers and tech industry leaders have called for research labs to pause the largest ongoing experiments inAIfor at least six months in order to allow time for the development and implementation of safety guidelines.Italy’s regulators have gone further,temporarily banning a leadingAI chatbot. At The centre of it all are large language models and other types of generativeA that can create text and images in response to human prompts. Start-ups backed by the world's most powerful tech firms have been accelerating the deployment of these generative

AIs since 2022 – giving millions of people access to convincing but often inaccurate chatbots, while flooding the internet with AI-generated writing and imagery in ways that could reshape society. AI research has long been accompanied by hype.But those working on pushing the boundaries of what's possible and those calling for restraint all seem to agree on one thing: generative AIs could have much broader societal impacts thanthAI that came before. Boom and bust The story ofAIis one of repeating cycles involving surges of interest and funding followed by lulls after people’s great expectations fall short.In The 1950s,there was a huge amount of enthusiasm around creating machines that would display human-level intelligence (see “What actually is artificial intelligence?”, below left).Butthatlofty goal didn’t materialize because computer hardware and software quickly ran into technical limitations. The result was so-calledAIwinters winters in the 1970s and in the late 1980s, when research funding and corporate interest evaporated. The past decade has represented something of anAI summer both for researchers looking to improve learning capabilities and companies seeking to deploy AIs. Thanks to a combination of massive improvements in computer power and the availability of data, an approach that uses Is loosely inspired by the brain(see “What Is a Neural network?”, above right)hashad a lot of success. Voice and face-recognition capabilities in ordinary smartphones use such neural networks, as do computationally intensiveAIs that have beaten the world's best players at the ancient board game Go and solved previously intractable scientific challenges, such as predicting the structure of nearly all proteins known to science. Research Developments in the field have typically unfolded over years,with Itools being applied to specialised tasks or rolled invisibly into existing commercial products and services, such as internet search engines. But over the past few months, generativeAIs,whichalsouse neural networks,have become the focus of tech industry efforts to rushAIs out of corporate labs and into the hands of the public. The results have been messy, sometimes impressive and often


unpredictable, as individuals and organisations experiment with these models. “I Truly didn't expect the explosion of generative models that we are seeing now,” says Timnit Gebru,founder of the DistributedAIResearchInstitute in California. “Ihavenever seen such a proliferation of products so fast.” The spark that lit the explosion came fromOpenAI, a San Francisco-based company,when it launched a public prototype outfit's AI-powered chatbotChatGPT on 30 November 2022 and attracted 1 million users in injustice days. Microsoft, a multibillion-dollar investor in OpenAI,followed up inFebruary by making a chatbot powered by the same technology

behindChatGPT available through itsBing search engine – an obvious attempt to challenge Google’s long domination of the search engine market. That spurred Google to respond inMarchby debuting its own AI chatbot,Bard. Google Has also invested $300million in Anthropic, anAI start-up founded by former OpenAI employees, which made itsClaude chatbot available to a limited number of people and commercial partners, starting inMarch.MajorChinese tech firms, suchasBaiduand Alibaba,have likewise joined the race to incorporateAI chatbots into their search engines and other services. These generativeAIs are already affecting fields such as education, with some schools have banned ChatGPT because it can generate entire essays that often appear indistinguishable from student writing. Software developers have shownthatChatGPT can find and fix bugs in programming code as well as write certain programs from scratch.Real estate agents haveusedChatGPT to generate new sale listings and social media posts, and law firms have embracedAI chatbots to draft legal contracts. US government

research labs are eventesting howOpenAI’s technology could speedily sift through published studies to help guide new scientific experiments (see “Why isChatGPT so good?”, page 14). An Estimated 300 million full-time jobs may face at least partial automation from generativeAIs, according to a report by analysts at investment bank GoldmanSachs.But, as they write,this depends on whether “generativeAI delivers on its promised capabilities'' – a familiar caveat that has come up before inAI boom-and-bust cycles. What Is clear is that the very real risks of generativeAIs are also manifesting at a dizzying pace. ChatGPT and other chatbots often present factual errors, referencing completely made-up events or articles,including,in one case, an invented sexualharassment scandal thatfalsely accused a real person.ChatGPTusagehas also led to data privacy scandals involving the leak of confidential company data, alongwith ChatGPTusers being able to see other people’s chat histories and personal payment information. Artists and photographers have raised additional concerns about AI-generated artwork threatening their professional livelihoods, all while some companies train generativeAIs on work of  those artists and photographers without compensating them. AI-generated imagery can also lead to mass misinformation, as demonstrated by fakeAI-created pictures of US president Donald Trump being arrested and Pope Francis Wearing a stylish white puffer jacket, both of which went viral. Plenty of people were fooled, believing they were real. Many of these potential hazards were anticipated by Gebruwhen she and her colleagues wrote about the risks of large language models in a seminal paper in2020, back whenshewas co-leader of Google’s ethicalAIteam. Gebrudescribed being forced out of Google after the company’s leadership asked her to retract the paper, although Google describedher departure as a resignation not a firing. “[The current situation]feels like yet another hype cycle, but the difference is that now there are actual products out there causing harm,” says Gebru. Making generative AIs Generative technology builds on decade's worth of research that has made Is significantly better at recognising images, classifying articles according to topic and converting spoken words to written ones, says Arvind Narayananat Princeton University.By flipping that process around,they can create synthetic image when given a description, generate papers about a given topic or produce audio versions of written text. “GenerativeAI genuinely makes many new things possible,” says Narayanan.Although This technology can be hard to evaluate,he says. Large language models are feats of engineering,using huge amounts of computing power in data centres operated by firms like Microsoft and Google. They Need massive amounts of training data that companies often scrape from public information repositories on the internet, suchasWikipedia. The technology also relies upon large numbers of human workers to provide feedback to steer the AIs in the right direction during the training process. Butthe powerfulAIs released by large technology companies tend to be closed systems that restrict access for the public or outside developers.Closed systems can help control for the potential risks and harms of letting anyone download and use theAIs, but they also concentrate power in the  hands of the organisations that developed them without allowing any input from many people whose lives theAIs could affect. “The Most pressing concern in closedness trends is how few models will be available outside a handful of developer organisations,” says Irene Solaiman, anAI safety and policy researcher atHugging Face, a company that develops tools for sharingAI code and data sets. Such Trends can be seen in howOpenAIhasmoved towards a proprietary and closed stance on its technology, despite starting as a non-profit organisation dedicated to open development ofAI.When OpenAI upgraded Chat PT's underlying technology to GPT-4,the company cited “the competitive landscape and safety implications of large-scale models like GPT-4” as the reason for not disclosing how this modelworks. This type of stance makes it hard for outsiders to assess the capabilities and limitations of generativeAIs, potentially fuelling hype. “Technology bubbles create a lot of emotional energy – both excitement and fear – but they are bad information environments,” says LeeVinsel, a historian of technology atVirginia Tech. Many techbubbles involve both hyper and what insel describes as “criti-hype” – criticism that  amplifies technology hype by taking the most sensational claims of companies at face value and flipping them to talk about the hypothetical risks. This can be seen in response toChatGPT. OpenAI’smission statement says the firm is dedicated to spreading the benefits of artificial general intelligence –AIs that can outperform humans at every intellectualtask.ChatGPT is very far from that goal but, on 22 March,AI researchers such as YoshuaBengio and tech industry figures such as ElonMusk signed open letter asking research labs to pause giantAI experiments, while referring toAIs as “nonhuman minds that might eventually outnumber, outsmart, obsolete and replaced”. Experts interviewed by New Scientist warned that both hyper and criti-hype can distract from the urgent task of managing actual risks fromgenerativeAIs. For instance, GPT-4 can automate many tasks, create misinformation on a massive scale, lock in the dominance of a few tech companies and break democracies, says Daron Acemoglu, an economist at theMassachusetts Institute of Technology. “It can do those things without coming close to artificial general intelligence.” Acemoglu Says this moment is a “critical juncture” for government regulators to ensure that such technologies help workers and empower citizens and for “reining in the tech barons who are controlling this technology”. European Union Law-makers are finalizing anArtificialIntelligence Acts That Would create the world's first broad standards for regulating this technology. The legislation aims to ban or regulate higher-risk AIs,with ongoing debate about includingChatGPT and similar generativeAIswithgeneral purpose uses under the “high risk” category.Meanwhile, regulators inItalyhave temporarily banned ChatGPT over concerns that it could violate existing data privacy laws. TheAI NowInstitute in New York and otherAI ethics experts such as Gebruhave proposed placing the burden of responsibility on big tech companies,forcing them to demonstrate that there aren’t causing harm,instead of requiring regulators to identify and deal with any harm after the fact. “Industry players have been some of the first to say i need regulation,” says SarahMyers West,managing director at the AI NowInstitute. “But wish that the question was counterposed to them, like, ‘How Are you sure that what you’re doing is legal in the first place?’” Next generation Muchofwhathappensnextin the generativeAI boom depends on how the technologies involved are used and regulated. “Ithink themostimportantnews from history is that we, as a society,have many more choices about how to develop and roll out technologies than what tech visionaries are telling us,” saysAcemoglu. SamAltman, OpenAI’sCEO,has said thatChatGPT can’t replace traditional searchengines right now.Butina Forbes interview, he suggested that anAI could someday change how people get information online in away that is “totally different and way cooler”. Altmanhas also contemplated muchmore extreme future scenarios involving powerful AIs that generally outperform humans, describing a “best case” ofAIs being able to “improve all aspects of reality and let us all live our best lives”,while also warning that the “bad case” could mean “lights out for all of us".Buthe described currentAI development as still being far from artificial general intelligence. Lastmonth, Gebruandher colleagues published a statement warning that “itis dangerous to distract ourselves with fantasizedAI-enabled utopia or apocalypse which promises either a ‘flourishing’ or ‘potentially catastrophic future”. “The current race towards ever larger ‘AI experiments is not a preordained path where our only choice is how fast to run, but rather a set of decisions driven by the profit motive,” they wrote. “The actions and choices of corporations must be shaped by legislation which protects the rights and interests of people.” If The frothy bubble of business expectations around generativeAI builds to unsustainable levels and eventually bursts,that could also dampen future development in general, says Sasha Luccioni, anAI research scientist atHugging Face.However,the boom in generativeAIneedn’tinevitably lead to another winter. One reason is that,unlike in previous cycles,many organisations continue to pursue other avenues of artificial intelligence research instead of putting all their eggs in the generativeAI basket. Opening up AI Organisations suchasHugging Face are advocating for a culture of openness inAI research and development that can help prevent both hyper and actual societal impacts from spiraling out of control. Luccioniisworking with the organisers of NeurONS – one of the largestAI research gatherings – to establish a conference code of ethics where researchers must disclose their training data, allow access to their models and show their work instead of hiding it as proprietary technology. AI researchers should clearly explain why models can and can’t do, draw a distinction between product development and more scientific research, and work closely with the communities most affected byAIto learn about the features and safeguards that are relevant to them, says Nima Boscarino, an ethics engineer at Hugging Face.Boscarino also highlights the need to adopt practices such as evaluating how anAI performs with people of different identities. Work ongenerativeAI carried out this way could ensure a more stable and sustainable form of beneficial technological development well into the future. “These are exciting times in theAI ethics space and Ihope that the broader machine-learning sector learns to take the opposite approach of what OpenAIhas been doing,” saysBoscarino.



هوش مصنوعی


شکی نیست که آخرین پیشرفت‌ها در هوش مصنوعی چشمگیرتر از آنچه قبلاً بود، هستند، اما آیا ما فقط در یک حباب دیگر از تبلیغات هوش مصنوعی هستیم؟ JeremyHsu گزارش می دهد

در واقع هوش مصنوعی چیست؟ اصطلاح هوش مصنوعی در سال 1956 توسط دانشمند کامپیوتر جان مک کارتی ابداع شد. این زمینه یک کارگاه آموزشی در کالج دارتموث در نیوهمپشایر بود که تلاش می‌کرد «چگونه ماشین‌ها را وادار به استفاده از زبان، شکل‌دهی انتزاعات و مفاهیم، حل انواع مشکلاتی که اکنون برای انسان‌ها محفوظ است، بیابد و خود را بهبود بخشد». این زمینه از آن زمان به بعد تکامل یافته است، اما هوش مصنوعی اساساً هنوز در مورد ایجاد ماشین‌هایی است که می‌توانند آنچه را که ما می‌توانیم و بیشتر انجام دهند.

این لحظه برای هوش مصنوعی شبیه لحظه های قبلی نیست. زبان قدرتمندی که مبتنی بر زبان است به جلو حرکت کرده است و نمی تواند مجموعه ای از نثر قابل قبول را تولید کند که اغلب نمی تواند از متن نوشته شده توسط انسان متمایز شود. آنها می توانند به سؤالات فنی پیچیده، مانند سؤالاتی که برای وکلا و برنامه نویسان رایانه می شود، پاسخ دهند. آنها حتی می توانند به آموزش بهتر سایر AI کمک کنند. با این حال، آنها همچنین نگرانی های جدی را مطرح کرده اند. محققان برجسته هوش مصنوعی و رهبران صنعت فناوری از آزمایشگاه‌های تحقیقاتی خواسته‌اند تا بزرگترین آزمایش‌های در حال انجام در هوش مصنوعی را حداقل به مدت شش ماه متوقف کنند تا زمان برای توسعه و اجرای دستورالعمل‌های ایمنی در نظر گرفته شود. تنظیم‌کننده‌های ایتالیا پا را فراتر گذاشته و به طور موقت یک ربات چت هوش مصنوعی را ممنوع کرده‌اند. در مرکز همه مدل‌های زبان بزرگ و انواع دیگری از GenerativeA قرار دارند که می‌توانند متن و تصاویر را در پاسخ به درخواست‌های انسان ایجاد کنند. استارت‌آپ‌هایی که توسط قدرتمندترین شرکت‌های فناوری جهان پشتیبانی می‌شوند، استقرار این فناوری‌های مولد را تسریع کرده‌اند.

هوش مصنوعی از سال 2022 - به میلیون‌ها نفر دسترسی به چت‌بات‌های متقاعدکننده اما اغلب نادرست می‌دهد، در حالی که اینترنت را با نوشته‌ها و تصاویر تولید شده توسط هوش مصنوعی پر می‌کند به روش‌هایی که می‌تواند جامعه را تغییر دهد. تحقیقات هوش مصنوعی مدت‌هاست که با هیاهو همراه بوده است. اما به نظر می‌رسد کسانی که بر روی پیش بردن مرزهای ممکن کار می‌کنند و کسانی که خواستار خویشتنداری هستند همگی در یک چیز توافق دارند: هوش مصنوعی‌های مولد می‌توانند تأثیرات اجتماعی بسیار گسترده‌تری نسبت به هوش مصنوعی قبلی داشته باشند. شکوفایی و رکود داستان هوش مصنوعی یکی از چرخه‌های تکراری است که شامل افزایش علاقه و سرمایه‌گذاری است که پس از ناکام ماندن انتظارات بزرگ مردم با آرامش همراه است. در دهه 1950، شور و شوق زیادی در مورد ایجاد ماشین‌هایی وجود داشت که هوش در سطح انسانی را نشان می‌داد (نگاه کنید به " در واقع هوش مصنوعی چیست؟»، در پایین سمت چپ. اما هدف متعالی محقق نشد زیرا سخت افزار و نرم افزار رایانه به سرعت با محدودیت های فنی مواجه شدند. نتیجه به اصطلاح زمستان‌های زمستانی در دهه 1970 و در اواخر دهه 1980 بود، زمانی که بودجه تحقیقاتی و علاقه شرکت‌ها از بین رفت. دهه گذشته هم برای محققانی که به دنبال بهبود قابلیت‌های یادگیری هستند و هم برای شرکت‌هایی که به‌دنبال استقرار هوش مصنوعی هستند، چیزی شبیه تابستان یک هوش مصنوعی بود. به لطف ترکیبی از پیشرفت‌های عظیم در قدرت رایانه و در دسترس بودن داده‌ها، رویکردی که از مغز الهام گرفته شده است (نگاه کنید به «شبکه عصبی چیست؟» در بالا سمت راست) موفقیت‌های زیادی کسب کرده است. قابلیت‌های تشخیص صدا و تشخیص چهره در تلفن‌های هوشمند معمولی از چنین شبکه‌های عصبی استفاده می‌کنند، مانند AIهای محاسباتی فشرده که بهترین بازیکنان جهان را در بازی تخته‌ای باستانی Go شکست داده و چالش‌های علمی پیش از این دشوار را حل کرده‌اند، مانند پیش‌بینی ساختار تقریباً تمام پروتئین‌های شناخته شده برای علم. . پیشرفت‌های تحقیقاتی در این زمینه معمولاً در طول سال‌ها آشکار شده‌اند، با استفاده از Itols برای کارهای تخصصی یا به‌طور نامرئی در محصولات و خدمات تجاری موجود، مانند موتورهای جستجوی اینترنتی. اما در چند ماه گذشته، هوش مصنوعی‌های مولد، که از شبکه‌های عصبی نیز استفاده می‌کنند، به کانون تلاش‌های صنعت فناوری برای خروج هوش مصنوعی‌ها از آزمایشگاه‌های شرکت‌ها و به دست‌های عموم تبدیل شده‌اند. نتایج کثیف، گاهی چشمگیر و اغلب بوده است

غیر قابل پیش بینی است، زیرا افراد و سازمان ها با این مدل ها آزمایش می کنند. تیمنیت گبرو، بنیانگذار DistributedAIResearchInstitute در کالیفرنیا، می‌گوید: «واقعاً انتظار انفجار مدل‌های مولد را که اکنون شاهد آن هستیم، نداشتم. من تا به حال شاهد چنین تکثیر محصولات به این سرعت نبودم. جرقه ای که انفجار را روشن کرد، از OpenAI، یک شرکت مستقر در سانفرانسیسکو، زمانی که یک نمونه اولیه از یک لباس عمومی را در 30 نوامبر 2022 راه اندازی کرد، ربات چت با هوش مصنوعی را راه اندازی کرد و 1 میلیون کاربر را در روزهای بی عدالتی جذب کرد. مایکروسافت، یک سرمایه‌گذار چند میلیارد دلاری در OpenAI، در ماه فوریه با ساخت یک ربات چت با همان فناوری، موضوع را پیگیری کرد.

پشت ChatGPT از طریق موتور جستجوی بینگ خود در دسترس است - تلاشی آشکار برای به چالش کشیدن سلطه طولانی مدت گوگل بر بازار موتورهای جستجو. این امر باعث شد تا گوگل در ماه مارس با معرفی ربات چت هوش مصنوعی خود، Bard، پاسخ دهد. گوگل همچنین 300 میلیون دلار در Anthropic، یک استارت‌آپ هوش مصنوعی که توسط کارمندان سابق OpenAI تأسیس شده بود، سرمایه‌گذاری کرده است، که ربات چت کلود خود را از ماه مارس در دسترس تعداد محدودی از افراد و شرکای تجاری قرار داد. شرکت‌های فناوری بزرگ چین، مانند Baiduand Alib

ba، به همین ترتیب به رقابت برای ترکیب چت ربات های هوش مصنوعی در موتورهای جستجو و سایر خدمات خود پیوسته اند. این هوش مصنوعی‌های مولد در حال حاضر حوزه‌هایی مانند آموزش را تحت تأثیر قرار داده‌اند، به طوری که برخی از مدارس ChatGPT را ممنوع کرده‌اند، زیرا می‌تواند مقاله‌های کاملی تولید کند که اغلب غیرقابل تشخیص از نوشته‌های دانش‌آموز به نظر می‌رسد. توسعه‌دهندگان نرم‌افزار نشان داده‌اند کهChatGPT می‌تواند اشکالات کد برنامه‌نویسی را پیدا و رفع کند و همچنین برنامه‌های خاصی را از ابتدا بنویسد. آژانس‌های املاک و مستغلات از ChatGPT برای تولید فهرست‌های فروش جدید و پست‌های رسانه‌های اجتماعی استفاده می‌کنند، و شرکت‌های حقوقی از چت‌ربات‌های AI برای پیش‌نویس قراردادهای قانونی استفاده کرده‌اند. دولت ایالات متحده

آزمایشگاه‌های تحقیقاتی در حال بررسی این موضوع هستند که چگونه فناوری OpenAI می‌تواند به سرعت مطالعات منتشر شده را برای کمک به هدایت آزمایش‌های علمی جدید بررسی کند (به «چرا ChatGPT اینقدر خوب است؟»، صفحه 14 مراجعه کنید). بر اساس گزارشی که توسط تحلیلگران بانک سرمایه گذاری GoldmanSachs انجام شد، حدود 300 میلیون شغل تمام وقت ممکن است حداقل با اتوماسیون نسبی از هوش مصنوعی های مولد مواجه شوند. اما همانطور که آنها می نویسند، این بستگی به این دارد که "AI GenerativeAI به قابلیت های وعده داده شده خود عمل کند" یا خیر. هشداری که قبل از چرخه های رونق و رکود هوش مصنوعی مطرح شده است. آنچه واضح است این است که خطرات واقعی AIهای مولد نیز با سرعتی سرگیجه‌آور آشکار می‌شوند. ChatGPT و سایر ربات‌های چت اغلب اشتباهات واقعی را ارائه می‌دهند، به رویدادها یا مقالات کاملاً ساختگی اشاره می‌کنند، از جمله، در یک مورد، یک رسوایی آزار جنسی اختراعی که به دروغ یک شخص واقعی را متهم می‌کند. کاربران ChatGPT می توانند تاریخچه چت دیگران و اطلاعات پرداخت شخصی را ببینند. هنرمندان و عکاسان نگرانی‌های بیشتری را در مورد آثار هنری تولید شده توسط هوش مصنوعی که معیشت حرفه‌ای آنها را تهدید می‌کند، مطرح کرده‌اند، در حالی که برخی از شرکت‌ها هوش مصنوعی‌های مولد را بر روی آثار این هنرمندان و عکاسان آموزش می‌دهند بدون اینکه به آنها خسارتی پرداخت کنند. تصاویر تولید شده توسط هوش مصنوعی همچنین می تواند منجر به اطلاعات نادرست انبوه شود، همانطور که با تصاویر جعلی ساخته شده توسط هوش مصنوعی از دستگیری دونالد ترامپ، رئیس جمهور ایالات متحده و پاپ فرانسیس با پوشیدن یک ژاکت پف دار سفید شیک که هر دو در فضای مجازی منتشر شدند، نشان داد. بسیاری از مردم فریب خوردند و معتقد بودند که واقعی هستند. بسیاری از این خطرات احتمالی توسط گبرو پیش‌بینی شده بود، زمانی که او و همکارانش در مقاله‌ای در سال 2020 درباره خطرات مدل‌های زبانی بزرگ نوشتند، زمانی که او یکی از رهبران گروه اخلاقی Google بود. گبرود پس از اینکه رهبری شرکت از او خواست که مقاله را پس بگیرد، مجبور شد از گوگل خارج شود، اگرچه گوگل خروج او را به عنوان استعفا و نه اخراج توصیف کرد. گبرو می‌گوید: «[وضعیت فعلی] مانند یک چرخه تبلیغاتی دیگر به نظر می‌رسد، اما تفاوت این است که اکنون محصولات واقعی وجود دارند که باعث آسیب می‌شوند. دانشگاه آرویند نارایانات پرینستون می‌گوید: «دانشگاه آرویند نارایانات پرینستون» می‌گوید: «دانشگاه آرویند نارایانا نت پرینستون» می‌گوید فناوری مولد مبتنی بر ارزش تحقیقات دهه‌ای است که باعث شده است در تشخیص تصاویر، طبقه‌بندی مقالات بر اساس موضوع و تبدیل کلمات گفتاری به نوشتار بسیار بهتر باشد. تصویر زمانی که توضیح داده می شود، مقالاتی در مورد یک موضوع خاص تولید کنید یا نسخه های صوتی متن نوشته شده را تولید کنید. نارایانان می‌گوید: «GenerativeAI واقعاً چیزهای جدیدی را ممکن می‌سازد.» او می‌گوید اگرچه ارزیابی این فناوری دشوار است. مدل‌های زبان بزرگ، شاهکارهای مهندسی، استفاده از مقادیر عظیمی از قدرت محاسباتی در مراکز داده‌ای هستند که توسط شرکت‌هایی مانند مایکروسافت و گوگل اداره می‌شوند. آنها به حجم عظیمی از داده های آموزشی نیاز دارند که شرکت ها اغلب از مخازن اطلاعات عمومی در اینترنت، مانند ویکی پدیا، پاک می کنند. این فناوری همچنین به تعداد زیادی نیروی انسانی برای ارائه بازخورد برای هدایت AI در مسیر درست در طول فرآیند آموزش متکی است. اما هوش مصنوعی‌های قدرتمندی که توسط شرکت‌های فناوری بزرگ منتشر می‌شوند، معمولاً سیستم‌های بسته‌ای هستند که دسترسی عموم یا توسعه‌دهندگان خارجی را محدود می‌کنند. سیستم‌های بسته می‌توانند به کنترل خطرات و مضرات احتمالی اجازه دانلود و استفاده هر کسی از هوش مصنوعی کمک کنند، اما آنها همچنین قدرت را در دستان خود متمرکز می‌کنند. سازمان‌هایی که آنها را بدون اجازه دادن به ورودی بسیاری از افرادی که هوش مصنوعی می‌تواند بر زندگی‌شان تأثیر بگذارد، توسعه داده‌اند. Irene Solaiman، محقق ایمنی و سیاست گذاری هوش مصنوعی در Hugging Face، شرکتی که ابزارهایی را برای به اشتراک گذاری کد و مجموعه داده های AI توسعه می دهد، می گوید: «مهم ترین نگرانی در روند بسته بودن این است که چگونه مدل های کمی خارج از تعداد انگشت شماری از سازمان های توسعه دهنده در دسترس خواهند بود. چنین روندهایی را می توان در نحوه حرکت OpenAI به سمت یک موضع اختصاصی و بسته در مورد فناوری خود مشاهده کرد، علیرغم اینکه به عنوان یک سازمان غیر انتفاعی اختصاص داده شده به توسعه باز هوش مصنوعی. و پیامدهای ایمنی مدل‌های مقیاس بزرگ مانند GPT-4” دلیل عدم افشای نحوه عملکرد این مدل است. این نوع موضع‌گیری، ارزیابی قابلیت‌ها و محدودیت‌های هوش مصنوعی‌های مولد را برای خارجی‌ها سخت می‌کند، که به طور بالقوه باعث افزایش تبلیغات می‌شود. حباب های فناوری انرژی احساسی زیادی ایجاد میکنند - هم هیجان و هم اف

LeeVinsel، مورخ فناوری در Virginia Tech می گوید: گوش – اما آنها محیط های اطلاعاتی بدی هستند. بسیاری از حباب‌های فناوری هم شامل Hyper و هم چیزی هستند که اینسل آن را به عنوان «هیجان انتقادی» توصیف می‌کند - انتقادی که با در نظر گرفتن هیجان‌انگیزترین ادعاهای شرکت‌ها و تغییر آنها برای صحبت در مورد خطرات فرضی، هیاهوی فناوری را تقویت می‌کند. این را می توان در پاسخ بهChatGPT مشاهده کرد. بیانیه ماموریت OpenAI می گوید که این شرکت به گسترش مزایای هوش عمومی مصنوعی اختصاص دارد - AIهایی که میتوانند در هر کار فکری از انسان ها بهتر عمل کنند. ChatGPT با این هدف بسیار فاصله دارد اما در 22 مارس، محققان AI مانند YoshuaBengio و چهره های صنعت فناوری مانند همانطور که الون ماسک نامه سرگشاده ای را امضا کرد که از آزمایشگاه های تحقیقاتی خواسته بود آزمایش های هوش مصنوعی غول پیکر را متوقف کنند، در حالی که هوش مصنوعی را به عنوان "ذهن غیر انسانی که ممکن است در نهایت تعدادشان پیشی بگیرد، هوشمندانه، منسوخ شده و جایگزین شوند" یاد می کند. کارشناسانی که با New Scientist مصاحبه کردند، هشدار دادند که هم هایپر و هم هایپ انتقادی می توانند تمرکز را از وظیفه فوری مدیریت ریسک های واقعی از هوش مصنوعی های مولد منحرف کنند. دارون آسم اوغلو، اقتصاددان مؤسسه فناوری ماساچوست، می‌گوید برای مثال، GPT-4 می‌تواند بسیاری از وظایف را خودکار کند، اطلاعات نادرست را در مقیاس وسیع ایجاد کند، سلطه چند شرکت فناوری را قفل کند و دموکراسی‌ها را بشکند. می‌تواند این کارها را بدون نزدیک شدن به هوش مصنوعی انجام دهد.» Acemoglu می‌گوید که این لحظه برای تنظیم‌کننده‌های دولتی یک «محل بحرانی» است تا اطمینان حاصل کنند که چنین فناوری‌هایی به کارگران کمک می‌کنند و شهروندان را توانمند می‌کنند و برای «کنترل بارون‌های فناوری که این فناوری را کنترل می‌کنند». قانونگذاران اتحادیه اروپا در حال نهایی کردن قوانین هوش مصنوعی هستند که اولین استانداردهای گسترده جهان را برای تنظیم این فناوری ایجاد کند. هدف این قانون ممنوع کردن یا تنظیم های پرخطر، با بحث‌های مداوم در مورد گنجاندن ChatGPT و مصارف تولیدی مشابه با اهداف عمومی در دسته «خطر بالا» است. در همین حال، تنظیم‌کننده‌ها در ایتالیا ChatGPT را به دلیل نگرانی از نقض قوانین حریم خصوصی داده‌های موجود به طور موقت ممنوع کرده‌اند. موسسه TheAI Now در نیویورک و دیگر کارشناسان اخلاق هوش مصنوعی مانند Gebruhave پیشنهاد کردند که بار مسئولیت را بر دوش شرکت‌های بزرگ فناوری گذاشته شود و آنها را مجبور کنیم که نشان دهند هیچ آسیبی وجود ندارد، به‌جای اینکه قانون‌گذاران را ملزم به شناسایی و رسیدگی به هر آسیبی پس از واقعیت کنند. سارا مایرز وست، مدیر عامل موسسه AI NowInstitute می گوید: «بازیگران صنعت از اولین کسانی بودند که گفتند من به مقررات نیاز دارم. "اما ای کاش این سوال در مقابل آنها قرار می گرفت، مانند "از کجا مطمئن هستید که کاری که انجام می دهید در وهله اول قانونی است؟" نسل بعدی MuchofWhatthappensNext در رونق تولید هوش مصنوعی به نحوه استفاده و تنظیم فناوری های درگیر بستگی دارد. عجم اوغلو می‌گوید: «فکر می‌کنم مهم‌ترین اخبار تاریخ این است که ما به‌عنوان یک جامعه، انتخاب‌های بسیار بیشتری در مورد چگونگی توسعه و گسترش فناوری‌ها نسبت به آنچه که روی‌آوران فناوری به ما می‌گویند، داریم». SamAltman، مدیر عامل OpenAI، گفته است که ChatGPT در حال حاضر نمی‌تواند جایگزین موتورهای جستجوی سنتی شود. او در مصاحبه با بوتینا فوربس، پیشنهاد کرد که یک هوش مصنوعی روزی می‌تواند نحوه دریافت اطلاعات آنلاین را تغییر دهد که «کاملاً متفاوت و جالب‌تر» است. آلتمان همچنین سناریوهای بسیار شدیدتری در آینده را در نظر گرفت که شامل هوش مصنوعی قدرتمندی است که عموماً عملکرد بهتری از انسان‌ها دارند، و بهترین حالت هوش مصنوعی را توصیف می‌کند که می‌تواند «همه جنبه‌های واقعیت را بهبود بخشد و به همه ما اجازه دهد بهترین زندگی‌مان را داشته باشیم»، در عین حال هشدار داد که «مورد بد» می تواند به معنای "چراغ خاموش برای همه ما" باشد. اما توسعه هوش مصنوعی کنونی را همچنان با هوش مصنوعی عمومی بسیار دور توصیف کرد. ماه گذشته، همکاران Gebruandher بیانیه ای منتشر کردند و هشدار دادند که "پرت کردن حواس خودمان با آرمانشهر یا آخرالزمان فعال با هوش مصنوعی خطرناک است که نوید یک «شکوفایی» یا «آینده بالقوه فاجعه‌آمیز» آنها نوشتند: «مسابقه فعلی به سوی آزمایش‌های هوش مصنوعی یک مسیر از پیش تعیین‌شده نیست که تنها انتخاب ما سرعت اجرای آن است، بلکه مجموعه‌ای از تصمیمات است که با انگیزه سود انجام می‌شود.» «اقدامات و انتخاب‌های شرکت‌ها باید توسط قانونی شکل بگیرد که از حقوق و منافع مردم حمایت کند.» ساشا لوسیونی، دانشمند تحقیقاتی هوش مصنوعی در Hugging Face، می‌گوید: اگر حباب کف‌آلود انتظارات کسب‌وکار پیرامون هوش مصنوعی به سطوح ناپایدار برسد و در نهایت منفجر شود، می‌تواند به طور کلی توسعه آینده را کاهش دهد. دلیل آن این است که برخلاف چرخه‌های قبلی، بسیاری از سازمان‌ها به جای قرار دادن تمام تخم‌های خود در سبد هوش مصنوعی به دنبال راه‌های دیگری برای تحقیقات هوش مصنوعی هستند. کمک می کند تا از خارج شدن از کنترل تأثیرات بیش از حد و واقعی اجتماعی جلوگیری شود. Luccioniis با سازمان دهندگان NeurONS - یکی از بزرگترین گردهمایی های تحقیقاتی هوش مصنوعی - کار می کند تا یک آیین نامه اخلاقی کنفرانسی ایجاد کند که در آن محققان باید داده های آموزشی خود را افشا کنند.

به مدل های خود دسترسی داشته باشند و به جای پنهان کردن آن به عنوان فناوری اختصاصی، کار خود را نشان دهند. نیما باسکارینو می‌گوید، محققان هوش مصنوعی باید به وضوح توضیح دهند که چرا مدل‌ها می‌توانند و نمی‌توانند انجام دهند، بین توسعه محصول و تحقیقات علمی بیشتر تمایز قائل شوند و با جوامعی که بیشتر تحت تأثیر هوش مصنوعی قرار می‌گیرند همکاری نزدیکی داشته باشند تا در مورد ویژگی‌ها و حفاظت‌های مربوط به آنها اطلاعات کسب کنند. یک مهندس اخلاق در Hugging Face.Boscarino همچنین نیاز به اتخاذ شیوه هایی مانند ارزیابی نحوه عملکرد یک هوش مصنوعی با افراد با هویت های مختلف را برجسته می کند. کار مولد هوش مصنوعی که به این روش انجام می‌شود، می‌تواند شکل پایدارتر و پایدارتری از توسعه فناوری سودمند را در آینده تضمین کند. بوس کارینو می‌گوید: «این زمان‌های هیجان‌انگیزی در فضای اخلاق هوش مصنوعی است و امیدوارم بخش وسیع‌تر یادگیری ماشینی بیاموزد که رویکردی مخالف آنچه OpenAI انجام می‌دهد اتخاذ کند.


Comments

Popular Posts