Artificialintelligence
There is no doubt that the latest advances in artificial intelligence are more impressive than what came before, but are we in just another bubble ofAI hype? JeremyHsu reports
What actually is artificial intelligence? The term artificial intelligence was coined in1956by computer scientistJohnMcCarthy. The context was a workshop at Dartmouth College inNew Hampshire that attempted to “find how to make machines use language,form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves”. The field has evolved since then, but AI is essentially still about creating machines that can do what we can,and more.
THIS moment for artificial intelligence is unlike any that has come before. Powerful languagebasedAIshave lurched forward and cannot produce reams of plausible prose that often can’t be distinguished from text written by humans. They can answer tricky technical questions, such as those posed to lawyers and computer programmers. They can even help better trainotherAIs. However,they have also raised serious concerns. Prominent AI researchers and tech industry leaders have called for research labs to pause the largest ongoing experiments inAIfor at least six months in order to allow time for the development and implementation of safety guidelines.Italy’s regulators have gone further,temporarily banning a leadingAI chatbot. At The centre of it all are large language models and other types of generativeA that can create text and images in response to human prompts. Start-ups backed by the world's most powerful tech firms have been accelerating the deployment of these generative
AIs since 2022 – giving millions of people access to convincing but often inaccurate chatbots, while flooding the internet with AI-generated writing and imagery in ways that could reshape society. AI research has long been accompanied by hype.But those working on pushing the boundaries of what's possible and those calling for restraint all seem to agree on one thing: generative AIs could have much broader societal impacts thanthAI that came before. Boom and bust The story ofAIis one of repeating cycles involving surges of interest and funding followed by lulls after people’s great expectations fall short.In The 1950s,there was a huge amount of enthusiasm around creating machines that would display human-level intelligence (see “What actually is artificial intelligence?”, below left).Butthatlofty goal didn’t materialize because computer hardware and software quickly ran into technical limitations. The result was so-calledAIwinters winters in the 1970s and in the late 1980s, when research funding and corporate interest evaporated. The past decade has represented something of anAI summer both for researchers looking to improve learning capabilities and companies seeking to deploy AIs. Thanks to a combination of massive improvements in computer power and the availability of data, an approach that uses Is loosely inspired by the brain(see “What Is a Neural network?”, above right)hashad a lot of success. Voice and face-recognition capabilities in ordinary smartphones use such neural networks, as do computationally intensiveAIs that have beaten the world's best players at the ancient board game Go and solved previously intractable scientific challenges, such as predicting the structure of nearly all proteins known to science. Research Developments in the field have typically unfolded over years,with Itools being applied to specialised tasks or rolled invisibly into existing commercial products and services, such as internet search engines. But over the past few months, generativeAIs,whichalsouse neural networks,have become the focus of tech industry efforts to rushAIs out of corporate labs and into the hands of the public. The results have been messy, sometimes impressive and often
unpredictable, as individuals and organisations experiment with these models. “I Truly didn't expect the explosion of generative models that we are seeing now,” says Timnit Gebru,founder of the DistributedAIResearchInstitute in California. “Ihavenever seen such a proliferation of products so fast.” The spark that lit the explosion came fromOpenAI, a San Francisco-based company,when it launched a public prototype outfit's AI-powered chatbotChatGPT on 30 November 2022 and attracted 1 million users in injustice days. Microsoft, a multibillion-dollar investor in OpenAI,followed up inFebruary by making a chatbot powered by the same technology
behindChatGPT available through itsBing search engine – an obvious attempt to challenge Google’s long domination of the search engine market. That spurred Google to respond inMarchby debuting its own AI chatbot,Bard. Google Has also invested $300million in Anthropic, anAI start-up founded by former OpenAI employees, which made itsClaude chatbot available to a limited number of people and commercial partners, starting inMarch.MajorChinese tech firms, suchasBaiduand Alibaba,have likewise joined the race to incorporateAI chatbots into their search engines and other services. These generativeAIs are already affecting fields such as education, with some schools have banned ChatGPT because it can generate entire essays that often appear indistinguishable from student writing. Software developers have shownthatChatGPT can find and fix bugs in programming code as well as write certain programs from scratch.Real estate agents haveusedChatGPT to generate new sale listings and social media posts, and law firms have embracedAI chatbots to draft legal contracts. US government
research labs are eventesting howOpenAI’s technology could speedily sift through published studies to help guide new scientific experiments (see “Why isChatGPT so good?”, page 14). An Estimated 300 million full-time jobs may face at least partial automation from generativeAIs, according to a report by analysts at investment bank GoldmanSachs.But, as they write,this depends on whether “generativeAI delivers on its promised capabilities'' – a familiar caveat that has come up before inAI boom-and-bust cycles. What Is clear is that the very real risks of generativeAIs are also manifesting at a dizzying pace. ChatGPT and other chatbots often present factual errors, referencing completely made-up events or articles,including,in one case, an invented sexualharassment scandal thatfalsely accused a real person.ChatGPTusagehas also led to data privacy scandals involving the leak of confidential company data, alongwith ChatGPTusers being able to see other people’s chat histories and personal payment information. Artists and photographers have raised additional concerns about AI-generated artwork threatening their professional livelihoods, all while some companies train generativeAIs on work of those artists and photographers without compensating them. AI-generated imagery can also lead to mass misinformation, as demonstrated by fakeAI-created pictures of US president Donald Trump being arrested and Pope Francis Wearing a stylish white puffer jacket, both of which went viral. Plenty of people were fooled, believing they were real. Many of these potential hazards were anticipated by Gebruwhen she and her colleagues wrote about the risks of large language models in a seminal paper in2020, back whenshewas co-leader of Google’s ethicalAIteam. Gebrudescribed being forced out of Google after the company’s leadership asked her to retract the paper, although Google describedher departure as a resignation not a firing. “[The current situation]feels like yet another hype cycle, but the difference is that now there are actual products out there causing harm,” says Gebru. Making generative AIs Generative technology builds on decade's worth of research that has made Is significantly better at recognising images, classifying articles according to topic and converting spoken words to written ones, says Arvind Narayananat Princeton University.By flipping that process around,they can create synthetic image when given a description, generate papers about a given topic or produce audio versions of written text. “GenerativeAI genuinely makes many new things possible,” says Narayanan.Although This technology can be hard to evaluate,he says. Large language models are feats of engineering,using huge amounts of computing power in data centres operated by firms like Microsoft and Google. They Need massive amounts of training data that companies often scrape from public information repositories on the internet, suchasWikipedia. The technology also relies upon large numbers of human workers to provide feedback to steer the AIs in the right direction during the training process. Butthe powerfulAIs released by large technology companies tend to be closed systems that restrict access for the public or outside developers.Closed systems can help control for the potential risks and harms of letting anyone download and use theAIs, but they also concentrate power in the hands of the organisations that developed them without allowing any input from many people whose lives theAIs could affect. “The Most pressing concern in closedness trends is how few models will be available outside a handful of developer organisations,” says Irene Solaiman, anAI safety and policy researcher atHugging Face, a company that develops tools for sharingAI code and data sets. Such Trends can be seen in howOpenAIhasmoved towards a proprietary and closed stance on its technology, despite starting as a non-profit organisation dedicated to open development ofAI.When OpenAI upgraded Chat PT's underlying technology to GPT-4,the company cited “the competitive landscape and safety implications of large-scale models like GPT-4” as the reason for not disclosing how this modelworks. This type of stance makes it hard for outsiders to assess the capabilities and limitations of generativeAIs, potentially fuelling hype. “Technology bubbles create a lot of emotional energy – both excitement and fear – but they are bad information environments,” says LeeVinsel, a historian of technology atVirginia Tech. Many techbubbles involve both hyper and what insel describes as “criti-hype” – criticism that amplifies technology hype by taking the most sensational claims of companies at face value and flipping them to talk about the hypothetical risks. This can be seen in response toChatGPT. OpenAI’smission statement says the firm is dedicated to spreading the benefits of artificial general intelligence –AIs that can outperform humans at every intellectualtask.ChatGPT is very far from that goal but, on 22 March,AI researchers such as YoshuaBengio and tech industry figures such as ElonMusk signed open letter asking research labs to pause giantAI experiments, while referring toAIs as “nonhuman minds that might eventually outnumber, outsmart, obsolete and replaced”. Experts interviewed by New Scientist warned that both hyper and criti-hype can distract from the urgent task of managing actual risks fromgenerativeAIs. For instance, GPT-4 can automate many tasks, create misinformation on a massive scale, lock in the dominance of a few tech companies and break democracies, says Daron Acemoglu, an economist at theMassachusetts Institute of Technology. “It can do those things without coming close to artificial general intelligence.” Acemoglu Says this moment is a “critical juncture” for government regulators to ensure that such technologies help workers and empower citizens and for “reining in the tech barons who are controlling this technology”. European Union Law-makers are finalizing anArtificialIntelligence Acts That Would create the world's first broad standards for regulating this technology. The legislation aims to ban or regulate higher-risk AIs,with ongoing debate about includingChatGPT and similar generativeAIswithgeneral purpose uses under the “high risk” category.Meanwhile, regulators inItalyhave temporarily banned ChatGPT over concerns that it could violate existing data privacy laws. TheAI NowInstitute in New York and otherAI ethics experts such as Gebruhave proposed placing the burden of responsibility on big tech companies,forcing them to demonstrate that there aren’t causing harm,instead of requiring regulators to identify and deal with any harm after the fact. “Industry players have been some of the first to say i need regulation,” says SarahMyers West,managing director at the AI NowInstitute. “But wish that the question was counterposed to them, like, ‘How Are you sure that what you’re doing is legal in the first place?’” Next generation Muchofwhathappensnextin the generativeAI boom depends on how the technologies involved are used and regulated. “Ithink themostimportantnews from history is that we, as a society,have many more choices about how to develop and roll out technologies than what tech visionaries are telling us,” saysAcemoglu. SamAltman, OpenAI’sCEO,has said thatChatGPT can’t replace traditional searchengines right now.Butina Forbes interview, he suggested that anAI could someday change how people get information online in away that is “totally different and way cooler”. Altmanhas also contemplated muchmore extreme future scenarios involving powerful AIs that generally outperform humans, describing a “best case” ofAIs being able to “improve all aspects of reality and let us all live our best lives”,while also warning that the “bad case” could mean “lights out for all of us".Buthe described currentAI development as still being far from artificial general intelligence. Lastmonth, Gebruandher colleagues published a statement warning that “itis dangerous to distract ourselves with fantasizedAI-enabled utopia or apocalypse which promises either a ‘flourishing’ or ‘potentially catastrophic future”. “The current race towards ever larger ‘AI experiments is not a preordained path where our only choice is how fast to run, but rather a set of decisions driven by the profit motive,” they wrote. “The actions and choices of corporations must be shaped by legislation which protects the rights and interests of people.” If The frothy bubble of business expectations around generativeAI builds to unsustainable levels and eventually bursts,that could also dampen future development in general, says Sasha Luccioni, anAI research scientist atHugging Face.However,the boom in generativeAIneedn’tinevitably lead to another winter. One reason is that,unlike in previous cycles,many organisations continue to pursue other avenues of artificial intelligence research instead of putting all their eggs in the generativeAI basket. Opening up AI Organisations suchasHugging Face are advocating for a culture of openness inAI research and development that can help prevent both hyper and actual societal impacts from spiraling out of control. Luccioniisworking with the organisers of NeurONS – one of the largestAI research gatherings – to establish a conference code of ethics where researchers must disclose their training data, allow access to their models and show their work instead of hiding it as proprietary technology. AI researchers should clearly explain why models can and can’t do, draw a distinction between product development and more scientific research, and work closely with the communities most affected byAIto learn about the features and safeguards that are relevant to them, says Nima Boscarino, an ethics engineer at Hugging Face.Boscarino also highlights the need to adopt practices such as evaluating how anAI performs with people of different identities. Work ongenerativeAI carried out this way could ensure a more stable and sustainable form of beneficial technological development well into the future. “These are exciting times in theAI ethics space and Ihope that the broader machine-learning sector learns to take the opposite approach of what OpenAIhas been doing,” saysBoscarino.
هوش مصنوعی
شکی نیست که آخرین پیشرفتها در هوش مصنوعی چشمگیرتر از آنچه قبلاً بود، هستند، اما آیا ما فقط در یک حباب دیگر از تبلیغات هوش مصنوعی هستیم؟ JeremyHsu گزارش می دهد
در واقع هوش مصنوعی چیست؟ اصطلاح هوش مصنوعی در سال 1956 توسط دانشمند کامپیوتر جان مک کارتی ابداع شد. این زمینه یک کارگاه آموزشی در کالج دارتموث در نیوهمپشایر بود که تلاش میکرد «چگونه ماشینها را وادار به استفاده از زبان، شکلدهی انتزاعات و مفاهیم، حل انواع مشکلاتی که اکنون برای انسانها محفوظ است، بیابد و خود را بهبود بخشد». این زمینه از آن زمان به بعد تکامل یافته است، اما هوش مصنوعی اساساً هنوز در مورد ایجاد ماشینهایی است که میتوانند آنچه را که ما میتوانیم و بیشتر انجام دهند.
این لحظه برای هوش مصنوعی شبیه لحظه های قبلی نیست. زبان قدرتمندی که مبتنی بر زبان است به جلو حرکت کرده است و نمی تواند مجموعه ای از نثر قابل قبول را تولید کند که اغلب نمی تواند از متن نوشته شده توسط انسان متمایز شود. آنها می توانند به سؤالات فنی پیچیده، مانند سؤالاتی که برای وکلا و برنامه نویسان رایانه می شود، پاسخ دهند. آنها حتی می توانند به آموزش بهتر سایر AI کمک کنند. با این حال، آنها همچنین نگرانی های جدی را مطرح کرده اند. محققان برجسته هوش مصنوعی و رهبران صنعت فناوری از آزمایشگاههای تحقیقاتی خواستهاند تا بزرگترین آزمایشهای در حال انجام در هوش مصنوعی را حداقل به مدت شش ماه متوقف کنند تا زمان برای توسعه و اجرای دستورالعملهای ایمنی در نظر گرفته شود. تنظیمکنندههای ایتالیا پا را فراتر گذاشته و به طور موقت یک ربات چت هوش مصنوعی را ممنوع کردهاند. در مرکز همه مدلهای زبان بزرگ و انواع دیگری از GenerativeA قرار دارند که میتوانند متن و تصاویر را در پاسخ به درخواستهای انسان ایجاد کنند. استارتآپهایی که توسط قدرتمندترین شرکتهای فناوری جهان پشتیبانی میشوند، استقرار این فناوریهای مولد را تسریع کردهاند.
هوش مصنوعی از سال 2022 - به میلیونها نفر دسترسی به چتباتهای متقاعدکننده اما اغلب نادرست میدهد، در حالی که اینترنت را با نوشتهها و تصاویر تولید شده توسط هوش مصنوعی پر میکند به روشهایی که میتواند جامعه را تغییر دهد. تحقیقات هوش مصنوعی مدتهاست که با هیاهو همراه بوده است. اما به نظر میرسد کسانی که بر روی پیش بردن مرزهای ممکن کار میکنند و کسانی که خواستار خویشتنداری هستند همگی در یک چیز توافق دارند: هوش مصنوعیهای مولد میتوانند تأثیرات اجتماعی بسیار گستردهتری نسبت به هوش مصنوعی قبلی داشته باشند. شکوفایی و رکود داستان هوش مصنوعی یکی از چرخههای تکراری است که شامل افزایش علاقه و سرمایهگذاری است که پس از ناکام ماندن انتظارات بزرگ مردم با آرامش همراه است. در دهه 1950، شور و شوق زیادی در مورد ایجاد ماشینهایی وجود داشت که هوش در سطح انسانی را نشان میداد (نگاه کنید به " در واقع هوش مصنوعی چیست؟»، در پایین سمت چپ. اما هدف متعالی محقق نشد زیرا سخت افزار و نرم افزار رایانه به سرعت با محدودیت های فنی مواجه شدند. نتیجه به اصطلاح زمستانهای زمستانی در دهه 1970 و در اواخر دهه 1980 بود، زمانی که بودجه تحقیقاتی و علاقه شرکتها از بین رفت. دهه گذشته هم برای محققانی که به دنبال بهبود قابلیتهای یادگیری هستند و هم برای شرکتهایی که بهدنبال استقرار هوش مصنوعی هستند، چیزی شبیه تابستان یک هوش مصنوعی بود. به لطف ترکیبی از پیشرفتهای عظیم در قدرت رایانه و در دسترس بودن دادهها، رویکردی که از مغز الهام گرفته شده است (نگاه کنید به «شبکه عصبی چیست؟» در بالا سمت راست) موفقیتهای زیادی کسب کرده است. قابلیتهای تشخیص صدا و تشخیص چهره در تلفنهای هوشمند معمولی از چنین شبکههای عصبی استفاده میکنند، مانند AIهای محاسباتی فشرده که بهترین بازیکنان جهان را در بازی تختهای باستانی Go شکست داده و چالشهای علمی پیش از این دشوار را حل کردهاند، مانند پیشبینی ساختار تقریباً تمام پروتئینهای شناخته شده برای علم. . پیشرفتهای تحقیقاتی در این زمینه معمولاً در طول سالها آشکار شدهاند، با استفاده از Itols برای کارهای تخصصی یا بهطور نامرئی در محصولات و خدمات تجاری موجود، مانند موتورهای جستجوی اینترنتی. اما در چند ماه گذشته، هوش مصنوعیهای مولد، که از شبکههای عصبی نیز استفاده میکنند، به کانون تلاشهای صنعت فناوری برای خروج هوش مصنوعیها از آزمایشگاههای شرکتها و به دستهای عموم تبدیل شدهاند. نتایج کثیف، گاهی چشمگیر و اغلب بوده است
غیر قابل پیش بینی است، زیرا افراد و سازمان ها با این مدل ها آزمایش می کنند. تیمنیت گبرو، بنیانگذار DistributedAIResearchInstitute در کالیفرنیا، میگوید: «واقعاً انتظار انفجار مدلهای مولد را که اکنون شاهد آن هستیم، نداشتم. من تا به حال شاهد چنین تکثیر محصولات به این سرعت نبودم. جرقه ای که انفجار را روشن کرد، از OpenAI، یک شرکت مستقر در سانفرانسیسکو، زمانی که یک نمونه اولیه از یک لباس عمومی را در 30 نوامبر 2022 راه اندازی کرد، ربات چت با هوش مصنوعی را راه اندازی کرد و 1 میلیون کاربر را در روزهای بی عدالتی جذب کرد. مایکروسافت، یک سرمایهگذار چند میلیارد دلاری در OpenAI، در ماه فوریه با ساخت یک ربات چت با همان فناوری، موضوع را پیگیری کرد.
پشت ChatGPT از طریق موتور جستجوی بینگ خود در دسترس است - تلاشی آشکار برای به چالش کشیدن سلطه طولانی مدت گوگل بر بازار موتورهای جستجو. این امر باعث شد تا گوگل در ماه مارس با معرفی ربات چت هوش مصنوعی خود، Bard، پاسخ دهد. گوگل همچنین 300 میلیون دلار در Anthropic، یک استارتآپ هوش مصنوعی که توسط کارمندان سابق OpenAI تأسیس شده بود، سرمایهگذاری کرده است، که ربات چت کلود خود را از ماه مارس در دسترس تعداد محدودی از افراد و شرکای تجاری قرار داد. شرکتهای فناوری بزرگ چین، مانند Baiduand Alib
ba، به همین ترتیب به رقابت برای ترکیب چت ربات های هوش مصنوعی در موتورهای جستجو و سایر خدمات خود پیوسته اند. این هوش مصنوعیهای مولد در حال حاضر حوزههایی مانند آموزش را تحت تأثیر قرار دادهاند، به طوری که برخی از مدارس ChatGPT را ممنوع کردهاند، زیرا میتواند مقالههای کاملی تولید کند که اغلب غیرقابل تشخیص از نوشتههای دانشآموز به نظر میرسد. توسعهدهندگان نرمافزار نشان دادهاند کهChatGPT میتواند اشکالات کد برنامهنویسی را پیدا و رفع کند و همچنین برنامههای خاصی را از ابتدا بنویسد. آژانسهای املاک و مستغلات از ChatGPT برای تولید فهرستهای فروش جدید و پستهای رسانههای اجتماعی استفاده میکنند، و شرکتهای حقوقی از چترباتهای AI برای پیشنویس قراردادهای قانونی استفاده کردهاند. دولت ایالات متحده
آزمایشگاههای تحقیقاتی در حال بررسی این موضوع هستند که چگونه فناوری OpenAI میتواند به سرعت مطالعات منتشر شده را برای کمک به هدایت آزمایشهای علمی جدید بررسی کند (به «چرا ChatGPT اینقدر خوب است؟»، صفحه 14 مراجعه کنید). بر اساس گزارشی که توسط تحلیلگران بانک سرمایه گذاری GoldmanSachs انجام شد، حدود 300 میلیون شغل تمام وقت ممکن است حداقل با اتوماسیون نسبی از هوش مصنوعی های مولد مواجه شوند. اما همانطور که آنها می نویسند، این بستگی به این دارد که "AI GenerativeAI به قابلیت های وعده داده شده خود عمل کند" یا خیر. هشداری که قبل از چرخه های رونق و رکود هوش مصنوعی مطرح شده است. آنچه واضح است این است که خطرات واقعی AIهای مولد نیز با سرعتی سرگیجهآور آشکار میشوند. ChatGPT و سایر رباتهای چت اغلب اشتباهات واقعی را ارائه میدهند، به رویدادها یا مقالات کاملاً ساختگی اشاره میکنند، از جمله، در یک مورد، یک رسوایی آزار جنسی اختراعی که به دروغ یک شخص واقعی را متهم میکند. کاربران ChatGPT می توانند تاریخچه چت دیگران و اطلاعات پرداخت شخصی را ببینند. هنرمندان و عکاسان نگرانیهای بیشتری را در مورد آثار هنری تولید شده توسط هوش مصنوعی که معیشت حرفهای آنها را تهدید میکند، مطرح کردهاند، در حالی که برخی از شرکتها هوش مصنوعیهای مولد را بر روی آثار این هنرمندان و عکاسان آموزش میدهند بدون اینکه به آنها خسارتی پرداخت کنند. تصاویر تولید شده توسط هوش مصنوعی همچنین می تواند منجر به اطلاعات نادرست انبوه شود، همانطور که با تصاویر جعلی ساخته شده توسط هوش مصنوعی از دستگیری دونالد ترامپ، رئیس جمهور ایالات متحده و پاپ فرانسیس با پوشیدن یک ژاکت پف دار سفید شیک که هر دو در فضای مجازی منتشر شدند، نشان داد. بسیاری از مردم فریب خوردند و معتقد بودند که واقعی هستند. بسیاری از این خطرات احتمالی توسط گبرو پیشبینی شده بود، زمانی که او و همکارانش در مقالهای در سال 2020 درباره خطرات مدلهای زبانی بزرگ نوشتند، زمانی که او یکی از رهبران گروه اخلاقی Google بود. گبرود پس از اینکه رهبری شرکت از او خواست که مقاله را پس بگیرد، مجبور شد از گوگل خارج شود، اگرچه گوگل خروج او را به عنوان استعفا و نه اخراج توصیف کرد. گبرو میگوید: «[وضعیت فعلی] مانند یک چرخه تبلیغاتی دیگر به نظر میرسد، اما تفاوت این است که اکنون محصولات واقعی وجود دارند که باعث آسیب میشوند. دانشگاه آرویند نارایانات پرینستون میگوید: «دانشگاه آرویند نارایانات پرینستون» میگوید: «دانشگاه آرویند نارایانا نت پرینستون» میگوید فناوری مولد مبتنی بر ارزش تحقیقات دههای است که باعث شده است در تشخیص تصاویر، طبقهبندی مقالات بر اساس موضوع و تبدیل کلمات گفتاری به نوشتار بسیار بهتر باشد. تصویر زمانی که توضیح داده می شود، مقالاتی در مورد یک موضوع خاص تولید کنید یا نسخه های صوتی متن نوشته شده را تولید کنید. نارایانان میگوید: «GenerativeAI واقعاً چیزهای جدیدی را ممکن میسازد.» او میگوید اگرچه ارزیابی این فناوری دشوار است. مدلهای زبان بزرگ، شاهکارهای مهندسی، استفاده از مقادیر عظیمی از قدرت محاسباتی در مراکز دادهای هستند که توسط شرکتهایی مانند مایکروسافت و گوگل اداره میشوند. آنها به حجم عظیمی از داده های آموزشی نیاز دارند که شرکت ها اغلب از مخازن اطلاعات عمومی در اینترنت، مانند ویکی پدیا، پاک می کنند. این فناوری همچنین به تعداد زیادی نیروی انسانی برای ارائه بازخورد برای هدایت AI در مسیر درست در طول فرآیند آموزش متکی است. اما هوش مصنوعیهای قدرتمندی که توسط شرکتهای فناوری بزرگ منتشر میشوند، معمولاً سیستمهای بستهای هستند که دسترسی عموم یا توسعهدهندگان خارجی را محدود میکنند. سیستمهای بسته میتوانند به کنترل خطرات و مضرات احتمالی اجازه دانلود و استفاده هر کسی از هوش مصنوعی کمک کنند، اما آنها همچنین قدرت را در دستان خود متمرکز میکنند. سازمانهایی که آنها را بدون اجازه دادن به ورودی بسیاری از افرادی که هوش مصنوعی میتواند بر زندگیشان تأثیر بگذارد، توسعه دادهاند. Irene Solaiman، محقق ایمنی و سیاست گذاری هوش مصنوعی در Hugging Face، شرکتی که ابزارهایی را برای به اشتراک گذاری کد و مجموعه داده های AI توسعه می دهد، می گوید: «مهم ترین نگرانی در روند بسته بودن این است که چگونه مدل های کمی خارج از تعداد انگشت شماری از سازمان های توسعه دهنده در دسترس خواهند بود. چنین روندهایی را می توان در نحوه حرکت OpenAI به سمت یک موضع اختصاصی و بسته در مورد فناوری خود مشاهده کرد، علیرغم اینکه به عنوان یک سازمان غیر انتفاعی اختصاص داده شده به توسعه باز هوش مصنوعی. و پیامدهای ایمنی مدلهای مقیاس بزرگ مانند GPT-4” دلیل عدم افشای نحوه عملکرد این مدل است. این نوع موضعگیری، ارزیابی قابلیتها و محدودیتهای هوش مصنوعیهای مولد را برای خارجیها سخت میکند، که به طور بالقوه باعث افزایش تبلیغات میشود. حباب های فناوری انرژی احساسی زیادی ایجاد میکنند - هم هیجان و هم اف
LeeVinsel، مورخ فناوری در Virginia Tech می گوید: گوش – اما آنها محیط های اطلاعاتی بدی هستند. بسیاری از حبابهای فناوری هم شامل Hyper و هم چیزی هستند که اینسل آن را به عنوان «هیجان انتقادی» توصیف میکند - انتقادی که با در نظر گرفتن هیجانانگیزترین ادعاهای شرکتها و تغییر آنها برای صحبت در مورد خطرات فرضی، هیاهوی فناوری را تقویت میکند. این را می توان در پاسخ بهChatGPT مشاهده کرد. بیانیه ماموریت OpenAI می گوید که این شرکت به گسترش مزایای هوش عمومی مصنوعی اختصاص دارد - AIهایی که میتوانند در هر کار فکری از انسان ها بهتر عمل کنند. ChatGPT با این هدف بسیار فاصله دارد اما در 22 مارس، محققان AI مانند YoshuaBengio و چهره های صنعت فناوری مانند همانطور که الون ماسک نامه سرگشاده ای را امضا کرد که از آزمایشگاه های تحقیقاتی خواسته بود آزمایش های هوش مصنوعی غول پیکر را متوقف کنند، در حالی که هوش مصنوعی را به عنوان "ذهن غیر انسانی که ممکن است در نهایت تعدادشان پیشی بگیرد، هوشمندانه، منسوخ شده و جایگزین شوند" یاد می کند. کارشناسانی که با New Scientist مصاحبه کردند، هشدار دادند که هم هایپر و هم هایپ انتقادی می توانند تمرکز را از وظیفه فوری مدیریت ریسک های واقعی از هوش مصنوعی های مولد منحرف کنند. دارون آسم اوغلو، اقتصاددان مؤسسه فناوری ماساچوست، میگوید برای مثال، GPT-4 میتواند بسیاری از وظایف را خودکار کند، اطلاعات نادرست را در مقیاس وسیع ایجاد کند، سلطه چند شرکت فناوری را قفل کند و دموکراسیها را بشکند. میتواند این کارها را بدون نزدیک شدن به هوش مصنوعی انجام دهد.» Acemoglu میگوید که این لحظه برای تنظیمکنندههای دولتی یک «محل بحرانی» است تا اطمینان حاصل کنند که چنین فناوریهایی به کارگران کمک میکنند و شهروندان را توانمند میکنند و برای «کنترل بارونهای فناوری که این فناوری را کنترل میکنند». قانونگذاران اتحادیه اروپا در حال نهایی کردن قوانین هوش مصنوعی هستند که اولین استانداردهای گسترده جهان را برای تنظیم این فناوری ایجاد کند. هدف این قانون ممنوع کردن یا تنظیم های پرخطر، با بحثهای مداوم در مورد گنجاندن ChatGPT و مصارف تولیدی مشابه با اهداف عمومی در دسته «خطر بالا» است. در همین حال، تنظیمکنندهها در ایتالیا ChatGPT را به دلیل نگرانی از نقض قوانین حریم خصوصی دادههای موجود به طور موقت ممنوع کردهاند. موسسه TheAI Now در نیویورک و دیگر کارشناسان اخلاق هوش مصنوعی مانند Gebruhave پیشنهاد کردند که بار مسئولیت را بر دوش شرکتهای بزرگ فناوری گذاشته شود و آنها را مجبور کنیم که نشان دهند هیچ آسیبی وجود ندارد، بهجای اینکه قانونگذاران را ملزم به شناسایی و رسیدگی به هر آسیبی پس از واقعیت کنند. سارا مایرز وست، مدیر عامل موسسه AI NowInstitute می گوید: «بازیگران صنعت از اولین کسانی بودند که گفتند من به مقررات نیاز دارم. "اما ای کاش این سوال در مقابل آنها قرار می گرفت، مانند "از کجا مطمئن هستید که کاری که انجام می دهید در وهله اول قانونی است؟" نسل بعدی MuchofWhatthappensNext در رونق تولید هوش مصنوعی به نحوه استفاده و تنظیم فناوری های درگیر بستگی دارد. عجم اوغلو میگوید: «فکر میکنم مهمترین اخبار تاریخ این است که ما بهعنوان یک جامعه، انتخابهای بسیار بیشتری در مورد چگونگی توسعه و گسترش فناوریها نسبت به آنچه که رویآوران فناوری به ما میگویند، داریم». SamAltman، مدیر عامل OpenAI، گفته است که ChatGPT در حال حاضر نمیتواند جایگزین موتورهای جستجوی سنتی شود. او در مصاحبه با بوتینا فوربس، پیشنهاد کرد که یک هوش مصنوعی روزی میتواند نحوه دریافت اطلاعات آنلاین را تغییر دهد که «کاملاً متفاوت و جالبتر» است. آلتمان همچنین سناریوهای بسیار شدیدتری در آینده را در نظر گرفت که شامل هوش مصنوعی قدرتمندی است که عموماً عملکرد بهتری از انسانها دارند، و بهترین حالت هوش مصنوعی را توصیف میکند که میتواند «همه جنبههای واقعیت را بهبود بخشد و به همه ما اجازه دهد بهترین زندگیمان را داشته باشیم»، در عین حال هشدار داد که «مورد بد» می تواند به معنای "چراغ خاموش برای همه ما" باشد. اما توسعه هوش مصنوعی کنونی را همچنان با هوش مصنوعی عمومی بسیار دور توصیف کرد. ماه گذشته، همکاران Gebruandher بیانیه ای منتشر کردند و هشدار دادند که "پرت کردن حواس خودمان با آرمانشهر یا آخرالزمان فعال با هوش مصنوعی خطرناک است که نوید یک «شکوفایی» یا «آینده بالقوه فاجعهآمیز» آنها نوشتند: «مسابقه فعلی به سوی آزمایشهای هوش مصنوعی یک مسیر از پیش تعیینشده نیست که تنها انتخاب ما سرعت اجرای آن است، بلکه مجموعهای از تصمیمات است که با انگیزه سود انجام میشود.» «اقدامات و انتخابهای شرکتها باید توسط قانونی شکل بگیرد که از حقوق و منافع مردم حمایت کند.» ساشا لوسیونی، دانشمند تحقیقاتی هوش مصنوعی در Hugging Face، میگوید: اگر حباب کفآلود انتظارات کسبوکار پیرامون هوش مصنوعی به سطوح ناپایدار برسد و در نهایت منفجر شود، میتواند به طور کلی توسعه آینده را کاهش دهد. دلیل آن این است که برخلاف چرخههای قبلی، بسیاری از سازمانها به جای قرار دادن تمام تخمهای خود در سبد هوش مصنوعی به دنبال راههای دیگری برای تحقیقات هوش مصنوعی هستند. کمک می کند تا از خارج شدن از کنترل تأثیرات بیش از حد و واقعی اجتماعی جلوگیری شود. Luccioniis با سازمان دهندگان NeurONS - یکی از بزرگترین گردهمایی های تحقیقاتی هوش مصنوعی - کار می کند تا یک آیین نامه اخلاقی کنفرانسی ایجاد کند که در آن محققان باید داده های آموزشی خود را افشا کنند.
به مدل های خود دسترسی داشته باشند و به جای پنهان کردن آن به عنوان فناوری اختصاصی، کار خود را نشان دهند. نیما باسکارینو میگوید، محققان هوش مصنوعی باید به وضوح توضیح دهند که چرا مدلها میتوانند و نمیتوانند انجام دهند، بین توسعه محصول و تحقیقات علمی بیشتر تمایز قائل شوند و با جوامعی که بیشتر تحت تأثیر هوش مصنوعی قرار میگیرند همکاری نزدیکی داشته باشند تا در مورد ویژگیها و حفاظتهای مربوط به آنها اطلاعات کسب کنند. یک مهندس اخلاق در Hugging Face.Boscarino همچنین نیاز به اتخاذ شیوه هایی مانند ارزیابی نحوه عملکرد یک هوش مصنوعی با افراد با هویت های مختلف را برجسته می کند. کار مولد هوش مصنوعی که به این روش انجام میشود، میتواند شکل پایدارتر و پایدارتری از توسعه فناوری سودمند را در آینده تضمین کند. بوس کارینو میگوید: «این زمانهای هیجانانگیزی در فضای اخلاق هوش مصنوعی است و امیدوارم بخش وسیعتر یادگیری ماشینی بیاموزد که رویکردی مخالف آنچه OpenAI انجام میدهد اتخاذ کند.
Comments
Post a Comment