Skip to main content

Featured

  Promoting Peace in a Turbulent World: Strategies to Resolve Political Conflicts In today’s world, political conflicts are rampant, causing immense human suffering and destabilizing entire regions. From the ongoing war in Ukraine to the enduring Israel-Palestine conflict, the need for effective conflict resolution strategies has never been more urgent. This essay explores various approaches to mitigate and ultimately resolve political conflicts, emphasizing diplomacy, economic development, and international cooperation. Diplomacy and Dialogue Diplomacy remains one of the most potent tools for conflict resolution. Engaging in open, honest dialogue allows conflicting parties to understand each other’s perspectives and grievances. The United Nations (UN) plays a crucial role in facilitating such dialogues. The UN Security Council, for instance, can call upon parties to settle disputes through peaceful means and recommend methods of adjustment or terms of settlement 1 . Additional


 

AI AND THE FUTURE


The changes wrought by advances in printing in fifteenth-century Europe offer a historical and philosophical comparison to the challenges of the age of AI. In medieval Europe, knowledge was esteemed but books were rare. Individual authors produced literature or encyclopedic compilations of facts, legends, and religious teachings. But these books were a treasure vouchsafed to a few. Most experience was lived, and most knowledge was transmitted orally.

In 1450, Johannes Gutenberg, a goldsmith in the German city of Mainz, used borrowed money to fund the creation of an experimental printing press. His effort barely succeeded — his business floundered, and his creditors sued — but by 1455, the Gutenberg Bible, Europe’s first printed book, appeared. Ultimately, his printing press brought about a revolution that reverberated across every sphere of Western, and eventually global, life. By 1500, an estimated nine million printed books circulated in Europe, with the price of an individual book having plummeted. Not only was the Bible widely distributed in the languages of day‑to‑day life (rather than Latin), the works of classical authors in the fields of history, literature, grammar, and logic also began to proliferate.1

Before the advent of the printed book, medieval Europeans accessed knowledge primarily through community traditions — participating in harvesting and seasonal cycles, with their accumulation of folk wisdom; practicing faith and observing its sacraments at places of worship; joining a guild, learning its techniques, and being admitted to its specialized networks. When new information was acquired or new ideas arose (news from abroad, an innovative farming or mechanical invention, novel theological interpretations), it was transmitted either orally through a community or manually through hand-copied manuscripts.

As printed books became widely available, the relationship between individuals and knowledge changed. New information and ideas could spread quickly, through more varied channels. Individuals could seek out information useful to their specific endeavors and teach it to themselves. By examining source texts, they could probe accepted truths. Those with strong convictions and access to modest resources or a patron could publish their insights and interpretations. Advances in science and mathematics could be transmitted quickly, at continental scale. The exchange of pamphlets became an accepted method of political dispute, intertwined with theological dispute. New ideas spread, often either toppling or fundamentally reshaping established orders, leading to adaptations of religion (the Reformation), revolutions in politics (adjusting the concept of national sovereignty), and new understandings in the sciences (redefining the concept of reality).

Today, a new epoch beckons. In it, once again, technology will transform knowledge, discovery, communication, and individual thought. Artificial intelligence is not human. It does not hope, pray, or feel. Nor does it have awareness or reflective capabilities. It is a human creation, reflecting human-designed processes on human-created machines. Yet in some instances, at awesome scale and speed, it produces results approximating those that have, until now, only been reached through human reason. Sometimes, its results are astounding. As a result, it may reveal aspects of reality more dramatic than any we have ever contemplated. Individuals and societies that enlist AI as a partner to amplify skills or pursue ideas may be capable of feats — scientific, medical, military, political, and social — that eclipse those of preceding periods. Yet once machines approximating human intelligence are regarded as key to producing better and faster results, reason alone may come to seem archaic. After defining an epoch, the exercise of individual human reason may find its significance altered.

The printing revolution in fifteenth-century Europe produced new ideas and discourse, both disrupting and enriching established ways of life. The AI revolution stands to do something similar: access new information, produce major scientific and economic advances, and in so doing, transform the world. But its impact on discourse will be difficult to determine. By helping humanity navigate the sheer totality of digital information, AI will open unprecedented vistas of knowledge and understanding. Alternatively, its discovery of patterns in masses of data may produce a set of maxims that become accepted as orthodoxy across continental and global network platforms. This, in turn, may diminish humans’ capacity for skeptical inquiry that has defined the current epoch. Further, it may channel certain societies and network-platform communities into separate and contradictory branches of reality.

AI may be better or — if wrongly deployed — worsen humanity, but the mere fact of its existence challenges and, in some cases, transcends fundamental assumptions. Until now, humans alone developed their understanding of reality, a capacity that defined our place in the world and relationship to it. From this, we elaborate our philosophies, design our governments and military strategies, and develop our moral precepts. Now AI has revealed that reality may be known in different ways, perhaps in more complex ways, than what has been understood by humans alone. At times, its achievements may be as striking and disorienting as those of the most influential human thinkers in their heyday — producing bolts of insight and challenges to established concepts, all of which demand a reckoning. Even more frequently, AI will be invisible, embedded in the mundane, subtly shaping our experiences in ways we find intuitively suitable.

We must recognize that AI’s achievements, within its defined parameters, sometimes rank beside or even surpass those that human resources enable. We may comfort ourselves by repeating that AI is artificial, that it has not or cannot match our conscious experience of reality. But when we encounter some of AI’s achievements — logical feats, technical breakthroughs, strategic insights, and sophisticated management of large, complex systems — it is evident that we are in the presence of another experience of reality by another sophisticated entity.

Accessed by AI, new horizons are opening before us. Previously, the limits of our minds constrained our ability to aggregate and analyze data, filter and process news and conversations, and interact socially in the digital domain. AI permits us to navigate these realms more effectively. It finds information and identifies trends that traditional algorithms could not — or at least not with equal grace and efficiency. In so doing, it not only expands physical reality but also permits expansion and organization of the burgeoning digital world.

Yet, at the same time, AI subtracts. It hastens dynamics that erode human reason as we have come to understand it: social media, which diminishes the space for reflection, and online searching, which decreases the impetus for conceptualization. Pre‑AI algorithms were good at delivering “addictive” content to humans. AI is excellent at it. As deep reading and analysis contracts, so, too, do the traditional rewards for undertaking these processes. As the cost of opting out of the digital domain increases, its ability to affect human thought — to convince, to steer, to divert — grows. As a consequence, the individual human’s role in reviewing, testing, and making sense of information diminishes. In its place, AI’s role expands.

The Romantics asserted that human emotion was a valid and indeed important source of information. A subjective experience, they argued, was itself a form of truth. The postmodernists took the Romantics’ logic a step further, questioning the very possibility of discerning an objective reality through the filter of subjective experience. AI will take the question considerably further, but with paradoxical results. It will scan deep patterns and disclose new objective facts — medical diagnoses, early signs of industrial or environmental disasters, looming security threats. Yet in the worlds of media, politics, discourse, and entertainment, AI will reshape information to conform to our preferences — potentially confirming and deepening biases and, in so doing, narrowing access to and agreement upon an objective truth. In the age of AI, then, human reason will find itself both augmented and diminished.

As AI is woven into the fabric of daily existence, expands that existence, and transforms it, humanity will have conflicting impulses. Confronted with technologies beyond the comprehension of the nonexpert, some may be tempted to treat AI’s pronouncements as quasi-divine judgments. Such impulses, though misguided, do not lack sense. In a world where an intelligence beyond one’s comprehension or control draws conclusions that are useful but alien, is it foolish to defer to its judgments? Spurred by this logic, a re‑enchantment of the world may ensue, in which AIs are relied upon for oracular pronouncements to which some humans defer without question. Especially in the case of AGI (artificial general intelligence), individuals may perceive godlike intelligence — a superhuman way of knowing the world and intuiting its structures and possibilities.

But deference would erode the scope and scale of human reason and thus would likely elicit backlash. Just as some opt out of social media, limit screen time for children, and reject genetically modified foods, so, too, will some attempt to opt out of the “AI world” or limit their exposure to AI systems in order to preserve space for their reason. In liberal nations, such choices may be possible, at least at the level of the individual or the family. But they will not be without cost. Declining to use AI will mean not only opting out of conveniences such as automated movie recommendations and driving directions but also leaving behind vast domains of data, network platforms, and progress in fields from health care to finance.

At the civilizational level, forgoing AI will be infeasible. Leaders will have to confront the implications of the technology, for whose application they bear significant responsibility.

The need for an ethic that comprehends and even guides the AI age is paramount. But it cannot be entrusted to one discipline or field. The computer scientists and business leaders who are developing the technology, the military strategists who seek to deploy it, the political leaders who seek to shape it, and the philosophers and theologians who seek to probe its deeper meanings all see pieces of the picture. All should take part in an exchange of views not shaped by preconceptions.

At every turn, humanity will have three primary options: confining AI, partnering with it, or deferring to it. These choices will define AI’s application to specific tasks or domains, reflecting philosophical as well as practical dimensions. For example, in airline and automotive emergencies, should an AI copilot defer to a human? Or the other way around? For each application, humans will have to chart a course; in some cases, the course will evolve, as AI capabilities and human protocols for testing AI’s results also evolve. Sometimes deference will be appropriate — if an AI can spot breast cancer in a mammogram earlier and more accurately than a human can, then employing it will save lives. Sometimes partnership will be best, as in self-driving vehicles that function as today’s airplane autopilots do. At other times, though — as in military contexts — strict, well-defined, well-understood limitations will be critical.

AI will transform our approach to what we know, how we know, and even what is knowable. The modern era has valued knowledge that human minds obtain through the collection and examination of data and the deduction of insights through observations. In this era, the ideal type of truth has been the singular, verifiable proposition provable through testing. But the AI era will elevate a concept of knowledge that is the result of partnership between humans and machines. Together, we (humans) will create and run (computer) algorithms that will examine more data more quickly, more systematically, and with a different logic than any human mind can. Sometimes, the result will be the revelation of properties of the world that were beyond our conception — until we cooperated with machines.

AI already transcends human perception — in a sense, through chronological compression or “time travel”: enabled by algorithms and computing power, it analyzes and learns through processes that would take human minds decades or even centuries to complete. In other respects, time and computing power alone do not describe what AI does.

ARTIFICIAL GENERAL INTELLIGENCE

Are humans and AI approaching the same reality from different standpoints, with complementary strengths? Or do we perceive two different, partially overlapping realities: one that humans can elaborate through reason and another that AI can elaborate through algorithms? If this is the case, then AI perceives things that we do not and cannot — not merely because we do not have the time to reason our way to them, but also because they exist in a realm that our minds cannot conceptualize. The human quest to know the world fully will be transformed — with the haunting recognition that to achieve certain knowledge we may need to entrust AI to acquire it for us and report back. In either case, as AI pursues progressively fuller and broader objectives, it will increasingly appear to humans as a fellow “being” experiencing and knowing the world — a combination of tool, pet, and mind.

This puzzle will only deepen as researchers near or attain AGI. As we wrote in chapter 3, AGI will not be limited to learning and executing specific tasks; rather, by definition, AGI will be able to learn and execute a broad range of tasks, much like those humans perform. Developing AGI will require immense computing power, likely resulting in their being created by only a few well-funded organizations. Like current AI, though AGI may be readily distributable, given its capacities, its applications will need to be restricted. Limitations could be imposed by only allowing approved organizations to operate it. Then the questions will become: who controls AGI? Who grants access to it? Is democracy possible in a world in which a few “genius” machines are operated by a small number of organizations? What, under these circumstances, does partnership with AI look like?

If the advent of AGI occurs, it will be a signal intellectual, scientific, and strategic achievement. But it does not have to occur for AI to herald a revolution in human affairs.

AI’s dynamism and capacity for emergent — in other words, unexpected — actions and solutions distinguish it from prior technologies. Unregulated and unmonitored, AIs could diverge from our expectations and, consequently, our intentions. The decision to confine, partner with, or defer to it will not be made by humans alone. In some cases, it will be dictated by AI itself; in others, by auxiliary forces. Humanity may engage in a race to the bottom. As AI automates processes, permits humans to probe vast bodies of data, and organizes and reorganizes the physical and social worlds, advantages may go to those who move first. Competition could compel deployment of AGI without adequate time to assess the risks — or in disregard of them.

An AI ethic is essential. Each individual decision — to constrain, partner, or defer — may or may not have dramatic consequences, but in the aggregate, they will be magnified. They cannot be made in isolation. If humanity is to shape the future, it needs to agree on common principles that guide each choice. Collective action will be hard, and at times impossible, to achieve, but individual actions, with no common ethic to guide them, will only magnify instability.

Those who design, train, and partner with AI will be able to achieve objectives on a scale and level of complexity that, until now, have eluded humanity — new scientific breakthroughs, new economic efficiencies, new forms of security, and new dimensions of social monitoring and control. Those who do not have such agency in the process of expanding AI and its uses may come to feel that they are being watched, studied, and acted upon by something they do not understand and did not design or choose — a force that operates with an opacity that in many societies is not tolerated of conventional human actors or institutions. The designers and deployers of AI should be prepared to address these concerns — above all, by explaining to non-technologists what AI is doing, as well as what it “knows” and how.

AI’s dynamic and emergent qualities generate ambiguity in at least two respects. First, AI may operate as we expect but generate results that we do not foresee. With those results, it may carry humanity to places its creators did not anticipate. Much like the statesmen of 1914 failed to recognize that the old logic of military mobilization, combined with new technology, would pull Europe into war, deploying AI without careful consideration may have grave consequences. These may be localized, such as a self-driving car that makes a life-threatening decision, or momentous, such as a significant military conflict. Second, in some applications, AI may be unpredictable, with its actions coming as complete surprises. Consider AlphaZero, which, in response to the instruction “win at chess,” developed a style of play that, in the millennia-long history of the game, humans had never conceived. While humans may carefully specify AI’s objectives, as we give it broader latitude, the paths AI takes to accomplish its objectives may come to surprise or even alarm us.

Accordingly, AI’s objectives and authorizations need to be designed with care, especially in fields in which its decisions could be lethal. AI should not be treated as automatic. Neither should it be permitted to take irrevocable actions without human supervision, monitoring, or direct control. Created by humans, AI should be overseen by humans. But in our time, one of AI’s challenges is that the skills and resources required to create it are not inevitably paired with the philosophical perspective to understand its broader implications. Many of its creators are concerned primarily with the applications they seek to enable and the problems they seek to solve: they may not pause to consider whether the solution might produce a revolution of historic proportions or how their technology may affect various groups of people. The AI age needs its own Descartes, its own Kant, to explain what is being created and what it will mean for humanity.

Reasoned discussion and negotiation involving governments, universities, and private-sector innovators should aim to establish limits on practical actions — like the ones that govern the actions of people and organizations today. AI shares attributes of some regulated products, services, technologies, and entities, but it is distinct from them in vital ways, lacking its own fully defined conceptual and legal framework. For example, AI’s evolving and emergent properties pose regulatory challenges: what and how it operates in the world may vary across fields and evolve over time — and not always in predictable ways. The governance of people is guided by an ethic. AI begs for an ethic of its own — one that reflects not only the technology’s nature, but also the challenges posed by it.

Frequently, existing principles will not apply. In the age of faith, courts determined guilt during ordeals in which the accused faced trial by combat and God was believed to dictate victory. In the age of reason, humanity assigned guilt according to the precepts of reason, determining culpability and meting out punishment consistent with notions such as causality and intention. But AIs do not operate by human reason, nor do they have human motivation, intent, or self-reflection. Accordingly, their introduction complicates existing principles of justice being applied to humans. When an autonomous system operating on the basis of its own perceptions and decisions acts, does its creator bear responsibility? Or does the fact that the AI acted sever it from its creator, at least in terms of culpability? If AI is enlisted to monitor signs of criminal wrongdoing, or to assist in judgments of innocence and guilt, must the AI be able to “explain” how it reached its conclusions in order for human officials to adopt them?

At what point and in what contexts in the technology’s evolution it should be subject to internationally negotiated restrictions is another essential subject of debate. If attempted too early, the technology may be stymied, or there may be incentives to conceal its capabilities; if delayed too long, it may have damaging consequences, particularly in military contexts. The challenge is compounded by the difficulty of designing effective verification regimes for a technology that is ethereal, opaque, and easily distributed. Official negotiators will inevitably be governments. But forums need to be created for technologists, ethicists, the corporations creating and operating AIs, and others beyond these fields.

For societies, the dilemmas AI raises are profound. Much of our social and political life now transpires on network platforms enabled by AI. This is especially the case for democracies, which depend upon these information spaces for the debate and discourse that form public opinion and confer legitimacy. Who or what institutions should define the technology’s role? Who should regulate it? What roles should be played by the individuals who use AI? The corporations that produce it? The governments of the societies that deploy it? As part of addressing such questions, we should seek ways to make it auditable — that is, to make its processes and conclusions both checkable and correctable. In turn, formulating corrections will depend upon the elaboration of principles responsive to AI’s forms of perception and decision making. Morality, volition, even causality do not map neatly onto a world of autonomous AIs. Versions of such questions arise for most other elements of society, from transportation to finance to medicine.

Consider AI’s impact on social media. Through recent innovations, these platforms have rapidly come to host vital aspects of our communal lives. Twitter and Facebook highlighting, limiting, or outright banning content or individuals — all functions that, as we discussed in chapter 4, depend on AI — are testaments to their power. In particular, democratic nations will be increasingly challenged by the use of AI in the unilateral, often opaque promotion or removal of content and concepts. Will it be possible to retain our agency as our social and political lives increasingly shift into domains curated by AI, domains that we can only navigate through reliance upon that curation?

With the use of AIs to navigate masses of information comes the challenge of distortion — of AIs promoting the world humans instinctively prefer. In this domain, our cognitive biases, which AIs can readily magnify, echo. And with those reverberations, with that multiplicity of choice coupled with the power to select and screen, misinformation proliferates. Social media companies do not run news feeds to promote extreme and violent political polarization. But it is self-evident that these services have not resulted in the maximization of enlightened discourse.

AI, FREE INFORMATION, AND INDEPENDENT THOUGHT

What, then, should our relationship with AI be? Should it be cabined, empowered, or a partner in governing these spaces? That the distribution of certain information — and, even more so, deliberate disinformation — can damage, divide, and incite is beyond dispute. Some limits are needed. Yet the alacrity with which harmful information is now decried, combated, and suppressed should also prompt reflection. In a free society, the definitions of harmful and disinformation should not be the purview of corporations alone. But if they are entrusted to a government panel or agency, that body should operate according to defined public standards and through verifiable processes in order not to be subject to exploitation by those in power. If they are entrusted to an AI algorithm, the objective function, learning, decisions, and actions of that algorithm must be clear and subject to external review and at least some form of human appeal.

Naturally, the answers will vary across societies. Some may emphasize free speech, possibly differently based on their relative understandings of individual expression, and may thus limit AI’s role in moderating content. Each society will choose what it values, perhaps resulting in complex relations with operators of transnational network platforms. AI is porous — it learns from humans, even as we design and shape it. Thus not only will each society’s choices vary, so, too, will each society’s relationship with AI, its perception of AI, and the patterns that its AIs imitate and learn from human teachers. Nevertheless, the quest for facts and truth should not lead societies to experience life through a filter whose contours are undisclosed and untestable. The spontaneous experience of reality, in all its contradictions and complexity, is an important aspect of the human condition — even when it leads to inefficiency or error.

AI AND INTERNATIONAL ORDER

Globally, myriad questions demand answers. How can AI network platforms be regulated without inciting tensions among countries concerned about their security implications? Will such network platforms erode traditional concepts of state sovereignty? Will the resulting changes impose a polarity on the world not known since the collapse of the Soviet Union? Will small nations object? Will efforts to mediate such consequences succeed, or have any hope of success at all?

As AI’s capabilities continue to increase, defining humanity’s role in partnership with it will be ever more important and complicated. One can contemplate a world in which humans defer to AI to an ever-greater degree over issues of ever-increasing magnitude. In a world in which an opponent successfully deploys AI, could leaders defending against it responsibly decide not to deploy their own, even if they were unsure what evolution that deployment would portend? And if the AI possessed a superior ability to recommend a course of action, could policy makers reasonably refuse, even if the course of action entailed sacrifice of some magnitude? For what human could know whether the sacrifice was essential to victory? And if it was, would the policy maker truly wish to gain say it? In other words, we may have no choice but to foster AI. But we also have a duty to shape it in a way that is compatible with a human future.

Imperfection is one of the most enduring aspects of human experience, especially of leadership. Often, policy makers are distracted by parochial concerns. Sometimes, they act on the basis of faulty assumptions. Other times, they act out of pure emotion. Still other times, ideology warps their vision. Whatever strategies emerge to structure the human‑AI partnership, they must accommodate. If AI displays superhuman capabilities in some areas, their use must be assimilable into imperfect human contexts.

In the security realm, AI‑enabled systems will be so responsive that adversaries may attempt to attack before the systems are operational. The result may be an inherently destabilizing situation, comparable to the one created by nuclear weapons. Yet nuclear weapons are situated in an international framework of security and arms-control concepts developed over decades by governments, scientists, strategists, and ethicists, subject to refinement, debate, and negotiation. AI and cyber weapons have no comparable framework. Indeed, governments may be reluctant to acknowledge their existence. Nations — and probably technology companies — need to agree on how they will coexist with weaponized AI.

The diffusion of AI through governments’ defense functions will alter international equilibrium and the calculations that have largely sustained it in our era. Nuclear weapons are costly and, because of their size and structure, difficult to conceal. AI, on the other hand, runs on widely available computers. Because of the expertise and computing resources needed to train machine-learning models, creating an AI requires the resources of large companies or nation-states. Because the application of AIs is conducted on relatively small computers, AI will be broadly available, including in ways not intended. Will AI‑enabled weapons ultimately be available to anyone with a laptop, a connection to the internet, and an ability to navigate its dark elements? Will governments empower loosely affiliated or unaffiliated actors to use AI to harass their opponents? Will terrorists engineer AI attacks? Will they be able to (falsely) attribute them to states or other actors?

Diplomacy, which used to be conducted in an organized, predictable arena, will have vast ranges of both information and operation. The previously sharp lines drawn by geography and language will continue to dissolve. AI translators will facilitate speech, uninsulated by the tempering effect of the cultural familiarity that comes with linguistic study. AI‑enabled network platforms will promote communication across borders. Moreover, hacking and disinformation will continue to distort perception and evaluation. As complexity increases, the formulation of implementable agreements with predictable outcomes will grow more difficult.

The grafting of AI functionality onto cyber weapons deepens this dilemma. Humanity sidestepped the nuclear paradox by sharply distinguishing between conventional forces — deemed reconcilable with traditional strategy — and nuclear weapons, deemed exceptional. Where nuclear weapons applied force bluntly, conventional forces were discriminating. But cyber weapons, which are capable of both discrimination and massive destruction, erase this barrier. As AI is mapped onto them, these weapons become more unpredictable and potentially more destructive. Simultaneously, as they move through networks, these weapons defy attribution. They also defy detection — unlike nuclear weapons, they may be carried on thumb drives — and facilitate diffusion. And in some forms, they can, once deployed, be difficult to control, particularly given AI’s dynamic and emergent nature.

This situation challenges the premise of a rules-based world order. Additionally, it gives rise to an imperative: to develop a concept of arms control for AI. In the age of AI, deterrence will not operate from historical precepts; it will not be able to. At the beginning of the nuclear age, the verities developed in discussions between leading professors (who had government experience) at Harvard, MIT, and Caltech led to a conceptual framework for nuclear arms control that, in turn, contributed to a regime (and, in the United States and other countries, agencies to implement it). While the academics’ thinking was important, it was conducted separately from the Pentagon’s thinking about conventional war — it was an addition, not a modification. But the potential military uses of AI are broader than those of nuclear arms, and the divisions between offense and defense are, at least currently, unclear.

In a world of such complexity and inherent incalculability, where AIs introduce another possible source of misperception and mistake, sooner or later, the great powers that possess high-tech capabilities will have to undertake a permanent dialogue. Such dialogue should be focused on the fundamental: averting catastrophe and, in so doing, surviving.

AI and other emerging technologies (such as quantum computing) seem to be moving humans closer to knowing reality beyond the confines of our own perception. Ultimately, however, we may find that even these technologies have limits. Our problem is that we have not yet grasped their philosophical implications. We are being advanced by them, but automatically rather than consciously. The last time human consciousness was changed significantly — the Enlightenment — the transformation occurred because new technology engendered new philosophical insights, which, in turn, were spread by the technology (in the form of the printing press). In our period, new technology has been developed, but remains in need of a guiding philosophy.

AI is a grand undertaking with profound potential benefits. Humans are developing it, but will we employ it to make our lives better or to make our lives worse? It promises stronger medicines, more efficient and more equitable health care, more sustainable environmental practices, and other advances. Simultaneously, however, it has the capability to distort or, at the very least, compound the complexity of the consumption of information and the identification of truth, leading some people to let their capacities for independent reason and judgment atrophy.

Other countries have made AI a national project. The United States has not yet, as a nation, systematically explored its scope, studied its implications, or begun the process of reconciling with it. The United States must make all these projects national priorities. This process will require people with deep experience in various domains to work together — a process that would greatly benefit from, and perhaps require, the leadership of a small group of respected figures from the highest levels of government, business, and academia.

Such a group or commission should have at least two functions:

1. Nationally, it should ensure that the country remains intellectually and strategically competitive in AI.

2. Both nationally and globally, it should be aware, and raise awareness, of the cultural implications AI produces.

In addition, the group should be prepared to engage with existing national and subnational groups.

We write in the midst of a great endeavor that encompasses all human civilizations — indeed, the entire human species. Its initiators did not necessarily conceive of it as such; their motivation was to solve problems, not to ponder or reshape the human condition. Technology, strategy, and philosophy need to be brought into some alignment, lest one outstrip the others. What about traditional society should we guard? And what about traditional society should we risk in order to achieve a superior one? How can AI’s emergent qualities be integrated into traditional concepts of societal norms and international equilibrium? What other questions should we seek to answer when, for the situation in which we find ourselves, we have no experience or intuition?

Finally, one “meta” question looms: can the need for philosophy be met by humans assisted by AIs, which interpret and thus understand the world differently? Is our destiny one in which humans do not completely understand machines, but make peace with them and, in so doing, change the world?

Immanuel Kant opened the preface to his Critique of Pure Reason with an observation:

Human reason has the peculiar fate in one species of its cognitions that it is burdened with questions which it cannot dismiss, since they are given to it as problems by the nature of reason itself, but which it also cannot answer, since they transcend every capacity of human reason.2

In the centuries since, humanity has probed deeply into these questions, some of which concern the nature of the mind, reason, and reality itself. And humanity has made great breakthroughs. It has also encountered many of the limitations Kant posited — a realm of questions it cannot answer, of facts it cannot know fully.

The advent of AI, with its capacity to learn and process information in ways that human reason alone cannot, may yield progress on questions that have proven beyond our capacity to answer. But success will produce new questions, some of which we have attempted to articulate in this book. Human intelligence and artificial intelligence are meeting, being applied to pursuits on national, continental, and even global scales. Understanding this transition, and developing a guiding ethic for it, will require commitment and insight from many elements of society: scientists and strategists, statesmen and philosophers, clerics and CEOs. This commitment must be made within nations and among them. Now is the time to define both our partnership with artificial intelligence and the reality that will result.


Source:

By Henry A. Kissinger
A World Restored: Metternich, Castlereagh and the Problems of Peace, 1812–22
Nuclear Weapons and Foreign Policy
The Necessity for Choice: Prospects of American Foreign Policy
White House Years
Years of Upheaval
Diplomacy
Years of Renewal
Does America Need a Foreign Policy? Toward a Diplomacy for the 21st Century
Ending the Vietnam War: A History of America’s Involvement in and Extrication from the Vietnam War
Crisis: The Anatomy of Two Major Foreign Policy Crises
On China
World Order
By Eric Schmidt
Trillion Dollar Coach: The Leadership Playbook of Silicon Valley’s Bill Campbell
How Google Works
The New Digital Age: Transforming Nations, Businesses, and Our Lives

هوش مصنوعی و آینده


تغییرات ناشی از پیشرفت در چاپ در اروپای قرن پانزدهم مقایسه ای تاریخی و فلسفی با چالش های عصر هوش مصنوعی ارائه می دهد. در اروپای قرون وسطی، دانش مورد احترام بود، اما کتاب کمیاب بود. نویسندگان منفرد ادبیات یا مجموعه‌ای دایره‌المعارفی از حقایق، افسانه‌ها و آموزه‌های دینی تولید کردند. اما این کتاب‌ها گنجینه‌ای بود که به عده معدودی سپرده شد. بیشتر تجربیات زندگی می شد و بیشتر دانش به صورت شفاهی منتقل می شد.

در سال 1450، یوهانس گوتنبرگ، یک زرگر در شهر ماینتس آلمان، از پول قرض گرفته شده برای تامین هزینه ساخت یک ماشین چاپ آزمایشی استفاده کرد. تلاش او به سختی موفقیت آمیز بود - تجارت او به هم خورد و طلبکارانش شکایت کردند - اما در سال 1455، کتاب مقدس گوتنبرگ، اولین کتاب چاپ شده اروپا، ظاهر شد. در نهایت، چاپخانه او انقلابی را به وجود آورد که در تمام حوزه های زندگی غربی و در نهایت جهانی طنین انداز شد. تا سال 1500، تخمین زده می‌شود که نه میلیون کتاب چاپی در اروپا منتشر شد و قیمت هر کتاب به شدت کاهش یافت. نه تنها کتاب مقدس به طور گسترده به زبان‌های زندگی روزمره (به جای لاتین) توزیع شد، بلکه آثار نویسندگان کلاسیک در زمینه‌های تاریخ، ادبیات، دستور زبان و منطق نیز شروع به تکثیر کردند.

قبل از ظهور کتاب چاپی، اروپاییان قرون وسطی عمدتاً از طریق سنت‌های جامعه به دانش دسترسی داشتند - شرکت در دوره‌های برداشت و فصلی، با انباشت خرد عامیانه. عمل به ایمان و ادای مقدسات آن در اماکن عبادت; پیوستن به یک صنف، یادگیری فنون آن و پذیرفته شدن در شبکه های تخصصی آن. هنگامی که اطلاعات جدیدی به دست می آمد یا ایده های جدیدی پدید می آمد (اخبار از خارج از کشور، اختراع کشاورزی یا مکانیکی بدیع، تفاسیر الهیات بدیع)، یا به صورت شفاهی از طریق یک جامعه یا به صورت دستی از طریق نسخه های خطی دستی منتقل می شد.

با گسترش گسترده کتاب های چاپی، رابطه بین افراد و دانش تغییر کرد. اطلاعات و ایده های جدید می توانند به سرعت از طریق کانال های متنوع تر منتشر شوند. افراد می توانند به دنبال اطلاعات مفید برای تلاش های خاص خود باشند و آن را به خود آموزش دهند. با بررسی متون منبع، آنها می توانند حقایق پذیرفته شده را بررسی کنند. کسانی که اعتقادات قوی دارند و به منابع متوسط یا حامی دسترسی دارند، می توانند بینش و تفاسیر خود را منتشر کنند. پیشرفت در علوم و ریاضیات می تواند به سرعت در مقیاس قاره منتقل شود. مبادله جزوات به روشی پذیرفته شده برای منازعات سیاسی تبدیل شد که با منازعات الهیاتی در هم آمیخته شد. ایده‌های جدید گسترش یافتند، که غالباً نظم‌های مستقر را سرنگون می‌کردند یا اساساً تغییر شکل می‌دادند، که منجر به انطباق دین (اصلاح‌طلب)، انقلاب‌هایی در سیاست (تعدیل مفهوم حاکمیت ملی)، و درک‌های جدید در علوم (تعریف مجدد مفهوم واقعیت) شد.

امروز عصر جدیدی فرا می رسد. در آن، یک بار دیگر، فناوری دانش، اکتشاف، ارتباطات و تفکر فردی را متحول خواهد کرد. هوش مصنوعی انسان نیست. امید، دعا و احساس ندارد. همچنین توانایی آگاهی یا انعکاس ندارد. این یک خلقت انسانی است که فرآیندهای طراحی شده توسط انسان را بر روی ماشین های ساخته شده توسط انسان منعکس می کند. با این حال، در برخی موارد، در مقیاس و سرعت فوق‌العاده، نتایجی به دست می‌آورد که تقریباً به نتایجی نزدیک می‌شود که تاکنون تنها از طریق عقل بشری به دست آمده است. گاهی اوقات، نتایج آن شگفت انگیز است. در نتیجه، ممکن است جنبه هایی از واقعیت را دراماتیک تر از هر چیزی که تا به حال به آن فکر کرده ایم، نشان دهد. افراد و جوامعی که هوش مصنوعی را به‌عنوان شریکی برای تقویت مهارت‌ها یا دنبال کردن ایده‌ها به کار می‌گیرند، ممکن است قادر به شاهکارهایی - علمی، پزشکی، نظامی، سیاسی و اجتماعی - باشند که دوره‌های قبل را تحت الشعاع قرار می‌دهد. با این حال، هنگامی که ماشین‌های تقریب‌کننده هوش انسانی به عنوان کلیدی برای تولید نتایج بهتر و سریع‌تر در نظر گرفته می‌شوند، عقل به تنهایی ممکن است قدیمی به نظر برسد. پس از تعریف یک دوره، ممکن است به کارگیری خرد فردی انسانی اهمیت خود را تغییر دهد.

انقلاب چاپ در اروپای قرن پانزدهم ایده‌ها و گفتمان جدیدی را ایجاد کرد که هم شیوه‌های تثبیت شده زندگی را مختل و هم غنی‌تر کرد. انقلاب هوش مصنوعی می‌خواهد چیزی مشابه انجام دهد: دسترسی به اطلاعات جدید، ایجاد پیشرفت‌های علمی و اقتصادی بزرگ، و با انجام این کار، تغییر جهان. اما تعیین تأثیر آن بر گفتمان دشوار خواهد بود. هوش مصنوعی با کمک به بشریت برای هدایت کلیت اطلاعات دیجیتال، چشم اندازهای بی‌سابقه‌ای از دانش و درک را باز خواهد کرد. از سوی دیگر، کشف الگوهای آن در انبوه داده‌ها ممکن است مجموعه‌ای از اصولی را ایجاد کند که به‌عنوان ارتدکس در سراسر پلتفرم‌های شبکه‌های قاره‌ای و جهانی پذیرفته شوند. این، به نوبه خود، ممکن است ظرفیت انسان را برای تحقیق شک‌آمیز که دوران کنونی را تعریف کرده است، کاهش دهد. علاوه بر این، ممکن است جوامع خاص و جوامع پلت فرم شبکه را به شاخه های مجزا و متناقض واقعیت هدایت کند.

هوش مصنوعی ممکن است بهتر باشد یا - اگر به اشتباه به کار گرفته شود - بشریت را بدتر کند، اما واقعیت صرف وجود آن به چالش می کشد و در برخی موارد، از فرضیات اساسی فراتر می رود. تا حالا انسان

به تنهایی درک خود از واقعیت را توسعه دادند، ظرفیتی که جایگاه ما را در جهان و رابطه با آن را مشخص کرد. از این رو، ما فلسفه های خود را شرح می دهیم، دولت ها و استراتژی های نظامی خود را طراحی می کنیم و دستورات اخلاقی خود را توسعه می دهیم. اکنون هوش مصنوعی نشان داده است که واقعیت ممکن است به روش‌های مختلف، شاید به روش‌های پیچیده‌تر، نسبت به آنچه که تنها توسط انسان‌ها درک شده است، شناخته شود. گاهی اوقات، دستاوردهای آن ممکن است به اندازه دستاوردهای تأثیرگذارترین متفکران بشری در دوران اوج خود شگفت‌انگیز و گمراه‌کننده باشد - که پیچ‌هایی از بینش و چالش‌هایی را برای مفاهیم تثبیت‌شده ایجاد می‌کند، که همه آنها نیاز به محاسبه دارند. حتی بیشتر اوقات، هوش مصنوعی نامرئی خواهد بود، در امور پیش پا افتاده تعبیه شده است و به شکلی نامحسوس تجربیات ما را به روش هایی که ما به طور شهودی مناسب می دانیم شکل می دهد.

ما باید بدانیم که دستاوردهای هوش مصنوعی، در چارچوب پارامترهای تعریف شده آن، گاهی اوقات در کنار دستاوردهای منابع انسانی قرار می گیرند یا حتی از آنها پیشی می گیرند. ممکن است با تکرار اینکه هوش مصنوعی مصنوعی است، خودمان را راحت کنیم و با تجربه آگاهانه ما از واقعیت مطابقت نداشته باشد یا نمی تواند. اما وقتی با برخی از دستاوردهای هوش مصنوعی روبرو می شویم - شاهکارهای منطقی، پیشرفت های فنی، بینش های استراتژیک، و مدیریت پیچیده سیستم های بزرگ و پیچیده - بدیهی است که در حضور یک تجربه دیگر از واقعیت توسط یک موجود پیچیده دیگر هستیم.

با دسترسی به هوش مصنوعی، افق های جدیدی در برابر ما باز می شود. پیش از این، محدودیت های ذهن ما توانایی ما را برای جمع آوری و تجزیه و تحلیل داده ها، فیلتر کردن و پردازش اخبار و مکالمات، و تعامل اجتماعی در حوزه دیجیتال محدود می کرد. هوش مصنوعی به ما این امکان را می دهد که به طور مؤثرتری در این قلمروها حرکت کنیم. اطلاعاتی را پیدا می‌کند و روندهایی را که الگوریتم‌های سنتی نمی‌توانستند - یا حداقل با ظرافت و کارایی یکسان - شناسایی می‌کند. با انجام این کار، نه تنها واقعیت فیزیکی را گسترش می دهد، بلکه امکان گسترش و سازماندهی دنیای دیجیتال در حال رشد را نیز فراهم می کند.

با این حال، در همان زمان، AI کم می کند. پویایی هایی را تسریع می بخشد که عقل انسان را همانطور که ما درک کرده ایم از بین می برد: رسانه های اجتماعی که فضای تفکر را کاهش می دهد و جستجوی آنلاین که انگیزه مفهوم سازی را کاهش می دهد. الگوریتم‌های قبل از هوش مصنوعی در ارائه محتوای «اعتیادآور» به انسان خوب بودند. هوش مصنوعی در آن عالی است. همانطور که خواندن و تجزیه و تحلیل عمیق قرارداد می شود، پاداش های سنتی برای انجام این فرآیندها نیز انجام می شود. با افزایش هزینه انصراف از دامنه دیجیتال، توانایی آن برای تاثیرگذاری بر افکار انسان - متقاعد کردن، هدایت کردن، منحرف کردن - افزایش می یابد. در نتیجه، نقش فردی انسان در بررسی، آزمایش و درک اطلاعات کاهش می یابد. در جای خود، نقش هوش مصنوعی گسترش می یابد.

رمانتیک ها اظهار داشتند که احساسات انسانی منبع معتبر و در واقع مهمی از اطلاعات است. آنها استدلال کردند که یک تجربه ذهنی خود نوعی حقیقت است. پست مدرنیست ها منطق رمانتیک ها را یک قدم جلوتر بردند و امکان تشخیص واقعیت عینی را از طریق فیلتر تجربه ذهنی زیر سوال بردند. هوش مصنوعی این سوال را بسیار فراتر خواهد برد، اما با نتایج متناقض. این الگوهای عمیق را اسکن می کند و حقایق عینی جدید را فاش می کند - تشخیص های پزشکی، علائم اولیه بلایای صنعتی یا زیست محیطی، تهدیدات امنیتی در حال ظهور. با این حال، در دنیای رسانه، سیاست، گفتمان و سرگرمی، هوش مصنوعی اطلاعات را به گونه‌ای تغییر شکل می‌دهد که با ترجیحات ما مطابقت داشته باشد - به طور بالقوه تأیید و تعمیق تعصبات و در انجام این کار، محدود کردن دسترسی و توافق بر روی یک حقیقت عینی. بنابراین، در عصر هوش مصنوعی، عقل انسانی خود را هم تقویت شده و هم کاهش می یابد.

همانطور که هوش مصنوعی در تار و پود وجود روزانه تنیده می شود، آن هستی را گسترش می دهد و آن را متحول می کند، بشریت انگیزه های متناقضی خواهد داشت. در مواجهه با فناوری هایی فراتر از درک افراد غیرمتخصص، برخی ممکن است وسوسه شوند که اظهارات هوش مصنوعی را به عنوان قضاوت های شبه الهی تلقی کنند. چنین انگیزه‌هایی، اگرچه نادرست هستند، اما فاقد حس هستند. در دنیایی که هوشی فراتر از درک یا کنترل فرد، نتایج مفید اما بیگانه را به دست می‌آورد، آیا احمقانه است که در برابر قضاوت‌های آن چشم پوشی کنیم؟ با تحریک این منطق، ممکن است یک جادوی دوباره جهان رخ دهد، که در آن هوش مصنوعی برای بیان سخنانی که برخی از انسان ها بدون هیچ سوالی به آن تکیه میکنند، تکیه می کنند. به خصوص در مورد AGI (هوش عمومی مصنوعی)، افراد ممکن است هوش خداگونه را درک کنند - روشی مافوق بشری برای شناخت جهان و شهود ساختارها و امکانات آن.

اما احترام دامنه و مقیاس عقل بشری را از بین می برد و بنابراین احتمالاً واکنش های منفی را برانگیخته است. درست همانطور که برخی از رسانه‌های اجتماعی منصرف می‌شوند، زمان تماشای صفحه نمایش را برای کودکان محدود می‌کنند و غذاهای اصلاح‌شده ژنتیکی را رد می‌کنند، برخی نیز تلاش می‌کنند از «دنیای هوش مصنوعی» کناره‌گیری کنند یا قرار گرفتن در معرض سیستم‌های هوش مصنوعی را محدود کنند تا فضا را برای آنها حفظ کنند. دلیل آنها در کشورهای لیبرال، چنین انتخاب هایی ممکن است حداقل در سطح فرد یا خانواده امکان پذیر باشد. اما آنها بدون هزینه نخواهند بود. امتناع از استفاده از هوش مصنوعی نه تنها به معنای انصراف از امکانات رفاهی مانند توصیه‌های خودکار فیلم و مسیرهای رانندگی است، بلکه به معنای پشت سر گذاشتن فضای وسیعی است.

حوزه های داده، پلتفرم های شبکه و پیشرفت در زمینه ها از مراقبت های بهداشتی تا مالی.

در سطح تمدن، چشم پوشی از هوش مصنوعی غیر ممکن خواهد بود. رهبران باید با پیامدهای این فناوری روبرو شوند که مسئولیت قابل توجهی برای کاربرد آن بر عهده دارند.

نیاز به اخلاقی که عصر هوش مصنوعی را درک کند و حتی آن را هدایت کند بسیار مهم است. اما نمیتوان آن را به یک رشته یا رشته سپرد. دانشمندان کامپیوتر و رهبران تجاری که در حال توسعه فناوری هستند، استراتژیست های نظامی که به دنبال استقرار آن هستند، رهبران سیاسی که به دنبال شکل دادن به آن هستند، و فیلسوفان و الهیاتی که به دنبال بررسی معانی عمیق تر آن هستند، همگی تکه هایی از تصویر را می بینند. همه باید در تبادل نظری که بر اساس پیش فرض ها شکل نمی گیرد، شرکت کنند.

در هر مرحله، بشریت سه گزینه اصلی خواهد داشت: محدود کردن هوش مصنوعی، مشارکت با آن، یا به تعویق انداختن آن. این انتخاب‌ها کاربرد هوش مصنوعی را برای وظایف یا حوزه‌های خاص مشخص می‌کند که ابعاد فلسفی و عملی را منعکس می‌کند. به عنوان مثال، در شرایط اضطراری خطوط هوایی و خودرویی، آیا خلبان هوش مصنوعی باید به یک انسان موکول شود؟ یا برعکس؟ برای هر برنامه، انسان ها باید یک مسیر را ترسیم کنند. در برخی موارد، این دوره تکامل می یابد، زیرا قابلیت های هوش مصنوعی و پروتکل های انسانی برای آزمایش نتایج هوش مصنوعی نیز تکامل می یابد. گاهی اوقات احترام مناسب خواهد بود - اگر هوش مصنوعی بتواند سرطان سینه را در ماموگرافی زودتر و با دقت بیشتری نسبت به انسان تشخیص دهد، استفاده از آن باعث نجات جان افراد می شود. گاهی اوقات شراکت بهترین است، مانند وسایل نقلیه خودران که مانند خلبانان خودکار هواپیماهای امروزی عمل می کنند. اگرچه در زمان‌های دیگر - مانند زمینه‌های نظامی - محدودیت‌های دقیق، کاملاً تعریف‌شده و به خوبی درک شده حیاتی خواهد بود.

هوش مصنوعی رویکرد ما را به آنچه می دانیم، چگونه می دانیم و حتی آنچه که قابل دانستن است تغییر می دهد. دوران مدرن دانشی را که ذهن انسان از طریق جمع آوری و بررسی داده ها و استنباط بینش ها از طریق مشاهدات به دست می آورد، ارزشمند دانسته است. در این عصر، نوع ایده‌آل حقیقت، گزاره‌ی منفرد و قابل تأیید است که از طریق آزمایش قابل اثبات است. اما عصر هوش مصنوعی مفهومی از دانش را ارتقا خواهد داد که نتیجه مشارکت انسان و ماشین است. ما (انسان ها) با هم الگوریتم هایی (رایانه ای) ایجاد و اجرا خواهیم کرد که داده های بیشتری را سریع تر، سیستماتیک تر و با منطقی متفاوت از ذهن هر انسانی بررسی می کند. گاهی اوقات، نتیجه آشکار شدن ویژگی‌هایی از جهان خواهد بود که فراتر از تصور ما بودند - تا زمانی که با ماشین‌ها همکاری کردیم.

هوش مصنوعی در حال حاضر فراتر از ادراک انسان است - به یک معنا، از طریق فشرده سازی زمانی یا "سفر در زمان": با استفاده از الگوریتم ها و قدرت محاسباتی فعال می شود، آن را تجزیه و تحلیل می کند و از طریق فرآیندهایی می آموزد که برای تکمیل ذهن انسان دهه ها یا حتی قرن ها طول می کشد. از جنبه های دیگر، زمان و قدرت محاسباتی به تنهایی آنچه را که هوش مصنوعی انجام می دهد توصیف نمی کند.

هوش عمومی مصنوعی

آیا انسان‌ها و هوش مصنوعی از دیدگاه‌های متفاوت و با نقاط قوت مکمل به واقعیت یکسانی نزدیک می‌شوند؟ یا آیا ما دو واقعیت متفاوت و تا حدی همپوشانی را درک می کنیم: یکی که انسان ها می توانند از طریق عقل شرح دهند و دیگری که هوش مصنوعی می تواند از طریق الگوریتم ها به تفصیل بپردازد؟ اگر اینطور باشد، پس هوش مصنوعی چیزهایی را درک می‌کند که ما نمی‌توانیم و نمی‌توانیم - نه صرفاً به این دلیل که زمان کافی برای استدلال کردن به آنها را نداریم، بلکه به این دلیل که آنها در قلمرویی وجود دارند که ذهن ما نمی‌تواند آن‌ها را مفهوم‌سازی کند. تلاش انسان برای شناخت کامل جهان متحول خواهد شد - با این درک آزاردهنده که برای دستیابی به دانش خاصی ممکن است نیاز داشته باشیم که هوش مصنوعی را به دست آوریم تا آن را برای ما به دست آورده و گزارشی را ارائه دهیم. در هر صورت، از آنجایی که هوش مصنوعی به طور تدریجی اهداف کامل تر و گسترده تر را دنبال می کند، به طور فزاینده ای برای انسان ها به عنوان یک "وجود" در حال تجربه و شناخت جهان - ترکیبی از ابزار، حیوان خانگی و ذهن ظاهر می شود.

این معما تنها زمانی عمیق تر می شود که محققان به AGI نزدیک شوند یا به آن دست یابند. همانطور که در فصل 3 نوشتیم، AGI به یادگیری و اجرای وظایف خاص محدود نخواهد شد. در عوض، طبق تعریف، AGI قادر خواهد بود طیف وسیعی از وظایف را یاد بگیرد و اجرا کند، بسیار شبیه به آنهایی که انسان ها انجام می دهند. توسعه AGI به قدرت محاسباتی عظیمی نیاز دارد که احتمالاً منجر به ایجاد آن توسط تنها چند سازمان با بودجه خوب می شود. مانند هوش مصنوعی فعلی، اگرچه AGI ممکن است به راحتی قابل توزیع باشد، با توجه به ظرفیت های آن، برنامه های کاربردی آن باید محدود شوند. محدودیت‌ها را می‌توان تنها با اجازه دادن به سازمان‌های تایید شده برای بهره‌برداری از آن اعمال کرد. سپس سؤالات تبدیل می شوند: چه کسی AGI را کنترل می کند؟ چه کسی اجازه دسترسی به آن را می دهد؟ آیا دموکراسی در دنیایی امکان پذیر است که در آن چند ماشین «نابغه» توسط تعداد کمی از سازمان ها اداره می شود؟ در این شرایط، مشارکت با هوش مصنوعی چگونه است؟

اگر ظهور AGI رخ دهد، یک دستاورد فکری، علمی و استراتژیک خواهد بود. اما لزومی ندارد که هوش مصنوعی منادی انقلابی در امور انسانی باشد.

پویایی و ظرفیت هوش مصنوعی برای اقدامات و راه حل های اضطراری - به عبارت دیگر، غیرمنتظره - آن را از فناوری های قبلی متمایز می کند. بدون نظارت و نظارت، هوش مصنوعی می تواند از انتظارات ما متفاوت باشد

و در نتیجه، نیات ما. تصمیم برای محدود کردن، شریک شدن یا به تعویق انداختن آن تنها توسط انسان ها گرفته نمی شود. در برخی موارد، توسط خود هوش مصنوعی دیکته می شود. در برخی دیگر، توسط نیروهای کمکی. بشریت ممکن است در مسابقه ای تا ته درگیر شود. از آنجایی که هوش مصنوعی فرآیندها را خودکار می‌کند، به انسان‌ها اجازه می‌دهد تا حجم وسیعی از داده‌ها را بررسی کنند، و جهان فیزیکی و اجتماعی را سازماندهی و سازماندهی مجدد می‌کند، ممکن است مزیت‌هایی نصیب کسانی شود که ابتدا حرکت می‌کنند. رقابت می تواند استقرار AGI را بدون زمان کافی برای ارزیابی خطرات - یا در نظر گرفتن آنها مجبور کند.

اخلاق هوش مصنوعی ضروری است. هر تصمیم فردی - برای محدود کردن، شریک کردن، یا به تعویق انداختن - ممکن است پیامدهای چشمگیری داشته باشد یا نداشته باشد، اما در مجموع، آنها بزرگتر خواهند شد. آنها را نمی توان در انزوا ساخت. اگر بشریت بخواهد آینده را شکل دهد، باید روی اصول مشترکی که هر انتخابی را هدایت می کند، توافق کند. دستیابی به اقدام جمعی سخت و گاهی غیر ممکن خواهد بود، اما اقدامات فردی، بدون اخلاق مشترک برای هدایت آنها، تنها بی ثباتی را تشدید می کند.

کسانی که با هوش مصنوعی طراحی، آموزش می‌دهند و با آن شریک می‌شوند، می‌توانند به اهدافی در مقیاس و سطح پیچیدگی دست یابند که تاکنون از بشریت دور بوده است - پیشرفت‌های علمی جدید، کارایی‌های اقتصادی جدید، اشکال جدید امنیت و ابعاد جدید اجتماعی. نظارت و کنترل کسانی که در فرآیند گسترش هوش مصنوعی و کاربردهای آن چنین آژانسی ندارند، ممکن است احساس کنند که توسط چیزی که نمی‌فهمند و طراحی یا انتخاب نکرده‌اند، تحت نظر هستند، مورد مطالعه قرار می‌گیرند و بر اساس آن عمل می‌کنند - نیرویی که با کدورتی که در بسیاری از جوامع با بازیگران یا نهادهای انسانی متعارف تحمل نمی شود. طراحان و توسعه دهندگان هوش مصنوعی باید آماده باشند تا به این نگرانی ها رسیدگی کنند – مهمتر از همه، با توضیح دادن به غیر تکنولوژیست ها که هوش مصنوعی چه کاری انجام می دهد، و همچنین اینکه چه چیزی "می داند" و چگونه است.

ویژگی های پویا و نوظهور هوش مصنوعی حداقل از دو جنبه ابهام ایجاد می کند. اول، هوش مصنوعی ممکن است همانطور که ما انتظار داریم عمل کند، اما نتایجی را ایجاد کند که ما پیش بینی نمی کنیم. با این نتایج، ممکن است بشریت را به جایی برساند که سازندگانش پیش بینی نکرده بودند. درست مانند دولتمردان 1914 که درک نکردند که منطق قدیمی بسیج نظامی، همراه با فناوری جدید، اروپا را به جنگ می کشاند، استقرار هوش مصنوعی بدون بررسی دقیق ممکن است عواقب جدی داشته باشد. اینها ممکن است موضعی باشند، مانند یک خودروی خودران که یک تصمیم تهدید کننده زندگی می گیرد، یا مهم، مانند یک درگیری نظامی مهم. دوم، در برخی از برنامه‌ها، هوش مصنوعی ممکن است غیرقابل پیش‌بینی باشد و اقدامات آن کاملاً غافلگیرکننده باشد. AlphaZero را در نظر بگیرید، که در پاسخ به دستورالعمل "برنده شدن در شطرنج"، سبکی از بازی را توسعه داد که در تاریخ هزاران ساله بازی، بشر هرگز تصور نکرده بود. در حالی که انسان‌ها ممکن است اهداف هوش مصنوعی را با دقت مشخص کنند، از آنجایی که ما به آن عرض جغرافیایی وسیع‌تری می‌دهیم، مسیرهایی که هوش مصنوعی برای دستیابی به اهداف خود طی می‌کند ممکن است ما را غافلگیر کند یا حتی ما را نگران کند.

بر این اساس، اهداف و مجوزهای هوش مصنوعی باید با دقت طراحی شوند، به ویژه در زمینه هایی که تصمیمات آن می تواند کشنده باشد. هوش مصنوعی نباید به صورت خودکار در نظر گرفته شود. همچنین نباید مجاز به انجام اقدامات غیرقابل برگشت بدون نظارت، نظارت یا کنترل مستقیم انسانی باشد. هوش مصنوعی که توسط انسان ها ایجاد شده است باید توسط انسان ها نظارت شود. اما در زمان ما، یکی از چالش های هوش مصنوعی این است که مهارت ها و منابع مورد نیاز برای ایجاد آن به طور اجتناب ناپذیری با دیدگاه فلسفی برای درک مفاهیم گسترده تر آن همراه نیستند. بسیاری از سازندگان آن عمدتاً نگران برنامه‌هایی هستند که می‌خواهند فعال کنند و مشکلاتی را که به دنبال حل آنها هستند: آنها ممکن است برای بررسی اینکه آیا راه‌حل ممکن است انقلابی با ابعاد تاریخی ایجاد کند یا اینکه فناوری آنها بر گروه‌های مختلف مردم تأثیر می‌گذارد مکث نکنند. عصر هوش مصنوعی به دکارت خود، کانت خود نیاز دارد تا توضیح دهد که چه چیزی در حال خلقت است و چه معنایی برای بشریت خواهد داشت.

بحث و مذاکره مستدل که شامل دولت‌ها، دانشگاه‌ها و مبتکران بخش خصوصی می‌شود، باید با هدف ایجاد محدودیت‌هایی برای اقدامات عملی - مانند مواردی که بر اعمال مردم و سازمان‌های امروزی حاکم است، باشد. هوش مصنوعی ویژگی‌های برخی از محصولات، خدمات، فناوری‌ها و نهادهای تحت نظارت را به اشتراک می‌گذارد، اما از جنبه‌های حیاتی از آنها متمایز است و چارچوب مفهومی و قانونی کاملاً تعریف‌شده‌ای ندارد. برای مثال، ویژگی‌های در حال تکامل و ظهور هوش مصنوعی چالش‌های نظارتی ایجاد می‌کند: اینکه چه چیزی و چگونه در جهان عمل می‌کند ممکن است در زمینه‌ها متفاوت باشد و در طول زمان تکامل یابد - و نه همیشه به روش‌های قابل پیش‌بینی. حکومت مردم بر اساس یک اخلاق هدایت می شود. هوش مصنوعی یک اخلاق خاص خود را التماس می کند - اخلاقی که نه تنها ماهیت فناوری، بلکه چالش های ناشی از آن را نیز منعکس می کند.

اغلب، اصول موجود اعمال نخواهد شد. در عصر ایمان، دادگاه‌ها در جریان مصیبت‌هایی که متهم با محاکمه از طریق جنگ مواجه می‌شد و اعتقاد بر این بود که خداوند پیروزی را حکم می‌کند، گناه را تعیین می‌کردند. در عصر عقل، بشریت بر اساس احکام عقل، تقصیر و تعیین مجرمیت و مجازات را منطبق با مفاهیمی مانند علیت و من تعیین می کرد.

نیت اما هوش مصنوعی بر اساس عقل انسانی عمل نمی‌کند و انگیزه، قصد یا خود انعکاسی نیز ندارد. بر این اساس، معرفی آنها اصول موجود عدالت را که در مورد انسان اعمال می شود، پیچیده می کند. وقتی یک سیستم خودمختار بر اساس برداشت ها و تصمیمات خود عمل می کند، آیا خالق آن مسئولیت دارد؟ یا اینکه این واقعیت که هوش مصنوعی عمل کرده است، حداقل از نظر گناه، آن را از خالق خود جدا می کند؟ اگر هوش مصنوعی برای نظارت بر نشانه‌های تخلف مجرمانه یا کمک به قضاوت‌های بی‌گناهی و گناه استخدام شده است، آیا هوش مصنوعی باید بتواند «توضیح دهد» که چگونه به نتایج خود رسیده است تا مقامات انسانی آن‌ها را اتخاذ کنند؟

در چه مقطعی و در چه زمینه‌هایی در تکامل فناوری باید تحت محدودیت‌های مورد مذاکره بین‌المللی قرار گیرد، یکی دیگر از موضوعات اساسی بحث است. اگر خیلی زود تلاش شود، ممکن است فناوری متوقف شود، یا ممکن است انگیزه هایی برای پنهان کردن قابلیت های آن وجود داشته باشد. اگر بیش از حد به تاخیر بیفتد، ممکن است عواقب مخربی داشته باشد، به ویژه در زمینه های نظامی. این چالش با دشواری طراحی رژیم‌های راستی‌آزمایی مؤثر برای فناوری‌ای که اثیری، غیرشفاف و به راحتی توزیع می‌شود، تشدید می‌شود. مذاکره کنندگان رسمی به ناچار دولت ها خواهند بود. اما باید تالارهایی برای فن‌آوران، متخصصان اخلاق، شرکت‌هایی که هوش مصنوعی ایجاد و اجرا می‌کنند و سایرین فراتر از این زمینه‌ها ایجاد شود.

برای جوامع، معضلاتی که هوش مصنوعی ایجاد می کند بسیار عمیق است. بسیاری از زندگی اجتماعی و سیاسی ما اکنون بر روی پلتفرم های شبکه فعال شده توسط هوش مصنوعی رخ می دهد. این امر به ویژه در مورد دموکراسی ها صادق است، که برای بحث و گفتمان که افکار عمومی را تشکیل می دهد و مشروعیت می بخشد، به این فضاهای اطلاعاتی وابسته هستند. چه کسی یا چه نهادهایی باید نقش فناوری را تعریف کنند؟ چه کسی باید آن را تنظیم کند؟ افرادی که از هوش مصنوعی استفاده می کنند چه نقش هایی باید ایفا کنند؟ شرکت هایی که آن را تولید می کنند؟ دولت های جوامعی که آن را مستقر می کنند؟ به عنوان بخشی از پرداختن به چنین سؤالاتی، ما باید به دنبال راه هایی باشیم که آن را قابل حسابرسی کنیم - یعنی فرآیندها و نتیجه گیری های آن را هم قابل بررسی و هم قابل اصلاح کنیم. به نوبه خود، تدوین اصلاحات به شرح اصولی بستگی دارد که به اشکال ادراک و تصمیم گیری هوش مصنوعی پاسخ می دهند. اخلاق، اراده، و حتی علیت به طور دقیق در دنیای هوش مصنوعی مستقل نقشی ندارند. نسخه هایی از چنین سؤالاتی برای اکثر عناصر دیگر جامعه، از حمل و نقل گرفته تا امور مالی و پزشکی، مطرح می شود.

تاثیر هوش مصنوعی بر رسانه های اجتماعی را در نظر بگیرید. از طریق نوآوری های اخیر، این پلتفرم ها به سرعت میزبان جنبه های حیاتی زندگی مشترک ما هستند. برجسته کردن، محدود کردن یا ممنوع کردن کامل محتوا یا افراد در توییتر و فیس بوک - همه عملکردهایی که همانطور که در فصل 4 بحث کردیم، به هوش مصنوعی بستگی دارند - گواهی بر قدرت آنهاست. به ویژه، کشورهای دموکراتیک به طور فزاینده ای با استفاده از هوش مصنوعی در ترویج یا حذف یکجانبه و اغلب مبهم محتوا و مفاهیم به چالش کشیده خواهند شد. آیا می‌توان عاملیت خود را حفظ کرد زیرا زندگی اجتماعی و سیاسی ما به طور فزاینده‌ای به حوزه‌هایی تغییر می‌کند که توسط هوش مصنوعی مدیریت می‌شوند، حوزه‌هایی که ما فقط می‌توانیم از طریق اتکا به آن سرپرستی حرکت کنیم؟

با استفاده از هوش مصنوعی برای هدایت انبوه اطلاعات، چالش تحریف ایجاد می شود - هوش مصنوعی دنیایی را که انسان ها به طور غریزی ترجیح می دهند، تبلیغ می کنند. در این حوزه، سوگیری‌های شناختی ما، که هوش مصنوعی می‌تواند به راحتی آن‌ها را بزرگ‌نمایی کند، بازتاب می‌یابد. و با آن طنین ها، با این کثرت انتخاب همراه با قدرت انتخاب و غربالگری، اطلاعات نادرست زیاد می شود. شرکت‌های رسانه‌های اجتماعی برای ترویج دو قطبی‌سازی شدید و خشونت‌آمیز سیاسی، فیدهای خبری راه‌اندازی نمی‌کنند. اما بدیهی است که این خدمات منجر به حداکثر سازی گفتمان روشنگرانه نشده است.

هوش مصنوعی، اطلاعات رایگان، و فکر مستقل

پس رابطه ما با هوش مصنوعی چگونه باید باشد؟ آیا باید کابینه، توانمند یا شریک در اداره این فضاها باشد؟ اینکه توزیع برخی اطلاعات - و حتی بیشتر از آن، اطلاعات نادرست عمدی - می تواند آسیب، تقسیم و تحریک کند، قابل بحث نیست. برخی محدودیت ها مورد نیاز است. با این حال، شهوتی که با آن اطلاعات مضر در حال حاضر مورد تقبیح، مبارزه و سرکوب قرار می‌گیرند نیز باید تأملی را برانگیزد. در یک جامعه آزاد، تعاریف مضر و اطلاعات نادرست نباید تنها در اختیار شرکت ها باشد. اما اگر آنها به یک هیئت یا سازمان دولتی سپرده شوند، آن نهاد باید طبق استانداردهای عمومی تعریف شده و از طریق فرآیندهای قابل تأیید عمل کند تا در معرض استثمار صاحبان قدرت قرار نگیرد. اگر آنها به یک الگوریتم هوش مصنوعی سپرده شوند، عملکرد هدف، یادگیری، تصمیم‌گیری‌ها و اقدامات آن الگوریتم باید واضح و مشمول بازبینی خارجی و حداقل نوعی جذابیت انسانی باشد.

به طور طبیعی، پاسخ ها در جوامع مختلف متفاوت خواهد بود. برخی ممکن است بر آزادی بیان تأکید کنند، احتمالاً بر اساس درک نسبی آنها از بیان فردی، و بنابراین ممکن است نقش هوش مصنوعی در تعدیل محتوا را محدود کنند. هر جامعه چیزی را که برایش ارزش قائل است انتخاب می کند، که شاید منجر به روابط پیچیده با اپراتورهای پلت فرم های شبکه فراملی شود. هوش مصنوعی

متخلخل است - حتی زمانی که ما آن را طراحی و شکل میدهیم، از انسان یاد می گیرد. بنابراین نه تنها انتخاب های هر جامعه متفاوت است، بلکه رابطه هر جامعه با هوش مصنوعی، درک آن از هوش مصنوعی و الگوهایی که هوش مصنوعی آن از معلمان انسانی تقلید می کند و می آموزد نیز متفاوت خواهد بود. با این وجود، جست‌وجوی حقایق و حقیقت نباید جوامع را به تجربه زندگی از طریق فیلتری سوق دهد که خطوط آن فاش نشده و آزمایش‌ناپذیر است. تجربه خود به خودی واقعیت، با تمام تناقضات و پیچیدگی هایش، جنبه مهمی از شرایط انسانی است - حتی زمانی که منجر به ناکارآمدی یا خطا شود.

هوش مصنوعی و نظم بین المللی

در سطح جهانی، سوالات بی شماری نیازمند پاسخ هستند. چگونه می توان پلتفرم های شبکه هوش مصنوعی را بدون ایجاد تنش در میان کشورهایی که نگران پیامدهای امنیتی آنها هستند، تنظیم کرد؟ آیا چنین بسترهای شبکه ای مفاهیم سنتی حاکمیت دولت را از بین خواهند برد؟ آیا تغییرات حاصل قطبی را بر جهان تحمیل خواهد کرد که از زمان فروپاشی اتحاد جماهیر شوروی شناخته نشده است؟ آیا کشورهای کوچک مخالفت خواهند کرد؟ آیا تلاش برای میانجیگری چنین پیامدهایی موفق خواهد بود یا اصلاً امیدی به موفقیت دارد؟

همانطور که قابلیت های هوش مصنوعی همچنان در حال افزایش است، تعیین نقش بشریت در مشارکت با آن مهم تر و پیچیده تر خواهد شد. می‌توان دنیایی را در نظر گرفت که در آن انسان‌ها به دلیل مسائلی با عظمت روزافزون، هوش مصنوعی را تا حد زیادی به تعویق می‌اندازند. در دنیایی که حریف با موفقیت از هوش مصنوعی استفاده می کند، آیا رهبرانی که از هوش مصنوعی دفاع می کنند، می توانند مسئولانه تصمیم بگیرند که از هوش مصنوعی خود استفاده نکنند، حتی اگر مطمئن نباشند که این استقرار چه تحولی را به همراه خواهد داشت؟ و اگر هوش مصنوعی توانایی برتر برای توصیه یک مسیر اقدام را داشته باشد، آیا سیاست گذاران می توانند به طور منطقی امتناع کنند، حتی اگر این اقدام مستلزم قربانی کردن مقداری باشد؟ زیرا چه انسانی می تواند بداند که آیا فداکاری برای پیروزی ضروری است؟ و اگر چنین بود، آیا سیاستگذار واقعاً مایل به کسب سود است؟ به عبارت دیگر، ممکن است چاره ای جز پرورش هوش مصنوعی نداشته باشیم. اما ما نیز وظیفه داریم آن را به گونه ای شکل دهیم که با آینده بشری سازگار باشد.

نقص یکی از بادوام ترین جنبه های تجربه بشری، به ویژه رهبری است. غالباً، سیاست گذاران به خاطر نگرانی های جزئی پریشان می شوند. گاهی اوقات، آنها بر اساس فرضیات اشتباه عمل می کنند. گاهی اوقات آنها از روی احساسات خالص عمل می کنند. هنوز در زمان‌های دیگر، ایدئولوژی دیدگاه آنها را منحرف می‌کند. استراتژی‌هایی که برای ساختار مشارکت انسان و هوش مصنوعی ظاهر می‌شوند، باید مطابقت داشته باشند. اگر هوش مصنوعی توانایی‌های مافوق بشری را در برخی مناطق نشان دهد، استفاده از آن‌ها باید در زمینه‌های ناقص انسانی قابل جذب باشد.

در حوزه امنیتی، سیستم‌های مجهز به هوش مصنوعی به قدری پاسخگو خواهند بود که ممکن است دشمنان قبل از عملیاتی شدن سیستم‌ها، اقدام به حمله کنند. نتیجه ممکن است یک وضعیت ذاتاً بی ثبات کننده باشد، قابل مقایسه با وضعیت ایجاد شده توسط سلاح های هسته ای. با این حال، تسلیحات هسته‌ای در چارچوب بین‌المللی مفاهیم امنیتی و کنترل تسلیحات قرار دارند که طی دهه‌ها توسط دولت‌ها، دانشمندان، استراتژیست‌ها و اخلاق‌گرایان توسعه یافته و مشروط به اصلاح، بحث و مذاکره هستند. هوش مصنوعی و سلاح های سایبری چارچوب قابل مقایسه ای ندارند. در واقع، دولت ها ممکن است تمایلی به اعتراف به وجود آنها نداشته باشند. کشورها – و احتمالاً شرکت‌های فناوری – باید در مورد چگونگی همزیستی با هوش مصنوعی تسلیحاتی به توافق برسند.

انتشار هوش مصنوعی از طریق عملکردهای دفاعی دولت ها، تعادل بین المللی و محاسباتی را که تا حد زیادی آن را در عصر ما حفظ کرده است، تغییر خواهد داد. سلاح‌های هسته‌ای پرهزینه هستند و به دلیل اندازه و ساختارشان، پنهان کردن آنها دشوار است. از سوی دیگر، هوش مصنوعی روی رایانه‌های در دسترس قابل اجرا است. به دلیل تخصص و منابع محاسباتی مورد نیاز برای آموزش مدل‌های یادگیری ماشینی، ایجاد یک هوش مصنوعی به منابع شرکت‌ها یا دولت‌های بزرگ نیاز دارد. از آنجایی که کاربرد هوش مصنوعی بر روی رایانه های نسبتاً کوچک انجام می شود، هوش مصنوعی به طور گسترده در دسترس خواهد بود، از جمله به روش هایی که در نظر گرفته نشده است. آیا سلاح‌های مجهز به هوش مصنوعی در نهایت برای هر کسی که لپ‌تاپ، اتصال به اینترنت و توانایی پیمایش عناصر تاریک آن را داشته باشد، در دسترس خواهد بود؟ آیا دولت ها به بازیگران وابسته یا غیروابسته قدرت می دهند تا از هوش مصنوعی برای آزار و اذیت مخالفان خود استفاده کنند؟ آیا تروریست ها حملات هوش مصنوعی را مهندسی خواهند کرد؟ آیا آنها می توانند (به دروغ) آنها را به دولت ها یا دیگر بازیگران نسبت دهند؟

دیپلماسی که قبلاً در یک عرصه سازمان یافته و قابل پیش بینی انجام می شد، دامنه وسیعی از اطلاعات و عملیات خواهد داشت. خطوط تیز قبلی که توسط جغرافیا و زبان ترسیم شده بود، همچنان از بین خواهند رفت. مترجمان هوش مصنوعی، گفتار را تسهیل می‌کنند، بدون اینکه از تأثیر تعدیل‌کننده آشنایی فرهنگی که با مطالعه زبان‌شناختی حاصل می‌شود، محافظت کنند. پلتفرم های شبکه مجهز به هوش مصنوعی ارتباطات را در سراسر مرزها ارتقا می دهند. علاوه بر این، هک و اطلاعات نادرست به تحریف ادراک و ارزیابی ادامه خواهد داد. با افزایش پیچیدگی، تدوین توافقنامه های قابل اجرا با نتایج قابل پیش بینی دشوارتر خواهد شد.

پیوند عملکرد هوش مصنوعی به سلاح های سایبری این معضل را عمیق تر می کند. بشریت با تمایز شدید بین نیروهای متعارف - د

امد قابل تطبیق با استراتژی سنتی - و سلاح های هسته ای، استثنایی تلقی می شود. در جایی که تسلیحات هسته ای به صراحت زور را اعمال می کردند، نیروهای متعارف تبعیض آمیز بودند. اما سلاح‌های سایبری که هم قابلیت تبعیض و هم تخریب گسترده را دارند، این مانع را از بین می‌برند. همانطور که هوش مصنوعی بر روی آنها ترسیم می شود، این سلاح ها غیرقابل پیش بینی تر و به طور بالقوه مخرب تر می شوند. به طور همزمان، همانطور که از طریق شبکه ها حرکت می کنند، این سلاح ها از انتساب سرپیچی می کنند. آنها همچنین از شناسایی سرپیچی می کنند - بر خلاف سلاح های هسته ای، ممکن است روی درایوهای انگشت شست حمل شوند - و انتشار را تسهیل می کنند. و در برخی از اشکال، پس از استقرار، کنترل آنها دشوار است، به ویژه با توجه به ماهیت پویا و اضطراری هوش مصنوعی.

این وضعیت فرضیه نظم جهانی مبتنی بر قوانین را به چالش می کشد. علاوه بر این، یک امر ضروری را ایجاد می کند: توسعه یک مفهوم کنترل تسلیحات برای هوش مصنوعی. در عصر هوش مصنوعی، بازدارندگی بر اساس دستورات تاریخی عمل نخواهد کرد. قادر نخواهد بود. در آغاز عصر هسته ای، حقایقی که در بحث بین اساتید برجسته (که تجربه دولتی داشتند) در هاروارد، MIT و کلتک ایجاد شد، منجر به یک چارچوب مفهومی برای کنترل تسلیحات هسته ای شد که به نوبه خود، به یک رژیم کمک کرد (و، در ایالات متحده و سایر کشورها، آژانس هایی برای اجرای آن). در حالی که تفکر دانشگاهیان مهم بود، جدا از تفکر پنتاگون در مورد جنگ متعارف انجام شد - این یک اضافه بود، نه یک اصلاح. اما کاربردهای نظامی بالقوه هوش مصنوعی گسترده‌تر از سلاح‌های هسته‌ای است، و حداقل در حال حاضر، تقسیم‌بندی بین حمله و دفاع نامشخص است.

در دنیایی با چنین پیچیدگی و غیرقابل محاسبه ذاتی، که در آن هوش مصنوعی منبع احتمالی دیگری از ادراک نادرست و اشتباه را معرفی می کند، دیر یا زود، قدرت های بزرگی که دارای قابلیت های فناوری پیشرفته هستند باید گفتگوی دائمی انجام دهند. چنین گفت‌وگویی باید بر روی امر اساسی متمرکز شود: جلوگیری از فاجعه و در انجام این کار، زنده ماندن.

به نظر می‌رسد هوش مصنوعی و سایر فناوری‌های نوظهور (مانند محاسبات کوانتومی) انسان‌ها را به شناخت واقعیت فراتر از محدودیت‌های درک ما نزدیک‌تر می‌کنند. با این حال، در نهایت، ممکن است متوجه شویم که حتی این فناوری ها نیز محدودیت هایی دارند. مشکل ما این است که هنوز مفاهیم فلسفی آنها را درک نکرده ایم. ما توسط آنها پیشرفت می کنیم، اما به طور خودکار و نه آگاهانه. آخرین باری که آگاهی انسان به طور قابل توجهی تغییر کرد - عصر روشنگری - این دگرگونی رخ داد زیرا فناوری جدید بینش های فلسفی جدیدی را ایجاد کرد که به نوبه خود توسط فناوری (به شکل ماشین چاپ) گسترش یافت. در دوره ما، فناوری جدید توسعه یافته است، اما همچنان به یک فلسفه راهنما نیاز دارد.

هوش مصنوعی یک کار بزرگ با مزایای بالقوه عمیق است. انسان ها در حال توسعه آن هستند، اما آیا ما از آن برای بهبود زندگی خود استفاده می کنیم یا برای بدتر کردن زندگی خود؟ این نوید داروهای قوی تر، مراقبت های بهداشتی کارآمدتر و عادلانه تر، اقدامات زیست محیطی پایدارتر و پیشرفت های دیگر را می دهد. اما همزمان، این قابلیت را دارد که پیچیدگی مصرف اطلاعات و شناسایی حقیقت را مخدوش یا حداقل ترکیب کند و باعث شود برخی افراد به دلیل عقل و قضاوت مستقل، ظرفیت های خود را از بین ببرند.

کشورهای دیگر هوش مصنوعی را به یک پروژه ملی تبدیل کرده اند. ایالات متحده هنوز به عنوان یک ملت، به طور سیستماتیک دامنه خود را بررسی نکرده، پیامدهای آن را مطالعه نکرده است، یا روند آشتی با آن را آغاز نکرده است. ایالات متحده باید همه این پروژه ها را در اولویت های ملی قرار دهد. این فرآیند مستلزم همکاری افراد با تجربه عمیق در حوزه‌های مختلف است - فرآیندی که به شدت از رهبری گروه کوچکی از شخصیت‌های محترم از بالاترین سطوح دولتی، تجاری و دانشگاهی بهره می‌برد، و شاید نیاز به رهبری آن داشته باشد.

چنین گروه یا کمیسیونی باید حداقل دو وظیفه داشته باشد:

1. در سطح ملی، باید اطمینان حاصل کند که کشور از نظر فکری و استراتژیک در هوش مصنوعی رقابتی باقی می ماند.

2. هم در سطح ملی و هم در سطح جهانی، باید از پیامدهای فرهنگی که هوش مصنوعی ایجاد می کند آگاه باشد و آگاهی را افزایش دهد.

علاوه بر این، گروه باید برای تعامل با گروه های ملی و فرعی موجود آماده باشد.

ما در میانه تلاشی بزرگ می نویسیم که تمام تمدن های بشری را در بر می گیرد - در واقع، کل نوع بشر. مبتکران آن لزوماً آن را چنین تصور نمی کردند. انگیزه آنها حل مشکلات بود، نه اندیشیدن یا تغییر شکل وضعیت انسانی. فن‌آوری، استراتژی و فلسفه باید با هم هماهنگ شوند تا مبادا یکی از دیگران پیشی بگیرد. در مورد جامعه سنتی چه باید مراقب باشیم؟ و در مورد جامعه سنتی چه باید کرد تا به جامعه برتر برسیم؟ چگونه می توان ویژگی های نوظهور هوش مصنوعی را در مفاهیم سنتی هنجارهای اجتماعی و تعادل بین المللی ادغام کرد؟ وقتی برای موقعیتی که در آن قرار داریم، تجربه یا شهودی نداریم، به دنبال پاسخ به چه سوالات دیگری باشیم؟

در نهایت، یک سوال «متا» مطرح می‌شود: آیا نیاز به فیلوس وجود دارد

آیا انسان هایی با کمک هوش مصنوعی که دنیا را متفاوت تفسیر می کنند و در نتیجه درک می کنند مواجه می شوند؟ آیا سرنوشت ما سرنوشتی است که در آن انسان ها ماشین ها را کاملاً درک نمی کنند، اما با آنها صلح می کنند و با این کار، جهان را تغییر می دهند؟

امانوئل کانت مقدمه نقد عقل محض خود را با این نکته آغاز کرد:

عقل بشری در یک نوع از شناخت هایش سرنوشت عجیبی دارد که مملو از سؤالاتی است که نمی تواند آنها را رد کند، زیرا آنها را به عنوان مشکلاتی در ذات خود عقل به او داده است، اما نمی تواند به آنها پاسخ دهد، زیرا آنها از هر ظرفیتی فراتر می روند. عقل انسان.2

در طول قرن‌ها، بشریت عمیقاً به این سؤالات پرداخته است که برخی از آنها به ماهیت ذهن، عقل و خود واقعیت مربوط می‌شوند. و بشریت پیشرفت های بزرگی کرده است. همچنین با بسیاری از محدودیت‌هایی که کانت مطرح کرده بود مواجه شده است - حوزه‌ای از سؤالاتی که نمی‌تواند به آنها پاسخ دهد، حقایقی که نمی‌تواند به طور کامل بداند.

ظهور هوش مصنوعی، با ظرفیت یادگیری و پردازش اطلاعات به روش هایی که عقل بشری به تنهایی قادر به انجام آن نیست، ممکن است باعث پیشرفت در سوالاتی شود که بیش از توانایی ما برای پاسخ دادن به آنها ثابت شده است. اما موفقیت سؤالات جدیدی ایجاد خواهد کرد، که ما سعی کرده ایم برخی از آنها را در این کتاب بیان کنیم. هوش انسانی و هوش مصنوعی در حال تلاقی هستند و برای فعالیت‌هایی در مقیاس ملی، قاره‌ای و حتی جهانی استفاده می‌شوند. درک این گذار، و ایجاد یک اخلاق راهنما برای آن، نیازمند تعهد و بینش بسیاری از عناصر جامعه است: دانشمندان و استراتژیست ها، دولتمردان و فیلسوفان، روحانیون و مدیران عامل. این تعهد باید در داخل ملت ها و بین آنها صورت گیرد. اکنون زمان آن است که هم مشارکت خود را با هوش مصنوعی تعریف کنیم و هم واقعیتی را که حاصل خواهد شد.


Comments

Popular Posts