در سال 2023، سالی بود که هوش مصنوعی
در طبیعت ناپدید شد، سال 2024 سالی خواهد بود که سیاست گذاران سعی در مهار آن
دارند. برای هرکسی که بحث های فناوری در چند دهه گذشته را تماشا کرده است، نشانه
ها واضح است. اوراق سفید از سوی سازمانهای اجرایی در حال انباشته شدن است، جلسات
کنگره سرعت میگیرد، کارشناسان اتاق فکر تشکیل جلسه میدهند، اروپاییها در حال
فرافکنی هستند، و گفتگوها به روشنترین هدف همه میپردازند: موضوعی جدید. برای
آژانس های نظارتی مهم است که چارچوب هایی برای سیاست های هوش مصنوعی ایجاد کنند.
اما همانطور که اغلب در چنین لحظاتی اتفاق می افتد، موضوع دقیق نگرانی مبهم است.
کارشناسان بیش از حد در علف های هرز عمیق هستند، در حالی که به نظر می رسد سیاست
گذاران در ابهام گم شده اند. سردرگمی آنها موجه است. هوش مصنوعی همیشه یک اصطلاح عاشقانه
بوده است - راهی برای توصیف آنچه علم کامپیوتر هنوز نمی تواند انجام دهد. جیم مانزی،
کارآفرین فناوری، به یاد می آورد که در دهه 1980 یک دوره در مورد هوش مصنوعی در
مؤسسه فناوری ماساچوست گذراند، جایی که مدرس با اسلایدی شروع کرد که گفت:
"اگر کار می کند، هوش مصنوعی نیست." این چیزی است که در سال 2023 تغییر
کرد
چیزی به نام AI در واقع کار می کند. در هسته خود، این یک
فناوری تحلیلی است که الگوهای پیچیده را از داده های آموزشی یاد می گیرد و سپس از
آن الگوها برای پیش بینی داده های جدید استفاده می کند. با قدرت محاسباتی متوسط،
به نظر می رسد که کلمه بعدی را در یک پیام متنی حدس بزنید. اما با دسترسی به حجم
عظیمی از داده ها و ظرفیت محاسباتی گسترده، می تواند پاسخی ساده به یک پیام پیچیده
در مورد آنچه که یک انسان می نویسد، به نظر برسد. می تواند همین کار را با گرافیک،
ویدئو و صدا انجام دهد. پتانسیل چنین فناوری بسیار زیاد است. استفاده از چاه های
عمیق اطلاعات موجود برای ایجاد مرحله بعدی قابل قبول در پاسخ به یک درخواست، همان
چیزی است که بسیاری از اعمال هوشمند انسان به نظر می رسد. نه تنها دانش، بلکه حتی
قضاوت متخصصان در بسیاری از زمینه ها محصول مواجهه گسترده با الگوهای پیچیده
اطلاعات است. آنها در دانستن اینکه چه چیزی در آینده خواهد آمد یا در آینده خواهد
آمد ماهر می شوند. هوش مصنوعی میتواند همان مهارت را در مقیاسی بسیار بزرگتر و
بسیار سریعتر از بسیاری از متخصصان انسانی توسعه دهد و به کار گیرد، و این مقیاس
و سرعت فقط رشد خواهد کرد. از دیدگاه نظارتی، آنچه در مورد این تعریف از هوش مصنوعی
برجسته می شود، گستردگی آن است. هوش مصنوعی امروزی یک فناوری همه منظوره است - رویکردی
برای دستکاری و تولید اطلاعات که می تواند در بسیاری از زمینه ها استفاده شود.
وعده و خطرات آن به نحوه استقرار آن در تعداد کمتری از دامنه های مختلف بستگی
دارد. این چالش نظارتی را بسیار پیچیدهتر میکند و باید رویکردی را پیشنهاد کند
که با آنچه تنظیمکنندهها میدانند شروع شود، نه آنچه که نمیدانند. سیاست گذاران
باید به طور مشابه آخرین فناوری تحول آفرین همه منظوره را در نظر بگیرند: اینترنت.
در دهه 1990، زمانی که وب اولیه در حال شکل گیری بود، صحبت های زیادی در مورد ایجاد
یک تنظیم کننده تخصصی اینترنت برای مقابله با چالش های پیش آمده وجود داشت،
همانطور که کارشناسان اکنون در مورد ایجاد یک آژانس هوش مصنوعی صحبت می کنند. سیاستگذاران
در نهایت به این نتیجه رسیدند که دقیقاً به این دلیل که با چنین فناوری فراگیر
سروکار دارند، جایی که اینترنت بر ساختار زندگی آمریکایی تأثیر می گذارد، مقررات
مهم یا حساس به اندازه کافی برای تنظیم ضروری است. تنظیم اینترنت عمدتاً از طریق
دستگاه موجود دولت ایالات متحده آغاز شد. در سال 1996، قاضی فرانک ایستربروک از
دادگاه تجدیدنظر ناحیه هفتم ایالات متحده این دیدگاه را در مقاله معروفی به نام
«فضای مجازی و قانون اسب ها» بیان کرد. قاضی ایستربروک استدلال کرد که در آمریکای
قرن 19، اسب ها در بسیاری از زمینه های زندگی مهم بودند - آنها خرید و فروش می
شدند، به مراقبت های دامپزشکی نیاز داشتند، افراد و کالاها را حمل می کردند، می
توانستند صدماتی ایجاد کنند و غیره. قوانینی برای تنظیم همه اینها وضع شد، اما در
حوزه های موجود حقوق تجارت، مجوزهای حرفه ای و دعاوی تخلف. احمقانه است که آنها را
تحت یک آژانس یا دادگاه برای تنظیم اسب ها ادغام کنیم. تنظیم اینترنت به این روش
به همان اندازه بی معنی خواهد بود. در مورد هوش مصنوعی هم همینطور است. ایجاد یک
آژانس دولتی با تخصص تخصصی در هوش مصنوعی و انتظار از آن برای مقابله با بسیاری از
زمینه هایی که این فناوری جدید در آن نقش ایفا می کند، بازی احمقانه ای است. اکنون
تخصص فنی زیادی در زمینه ایمنی دارو، قانون علائم تجاری، امنیت ملی و حمایت از
مصرف کننده در انواع سازمان های اجرایی، کارکنان کمیته کنگره و سایر نهادهای عمومی
وجود دارد. آنها نسبت به متخصصان هوش مصنوعی که قادر به توسعه دانش عمیق در همه این
زمینه ها هستند، برای در نظر گرفتن خطرات و مزایای هوش مصنوعی بسیار بهتر خواهند
بود. با گذشت زمان، هوش مصنوعی ممکن است خطرات جدی ایجاد کند که اکنون نمی توانیم
تصور کنیم. ممکن است نیاز به مقررات تخصصی تری داشته باشد. به نظر می رسد که این
موضوع در مورد اینترنت نیز صادق است و راه هایی وجود دارد که از طریق آنها فضای
مجازی اکنون نظارت می شود (دسترسی کودکان به رسانه های اجتماعی
a یک مثال است). اما اگر سیاستگذاران 30
سال پیش بر اساس پیشبینیهای خود از چنین ریسکهایی تهاجمی عمل میکردند، کاملاً
اشتباه میکردند، در جلوگیری از مشکلاتی که اکنون آنلاین با آن مواجه هستیم، شکست
میخوردند و مزایای بسیاری را در این مسیر از ما سلب میکردند. مشکلات مربوط به
آگهیدهی همانطور که در شبکههای اصلی از قبل تنظیمشده نشان داده میشدند و تطبیق
آنطور که ضمانت شده بود، مسیر بسیار عاقلانهتری بود، همانطور که اکنون خواهد
بود. دلیلش این نیست که می دانیم هوش مصنوعی ما را به کجا می برد، بلکه دقیقاً به
این دلیل است که نمی دانیم. نگرانی درست در مورد یک فناوری جدید با برنامهریزی
فوقالعاده و پتانسیل واقعی برای ایجاد خطرات جدید، نیاز به وضوح و فروتنی دارد.
در بحثهای هوش مصنوعی میتوان از هر دو بیشتر استفاده کرد.
آقای لوین مدیر مطالعات اجتماعی، فرهنگی
و قانون اساسی در مؤسسه امریکن اینترپرایز و سردبیر امور ملی است.
Comments
Post a Comment