هوش مصنوعی و قانون اسب

در سال 2023، سالی بود که هوش مصنوعی در طبیعت ناپدید شد، سال 2024 سالی خواهد بود که سیاست گذاران سعی در مهار آن دارند. برای هرکسی که بحث های فناوری در چند دهه گذشته را تماشا کرده است، نشانه ها واضح است. اوراق سفید از سوی سازمان‌های اجرایی در حال انباشته شدن است، جلسات کنگره سرعت می‌گیرد، کارشناسان اتاق فکر تشکیل جلسه می‌دهند، اروپایی‌ها در حال فرافکنی هستند، و گفتگوها به روشن‌ترین هدف همه می‌پردازند: موضوعی جدید. برای آژانس های نظارتی مهم است که چارچوب هایی برای سیاست های هوش مصنوعی ایجاد کنند. اما همانطور که اغلب در چنین لحظاتی اتفاق می افتد، موضوع دقیق نگرانی مبهم است. کارشناسان بیش از حد در علف های هرز عمیق هستند، در حالی که به نظر می رسد سیاست گذاران در ابهام گم شده اند. سردرگمی آنها موجه است. هوش مصنوعی همیشه یک اصطلاح عاشقانه بوده است - راهی برای توصیف آنچه علم کامپیوتر هنوز نمی تواند انجام دهد. جیم مانزی، کارآفرین فناوری، به یاد می آورد که در دهه 1980 یک دوره در مورد هوش مصنوعی در مؤسسه فناوری ماساچوست گذراند، جایی که مدرس با اسلایدی شروع کرد که گفت: "اگر کار می کند، هوش مصنوعی نیست." این چیزی است که در سال 2023 تغییر کرد

چیزی به نام AI در واقع کار می کند. در هسته خود، این یک فناوری تحلیلی است که الگوهای پیچیده را از داده های آموزشی یاد می گیرد و سپس از آن الگوها برای پیش بینی داده های جدید استفاده می کند. با قدرت محاسباتی متوسط، به نظر می رسد که کلمه بعدی را در یک پیام متنی حدس بزنید. اما با دسترسی به حجم عظیمی از داده ها و ظرفیت محاسباتی گسترده، می تواند پاسخی ساده به یک پیام پیچیده در مورد آنچه که یک انسان می نویسد، به نظر برسد. می تواند همین کار را با گرافیک، ویدئو و صدا انجام دهد. پتانسیل چنین فناوری بسیار زیاد است. استفاده از چاه های عمیق اطلاعات موجود برای ایجاد مرحله بعدی قابل قبول در پاسخ به یک درخواست، همان چیزی است که بسیاری از اعمال هوشمند انسان به نظر می رسد. نه تنها دانش، بلکه حتی قضاوت متخصصان در بسیاری از زمینه ها محصول مواجهه گسترده با الگوهای پیچیده اطلاعات است. آنها در دانستن اینکه چه چیزی در آینده خواهد آمد یا در آینده خواهد آمد ماهر می شوند. هوش مصنوعی می‌تواند همان مهارت را در مقیاسی بسیار بزرگ‌تر و بسیار سریع‌تر از بسیاری از متخصصان انسانی توسعه دهد و به کار گیرد، و این مقیاس و سرعت فقط رشد خواهد کرد. از دیدگاه نظارتی، آنچه در مورد این تعریف از هوش مصنوعی برجسته می شود، گستردگی آن است. هوش مصنوعی امروزی یک فناوری همه منظوره است - رویکردی برای دستکاری و تولید اطلاعات که می تواند در بسیاری از زمینه ها استفاده شود. وعده و خطرات آن به نحوه استقرار آن در تعداد کمتری از دامنه های مختلف بستگی دارد. این چالش نظارتی را بسیار پیچیده‌تر می‌کند و باید رویکردی را پیشنهاد کند که با آنچه تنظیم‌کننده‌ها می‌دانند شروع شود، نه آنچه که نمی‌دانند. سیاست گذاران باید به طور مشابه آخرین فناوری تحول آفرین همه منظوره را در نظر بگیرند: اینترنت. در دهه 1990، زمانی که وب اولیه در حال شکل گیری بود، صحبت های زیادی در مورد ایجاد یک تنظیم کننده تخصصی اینترنت برای مقابله با چالش های پیش آمده وجود داشت، همانطور که کارشناسان اکنون در مورد ایجاد یک آژانس هوش مصنوعی صحبت می کنند. سیاستگذاران در نهایت به این نتیجه رسیدند که دقیقاً به این دلیل که با چنین فناوری فراگیر سروکار دارند، جایی که اینترنت بر ساختار زندگی آمریکایی تأثیر می گذارد، مقررات مهم یا حساس به اندازه کافی برای تنظیم ضروری است. تنظیم اینترنت عمدتاً از طریق دستگاه موجود دولت ایالات متحده آغاز شد. در سال 1996، قاضی فرانک ایستربروک از دادگاه تجدیدنظر ناحیه هفتم ایالات متحده این دیدگاه را در مقاله معروفی به نام «فضای مجازی و قانون اسب ها» بیان کرد. قاضی ایستربروک استدلال کرد که در آمریکای قرن 19، اسب ها در بسیاری از زمینه های زندگی مهم بودند - آنها خرید و فروش می شدند، به مراقبت های دامپزشکی نیاز داشتند، افراد و کالاها را حمل می کردند، می توانستند صدماتی ایجاد کنند و غیره. قوانینی برای تنظیم همه اینها وضع شد، اما در حوزه های موجود حقوق تجارت، مجوزهای حرفه ای و دعاوی تخلف. احمقانه است که آنها را تحت یک آژانس یا دادگاه برای تنظیم اسب ها ادغام کنیم. تنظیم اینترنت به این روش به همان اندازه بی معنی خواهد بود. در مورد هوش مصنوعی هم همینطور است. ایجاد یک آژانس دولتی با تخصص تخصصی در هوش مصنوعی و انتظار از آن برای مقابله با بسیاری از زمینه هایی که این فناوری جدید در آن نقش ایفا می کند، بازی احمقانه ای است. اکنون تخصص فنی زیادی در زمینه ایمنی دارو، قانون علائم تجاری، امنیت ملی و حمایت از مصرف کننده در انواع سازمان های اجرایی، کارکنان کمیته کنگره و سایر نهادهای عمومی وجود دارد. آنها نسبت به متخصصان هوش مصنوعی که قادر به توسعه دانش عمیق در همه این زمینه ها هستند، برای در نظر گرفتن خطرات و مزایای هوش مصنوعی بسیار بهتر خواهند بود. با گذشت زمان، هوش مصنوعی ممکن است خطرات جدی ایجاد کند که اکنون نمی توانیم تصور کنیم. ممکن است نیاز به مقررات تخصصی تری داشته باشد. به نظر می رسد که این موضوع در مورد اینترنت نیز صادق است و راه هایی وجود دارد که از طریق آنها فضای مجازی اکنون نظارت می شود (دسترسی کودکان به رسانه های اجتماعی

a یک مثال است). اما اگر سیاستگذاران 30 سال پیش بر اساس پیش‌بینی‌های خود از چنین ریسک‌هایی تهاجمی عمل می‌کردند، کاملاً اشتباه می‌کردند، در جلوگیری از مشکلاتی که اکنون آنلاین با آن مواجه هستیم، شکست می‌خوردند و مزایای بسیاری را در این مسیر از ما سلب می‌کردند. مشکلات مربوط به آگهی‌دهی همانطور که در شبکه‌های اصلی از قبل تنظیم‌شده نشان داده می‌شدند و تطبیق آن‌طور که ضمانت شده بود، مسیر بسیار عاقلانه‌تری بود، همانطور که اکنون خواهد بود. دلیلش این نیست که می دانیم هوش مصنوعی ما را به کجا می برد، بلکه دقیقاً به این دلیل است که نمی دانیم. نگرانی درست در مورد یک فناوری جدید با برنامه‌ریزی فوق‌العاده و پتانسیل واقعی برای ایجاد خطرات جدید، نیاز به وضوح و فروتنی دارد. در بحث‌های هوش مصنوعی می‌توان از هر دو بیشتر استفاده کرد.

 

آقای لوین مدیر مطالعات اجتماعی، فرهنگی و قانون اساسی در مؤسسه امریکن اینترپرایز و سردبیر امور ملی است.


Comments

Popular Posts