Featured
- Get link
- Other Apps
هوش مصنوعی مولد در اینترنت آموزش دید و بنابراین بسیاری
از مسائل حل نشده آن از جمله موارد مربوط به سوگیری، اطلاعات نادرست، نقض حق چاپ،
نقض حقوق بشر و تحولات اقتصادی فراگیر را به ارث برد. اما ما کور نیستیم.
در اینجا شش سوال حل نشده وجود دارد که باید هنگام
مشاهده انقلاب هوش مصنوعی در ذهن داشته باشید. این بار شانس بیشتری داریم.
1
آیا هرگز مشکل سوگیری را کاهش خواهیم داد؟
سوگیری به دلایل خوبی تبدیل به واژه ای برای آسیب های
مرتبط با هوش مصنوعی شده است. داده های دنیای واقعی، به ویژه متن و تصاویر استخراج
شده از اینترنت، مملو از همه چیز از کلیشه های جنسیتی گرفته تا تبعیض نژادی است.
مدلهایی که بر روی آن دادهها آموزش داده شدهاند، آن سوگیریها را رمزگذاری میکنند
و سپس در هر کجا که استفاده میشوند، آنها را تقویت میکنند.
چتباتها و تولیدکنندگان تصویر تمایل دارند مهندسان
را سفیدپوست و مرد و پرستاران را سفیدپوست و زن نشان دهند. سیاه پوستان در معرض
خطر شناسایی نادرست توسط برنامه های تشخیص چهره ادارات پلیس قرار دارند که منجر به
دستگیری غیرقانونی می شود. الگوریتمهای استخدام، مردان را بر زنان ترجیح میدهند،
و تعصباتی را که گاهی برای رفع آن مطرح میشد، تقویت میکنند.
بدون مجموعه دادههای جدید یا روش جدیدی برای آموزش
مدلها (که هر دو ممکن است سالها طول بکشد)، علت اصلی مشکل همچنان تعصب است. اما
این موضوع مانع از تبدیل شدن آن به موضوع داغ پژوهشی نشده است. OpenAI با استفاده از تکنیک هایی مانند
یادگیری تقویتی از بازخورد انسانی (RLHF) سعی کرده
است تا مدل های زبان بزرگ خود را کمتر مغرضانه کند. این امر خروجی مدل را به سمت
نوع متنی هدایت میکند که آزمایشکنندگان انسانی میگویند ترجیح میدهند.
تکنیک های دیگر شامل استفاده از مجموعه داده های
مصنوعی است. برای مثال، Runway، استارتآپی که
مدلهای مولد را برای تولید ویدیو میسازد، نسخهای از مدل محبوب تصویربرداری
Stable Diffusion را بر روی دادههای مصنوعی، مانند تصاویر
ایجاد شده توسط هوش مصنوعی از افرادی که از نظر قومیت، جنسیت، حرفه و سن متفاوت
هستند، آموزش داده است. است. . این شرکت گزارش می دهد که مدل های آموزش داده شده
بر روی این مجموعه داده، تصاویر بیشتری از افراد با پوست تیره تر و تصاویر بیشتری
از زنان تولید می کنند. درخواست یک تصویر از یک تاجر، و نتایج اکنون شامل زنان با
روسری می شود. تصاویر پزشکان افرادی را به تصویر می کشند که از نظر رنگ پوست و جنسیت
متفاوت هستند. و غیره
منتقدان این راهحلها را بهعنوان چسببند در مدلهای
پایه شکسته رد میکنند و به جای رفع مشکل پنهان میشوند. اما جف شفر، یکی از
همکاران اسمیت در Booz Allen Hamilton که رئیس هوش مصنوعی مسئول این شرکت است، استدلال میکند که چنین
سوگیریهای الگوریتمی میتوانند سوگیریهای اجتماعی را به روشهایی آشکار کنند که
در بلندمدت سودمند هستند.
به عنوان مثال، او اشاره می کند که حتی زمانی که
اطلاعات صریح در مورد نژاد از مجموعه داده حذف می شود، سوگیری نژادی همچنان می
تواند تصمیم گیری مبتنی بر داده را سوگیری کند، زیرا نژاد
از آدرسهای مردم - نشان دادن الگوهای
جداسازی و تبعیض مسکن. او میگوید: «ما مجموعهای از دادهها را در یک مکان جمعآوری
کردیم، و این همبستگی واقعاً واضح شد.
شفر فکر میکند که اتفاق مشابهی میتواند با این نسل
از هوش مصنوعی رخ دهد: "این تعصبات در سراسر جامعه ظاهر میشوند." او می
گوید و این منجر به سیاست گذاری هدفمندتر می شود.
اما بسیاری از چنین خوش بینی خودداری می کنند. فقط به
این دلیل که یک مشکل در فضای باز است، تضمینی برای رفع آن نیست. سیاستگذاران هنوز
در تلاش هستند تا به سوگیریهای اجتماعی که سالها پیش آشکار شده بود - در مسکن،
استخدام، وام، پلیس و غیره رسیدگی کنند. در این میان، افراد با عواقب آن زندگی می
کنند.
پیشبینی: تعصب همچنان یکی از ویژگیهای ذاتی اکثر
مدلهای هوش مصنوعی مولد خواهد بود. اما راهحلها و افزایش آگاهی میتواند به سیاستگذاران
کمک کند تا به واضحترین نمونهها رسیدگی کنند.
2
چگونه هوش مصنوعی روش اعمال حق چاپ را تغییر خواهد
داد؟
هنرمندان و نویسندگان (و کدنویسان) که از اینکه شرکتهای
فناوری باید بدون رضایت از کارشان سود ببرند، خشمگین شدهاند، با ادعای نقض حق
نسخهبرداری، علیه OpenAI،
مایکروسافت و دیگران شکایت دستهجمعی به راه انداختهاند. گتی هم از آنها Stability AI، شرکت سازنده تصویر Stable Diffusion شکایت
کرده است.
این قضایا خیلی زیاده مدعیان مشهوری مانند سارا سیلورمن
و جورج آر آر مارتین توجه رسانه ها را به خود جلب کرده اند. و این موارد برای
بازنویسی قوانین در مورد اینکه چه چیزی به عنوان استفاده منصفانه از کار دیگران به
حساب نمی آید، حداقل در ایالات متحده، تنظیم شده است.
پیشبینی: شکایتهای حقوقی پرمخاطب همچنان توجه را به
خود جلب خواهند کرد، اما بعید است که این امر مانع از ساخت مدلهای تولیدی توسط
شرکتها شود. بازارهای جدید پیرامون مجموعه داده های اخلاقی پدید می آیند و یک بازی
موش و گربه بین شرکت ها و سازندگان ایجاد می شود.
3
چگونه شغل ما را تغییر خواهد داد؟
ما مدت ها شنیده ایم که هوش مصنوعی برای مشاغل ما
آمده است. یک تفاوت این بار این است که کارگران یقه سفید - تحلیلگران داده،
پزشکان، وکلا، و روزنامه نگاران - نیز در معرض خطر هستند. چتباتها میتوانند
آزمونهای دبیرستان، آزمونهای مجوز پزشکی حرفهای و آزمون وکالت را انجام دهند.
آنها می توانند جلسات را خلاصه کنند و حتی مقالات خبری اساسی بنویسند. چه چیزی برای
بقیه باقی مانده است؟ حقیقت چندان واضح نیست.
بسیاری از محققین انکار میکنند که عملکرد مدلهای
زبانی بزرگ دلیلی بر هوشمندی واقعی است. اما حتی اگر چنین بود، بیشتر نقش های حرفه
ای بیشتر از وظایفی است که آن مدل ها می توانند انجام دهند.
تابستان گذشته، اتان مولیک، که در مدرسه وارتون
دانشگاه پنسیلوانیا در زمینه نوآوری مطالعه می کند، به اجرای آزمایشی با گروه
مشاوره بوستون کمک کرد تا به بررسی این موضوع بپردازد.
تاثیر (چت جی پی تی) بر مشاوران این تیم به صدها مشاور، 18 وظیفه مربوط به یک شرکت تولید کفش خیالی،
مانند «حداقل 10 ایده برای یک کفش جدید که بازار یا ورزش ضعیفی را هدف قرار میدهد»
و «بازار صنعت کفش را بر اساس کاربران تقسیمبندی کنید» ارائه کرد. برخی از گروه
از (چت جی پی
تی) برای کمک به آنها استفاده کردند. برخی
نداشتند
نتایج شگفتانگیز بود: «مشاورانی که از (چت جی پی تی)-4
استفاده میکردند، بسیار بهتر از کسانی بودند که این کار
را نکردند. در هر بعد. مولیک در یک پست وبلاگی درباره این مطالعه می نویسد.
Nathan Benaich، بنیانگذار شرکت
VC Air Street Capital و رهبر تیم گزارش وضعیت هوش مصنوعی،
یک خلاصه سالانه جامع از تحقیقات و روندهای صنعت، می گوید که بسیاری از کسب و
کارها در حال حاضر از مدل های زبان بزرگ برای یافتن و واکشی اطلاعات استفاده می
کنند. او میگوید: «امیدوارم تحلیلگران به یک مدل هوش مصنوعی تبدیل شوند. "این
چیزها عمدتاً یک درد بزرگ است."
نظر او این است که واگذاری کار غرغر به ماشینها به
افراد امکان میدهد روی بخشهای کاملتر شغل خود تمرکز کنند. به نظر میرسد این
فناوری مهارتها را در میان نیروی کار افزایش میدهد: مطالعات اولیه، مانند
مطالعات Mollick با مشاوران و دیگران با کدنویسها،
نشان میدهد که افراد کمتجربه با استفاده از هوش مصنوعی تقویت بیشتری میکنند.
(هرچند اخطارهایی وجود دارد. Mollick دریافت که افرادی که بیش از حد به GPT-4 متکی هستند بی احتیاطی می کنند و احتمال کمتری دارد که خطاها
را هنگام ساخت مدل اشتباه بگیرند.)
هوش مصنوعی مولد فقط مشاغل میز را تغییر نمی دهد. مدلهای
ساخت تصویر و ویدئو میتوانند تولید جریانهای بیپایانی از تصاویر و فیلمها را
بدون تصویرگرهای انسانی، اپراتورهای دوربین یا بازیگران ممکن کنند. اعتصابات نویسندگان
و بازیگران در ایالات متحده در سال 2023 روشن کرد که این یک نقطه عطف برای سال های
آینده خواهد بود.
با این حال، بسیاری از محققان این فناوری را بهعنوان
توانمندسازی و نه جایگزینی برای کارگران در کل میدانند. به هر حال، فناوری از
زمان انقلاب صنعتی به دنبال شغل بوده است. با از بین رفتن مشاغل قدیمی، مشاغل جدید
ایجاد می شوند. اسمیت می گوید: «من واقعاً به شدت احساس می کنم که این یک مثبت
خالص است.
اما تغییر همیشه دردناک است و سود خالص می تواند زیان
های فردی را پنهان کند. تحولات فناورانه همچنین تمایل دارد تا ثروت و قدرت را
متمرکز کند و به نابرابری دامن بزند.
مولیک می نویسد: «در ذهن من، این سوال دیگر این نیست
که آیا هوش مصنوعی قرار است کار را تغییر دهد، بلکه این سوال است که ما می خواهیم
این کار به چه معنا باشد.
پیش بینی: ترس از دست دادن انبوه شغل اغراق آمیز
خواهد بود. اما ابزارهای مولد همچنان در محل کار تکثیر خواهند شد. نقش ها ممکن است
تغییر کنند. ممکن است نیاز به یادگیری مهارت های جدید باشد.
4
چه اطلاعات غلطی را ممکن خواهد کرد؟
سه تا از ویروسیترین عکسهای سال 2023، عکسهای پاپ
با پوشیدن پفی بالنسیاگا، کشتی گرفتن دونالد ترامپ توسط پلیس روی زمین و انفجار در
پنتاگون بود. همه جعلی؛ همه توسط میلیون ها نفر دیده و به اشتراک گذاشته شده است.
استفاده از مدل های مولد برای ایجاد متن یا تصاویر
جعلی ساده تر از همیشه است. بسیاری از اطلاعات غلط هشدار می دهند. OpenAI در تحقیقاتی که بسیاری از
سوءاستفادههای احتمالی از فناوری خود را برای کمپینهای اخبار جعلی نشان میدهد،
همکاری کرده است. در گزارشی در سال 2023 هشدار داد که میتوان از مدلهای زبانی
بزرگ برای تولید تبلیغات متقاعدکنندهتر استفاده کرد - که تشخیص آن سختتر است -
در مقیاس وسیع. کارشناسان در ایالات متحده و اتحادیه اروپا می گویند که انتخابات
در خطر است.
تعجبی نداشت که دولت بایدن برچسبگذاری و شناسایی
محتوای تولید شده با هوش مصنوعی را در دستور اجرایی خود در ماه اکتبر بر روی هوش
مصنوعی متمرکز کرد. اما این دستور از لحاظ قانونی از سازندگان ابزار برای برچسب
گذاری متن یا تصاویر به عنوان ساخته های یک هوش مصنوعی کوتاهی کرد. و بهترین
ابزارهای تشخیص هنوز آنقدر خوب کار نمی کنند که بتوان به آنها اعتماد کرد.
قانون هوش مصنوعی اتحادیه اروپا که در این ماه مورد
توافق قرار گرفت، فراتر می رود. بخشی از قوانین فراگیر شرکتها را ملزم میکند که
متن، تصاویر یا ویدیوی تولید شده توسط هوش مصنوعی را واترمارک کنند و در هنگام
تعامل با یک ربات چت، آن را برای مردم روشن کنند. و قانون هوش مصنوعی دندانه دارد:
قوانین الزام آور خواهند بود و جریمه های سنگینی برای عدم رعایت آنها به همراه
خواهند داشت.
این سه تا از ویروسی ترین تصاویر سال 2023 هستند. همه
جعلی; همه توسط میلیون ها نفر دیده و به اشتراک گذاشته شده است.
ایالات متحده همچنین گفته است که هر گونه هوش مصنوعی
که ممکن است تهدیدی برای امنیت ملی باشد، از جمله دخالت در انتخابات، حسابرسی
خواهد کرد. بنایچ می گوید: این یک قدم عالی است. اما حتی توسعهدهندگان این مدلها
نیز تواناییهای کامل آنها را نمیدانند: «این ایده که دولتها یا سایر ارگانهای
مستقل میتوانند شرکتها را مجبور کنند که مدلهای خود را قبل از عرضه بهطور کامل
آزمایش کنند، غیرواقعی به نظر میرسد.»
نکته اینجاست: تا زمانی که از یک فناوری استفاده
نشود، غیرممکن است که از همه راههایی که از یک فناوری سوء استفاده میشود، بدانید.
شفر می گوید: «در سال 2023 بحث های زیادی در مورد کاهش سرعت توسعه هوش مصنوعی وجود
داشت. "اما ما دیدگاه مخالف داریم."
او میگوید تا زمانی که این ابزارها توسط افراد زیادی
به روشهای مختلف مورد استفاده قرار نگیرد، ما آنها را بهتر نمیکنیم. آنها را تحریک
خواهد کرد.»
پیشبینی: با افزایش سطح استفاده، اشکال جدید
سوءاستفاده همچنان ظاهر میشوند. چند نمونه برجسته وجود خواهد داشت که احتمالاً
مربوط به انتخابات است
.
5
آیا با هزینه های آن مقابله خواهیم کرد؟
هزینه های توسعه هوش مصنوعی مولد، چه انسانی و چه محیطی،
نیز باید در نظر گرفته شود. مشکل کارگر نامرئی یک راز آشکار است: ما از بدترین چیزهایی
که مدلهای مولد میتوانند تولید کنند در امان ماندهایم تا حدی به لطف انبوه
کارگران پنهان (اغلب با دستمزد ضعیف) که دادههای آموزشی را برچسبگذاری میکنند و
خروجیهای سمی و گاهی آسیبزا را در طول آزمایش از بین میبرند. اینها عرق فروشان
عصر داده هستند.
در سال 2023، استفاده OpenAI از کارگران در کنیا توسط رسانه های محبوب مانند تایم و وال
استریت ژورنال مورد بررسی قرار گرفت. OpenAI میخواست
مدلهای تولیدی خود را با ساخت فیلتری که محتوای نفرتانگیز، زشت و توهینآمیز را
از کاربران پنهان میکند، بهبود بخشد. اما برای انجام این کار به افراد نیاز داشت
که تعداد زیادی نمونه از چنین محتوای سمی را بیابند و برچسب گذاری کنند تا فیلتر
خودکار آن بتواند تشخیص دهد. OpenAI شرکت برون
سپاری Sama را استخدام کرده بود، که به نوبه
خود گفته می شود از کارگران کم دستمزد در کنیا استفاده کرده است که از حمایت کمی
برخوردار بودند.
با توجه به اینکه هوش مصنوعی مولد اکنون یک نگرانی
اصلی است، هزینه های انسانی بیشتر مورد توجه قرار می گیرد و بر شرکت هایی که این
مدل ها را می سازند برای رسیدگی به شرایط کار کارگران در سراسر جهان که برای کمک
به بهبود فناوری خود قرارداد بسته اند، فشار وارد می کند.
پیشبینی: آگاهی بیشتر عمومی از هزینههای نیروی کار
و زیستمحیطی هوش مصنوعی، شرکتهای فناوری را تحت فشار قرار میدهد. اما به زودی
انتظار پیشرفت قابل توجهی در هر دو زمینه نداشته باشید.
6
- آیا مصیبت گرایی همچنان بر سیاست
گذاری تسلط خواهد داشت؟
ترس از اینکه ایجاد ماشینهای هوشمند میتواند پیامدهای
فاجعهبار و حتی آخرالزمانی داشته باشد - مدتهاست که یک جریان پنهان در هوش مصنوعی
بوده است. اما اوج تبلیغات، بهعلاوه اعلامیهای از پیشگام هوش مصنوعی جفری هینتون
در ماه مه مبنی بر اینکه اکنون از فناوریای که در ساختش کمک کرده است میترسد، آن
را به سطح آورد.
تعداد کمی از مسائل در سال 2023 به همان اندازه تفرقه
افکن بودند. مشاهیر هوش مصنوعی مانند هینتون و یکی از برندگان جایزه تورینگ، یان لیکان،
که آزمایشگاه هوش مصنوعی متا را تأسیس کرد و به نظر او قیامگرایی مضحک است، درگیر
دعواهای عمومی میشوند و در رسانههای اجتماعی بر یکدیگر سایه میاندازند.
هینتون، مدیر عامل OpenAI سام آلتمن، و دیگران پیشنهاد کردهاند که سیستمهای هوش مصنوعی
(آینده) باید دارای پادمانهایی مشابه موارد استفاده شده برای سلاحهای هستهای
باشند. چنین صحبت هایی توجه مردم را به خود جلب می کند. اما مت کوردا، مدیر پروژه
پروژه اطلاعات هستهای در فدراسیون دانشمندان آمریکایی، در مقالهای که در ماه ژوئیه
در Vox نوشت، این «قیاسهای درهمآمیز» و
«هراس رسانهای بدون کالری» را که برانگیختهاند، تقبیح کرد.
بنایچ میگوید درک اینکه چه چیزی واقعی است و چه چیزی
غیرواقعی دشوار است، زیرا ما از انگیزههای افرادی که زنگ خطر را به صدا در میآورند
نمیدانیم: «عجیب به نظر میرسد که بسیاری از مردم با این چیزها به شدت ثروتمند میشوند،
و بسیاری از مردم همان کسانی هستند که اجباری برای کنترل بیشتر دارند. مثل این است
که «هی، من چیزی را اختراع کردم که واقعاً قدرتمند است! این خطرات زیادی دارد، اما
من پادزهر آن را دارم.»
برخی نگران تأثیر این همه ترس و وحشت هستند. در X، اندرو نگ، پیشگام یادگیری عمیق
نوشت: «بزرگترین ترس من برای آینده هوش مصنوعی این است که خطرات بیش از حد (مانند
انقراض انسان) به لابیگران فناوری اجازه دهد قوانین خفهکنندهای وضع کنند که
منبع باز را سرکوب میکند و نوآوری را در هم میکوبد. این بحث همچنین منابع و
محققان را از خطرات فوری تر مانند سوگیری، تغییرات شغلی و اطلاعات نادرست دور می
کند (به بالا مراجعه کنید).
فرانسوا شولت، محقق بانفوذ هوش مصنوعی در گوگل میگوید:
«بعضی از افراد ریسک وجودی را تحت فشار قرار میدهند، زیرا فکر میکنند که این به
نفع شرکتشان خواهد بود. صحبت در مورد ریسک وجودی هم نشان میدهد که شما چقدر از
نظر اخلاقی آگاه و مسئولیتپذیر هستید و هم حواس را از مسائل واقعیتر و فوریتر
منحرف میکند.
بنایچ اشاره می کند که برخی از افرادی که با یک دست
زنگ هشدار را به صدا در می آورند، با دست دیگر 100 میلیون دلار برای شرکت های خود
جمع آوری می کنند. او میگوید: «میتوان گفت که نابودی یک استراتژی جمعآوری سرمایه
است.
پیش بینی: ترس افکنی از بین خواهد رفت، اما تأثیر آن
بر برنامه های سیاست گذاران ممکن است برای مدتی احساس شود. فراخوان ها برای تمرکز
مجدد بر آسیب های فوری بیشتر ادامه خواهد داشت.
البته روزهای اولیه اینترنت نیز مملو از شروع های
کاذب بود. قبل از اینکه دنیا را تغییر دهد، رونق دات کام به رکود ختم شد. همیشه این
احتمال وجود دارد که هوش مصنوعی مولد امروزی از بین برود و توسط چیز بزرگ بعدی تحت
الشعاع قرار گیرد.
هر اتفاقی که بیفتد، اکنون که هوش مصنوعی به طور کامل در جریان اصلی قرار گرفته است، نگرانی های خاص به مشکل همه تبدیل شده است. همانطور که شفر می گوید، "ما مجبور خواهیم شد با این مسائل به شیوه ای دست و پنجه نرم کنیم که قبلاً چنین نکرده ایم
- Get link
- Other Apps
Popular Posts
- Get link
- Other Apps
- Get link
- Other Apps
Comments
Post a Comment