AIs will be useless if they learn from other AIs
TRAINING artificialintelligences using text and images fromother AIs,whichhave also beentrained onAI outputs,may eventually make themfunctionallyuseless. AIs suchasChatGPT, known as large languagemodels (LLMs), use vast repositories ofhumanwrittentextfromthe internet to create a statisticalmodel of humanlanguage. This allows themto predictwhichwords aremostlikely to comenextina sentence. Since LLMshave been available,the internethas become awashwithAI-generated text, butthe effectthiswillhave on futureAIs isunclear. Ilia Shumailov atthe University of Oxford andhis colleagues simulatedhowAImodelswould develop iftheywere trainedusing the outputs of otherAIs. They found thatthemodelswould becomeheavily biased, overly simplistic and disconnected fromreality – a problemthey callmodel collapse. The study suggests this failure happens because oftheway that AImodels statistically represent text.AnAIthat sees a phrase or sentencemany timeswill be likely to repeatthis phrase inan output, and less likely to produce something ithas rarely seen. Whennewmodels are then trained ontextfromotherAIs, they see only a smallfractionof the originalAI’s possible outputs. This subsetisunlikely to contain rarer outputs and so thenewAI won’tfactor theminto its own possible outputs. Them odel also has noway of telling whether the AI-generated textit sees corresponds to reality, which could introduce even more misinformation than currentmodels,the study found (arXiv, doi.org/kfpw). Alack of sufficiently diverse training data may be compounded by deficiencies in the models themselves and the way they are trained,whichdon’t always perfectly represent the-underlying data in the first place. Shumailov andhis teamshowed thatthis results inmodel collapse for a variety of different AI models. “As this process is repeating, ultimately we are converging into this state of madness where it’s just errors, errors and errors, and the magnitude of errors are much-higher than anything else,” says Shumailov. How quickly this process happens depends on the amount ofAI-generated content in an AI’s training data and what kind of modelituses, but all models exposed toAI data do collapse eventually,the team found. The only way to get around this would be to label and exclude theAI-generated outputs, says Shumailov.Butthis is impossible to do reliably,unless you own interfaces enter text, suchas Google searchor OpenAI’sChatGPT – a dynamic that could entrench the financial and computational advantages of big tech-companies. Some of the errors might be mitigated by instructing AIs to give preference to training data from before AI content flooded the web, says VinuSadasivanat the University of Maryland. It is also possible that humans will editAI content before posting it to the internet, says Florian Tramèr at the Swiss Federal Institute of Technology IN Zurich, which might lessen the problem.
اگر هوش مصنوعی از سایر هوش مصنوعی ها یاد بگیرند بی فایده خواهند بود
آموزش هوش مصنوعی با استفاده از متن و تصاویر سایر ها، که در خروجی های AI نیز آموزش دیده اند، ممکن است در نهایت آنها را از نظر عملکردی بی استفاده کند. هوش مصنوعیهایی مانند ChatGPT که به عنوان مدلهای زبانی بزرگ (LLM) شناخته میشوند، از مخازن وسیعی از متن نوشتاری انسانی از اینترنت برای ایجاد یک مدل آماری از زبان انسان استفاده میکنند. این به آنها اجازه میدهد تا پیشبینی کنند که کدام واژهها به احتمال زیاد عبارتاند از. از زمانی که LLMshave در دسترس است، اینترنت پر از متن تولید شده توسط AI شده است، اما تأثیر آن بر هوش مصنوعی های آینده نامشخص است. ایلیا شومیلوف در دانشگاه آکسفورد و همکارانش شبیه سازی کردند که اگر مدل ها با استفاده از خروجی های هوش مصنوعی دیگر آموزش ببینند، چگونه توسعه می یابند. آنها دریافتند که این مدلها به شدت مغرضانه، بیش از حد سادهگرایانه و جدا از واقعیت میشوند - مشکلی که آنها آن را فروپاشی مدل مینامند. این مطالعه نشان میدهد که این شکست به این دلیل اتفاق میافتد که مدلهای AI از نظر آماری متن را نشان میدهند. اگر یک عبارت یا جمله را بارها ببیند، احتمالاً این عبارت را در خروجی تکرار میکند، و احتمال کمتری دارد که چیزی را تولید کند که به ندرت دیده میشود. هنگامی که مدلهای جدید بر روی متنهای هوش مصنوعی مادر آموزش داده میشوند، تنها بخش کوچکی از خروجیهای احتمالی هوش مصنوعی اصلی را میبینند. این زیرمجموعه احتمالاً حاوی خروجیهای کمیابتر است و بنابراین AI آنها را در خروجیهای احتمالی خودش فاکتور نمیکند. آنها همچنین به هیچ وجه نمی توانند تشخیص دهند که متن تولید شده توسط هوش مصنوعی با واقعیت مطابقت دارد یا خیر، که می تواند اطلاعات نادرست بیشتری را نسبت به مدل های فعلی ایجاد کند (arXiv, doi.org/kfpw). فقدان دادههای آموزشی به اندازه کافی متنوع ممکن است با کمبودهای خود مدلها و نحوه آموزش آنها همراه شود، که در وهله اول همیشه دادههای اساسی را کاملاً نشان نمیدهند. Shumailov و تیم او نشان دادند که این باعث فروپاشی مدل برای انواع مدلهای مختلف هوش مصنوعی میشود. شومیلوف میگوید: «از آنجایی که این فرآیند در حال تکرار است، در نهایت ما به این حالت جنون نزدیک میشویم که در آن فقط خطاها، خطاها و خطاها وجود دارد، و بزرگی خطاها بسیار بیشتر از هر چیز دیگری است. این تیم چقدر سریع اتفاق میافتد به میزان محتوای تولید شده توسط هوش مصنوعی در دادههای آموزشی هوش مصنوعی و نوع مدلسازی بستگی دارد، اما همه مدلهایی که در معرض دادههای هوش مصنوعی قرار میگیرند در نهایت از بین میروند. شومیلوف میگوید تنها راه برای دور زدن این موضوع برچسبگذاری و حذف خروجیهای تولید شده توسط هوش مصنوعی است. اما انجام این کار بهطور قابل اعتماد غیرممکن است، مگر اینکه شما دارای رابطهایی باشید که متن را وارد کنید، مانند جستجوگر Google OpenAI'sChatGPT - پویایی که میتواند باعث تثبیت مالی و اقتصادی شود. مزایای محاسباتی شرکت های بزرگ فناوری VinuSadasivanat از دانشگاه مریلند میگوید برخی از خطاها ممکن است با دستور دادن به هوش مصنوعی برای اولویت دادن به دادههای آموزشی از قبل از هجوم محتوای AI به وب کاهش یابد. فلوریان ترامر در موسسه فناوری فدرال سوئیس در زوریخ میگوید: همچنین ممکن است انسانها محتوای هوش مصنوعی را قبل از ارسال آن به اینترنت ویرایش کنند، که ممکن است این مشکل را کاهش دهد.
Comments
Post a Comment