اصلاً فکر نمیکند
نامهای بزرگ در هوش مصنوعی - رهبران OpenAI، Anthropic، گوگل و دیگران - هنوز با اطمینان پیشبینی میکنند که هوش مصنوعی در سطح انسان در راه است. اما آیا این ادعاها از نظر تعداد و حجم در حال افزایش هستند؟ آنها میگویند هوش مصنوعی فقط مانند ما فکر نمیکند. کار محققان نشان میدهد که چیزی اساساً ذهنی در مورد معماری مدلهای هوش مصنوعی امروزی وجود دارد. هوش مصنوعی امروزی قادر به شبیهسازی هوش با یادگیری یک عدد طبیعی از یک انگشت شست است که آن را به طور انتخابی در مورد هر چیزی که با آن مواجه میشوند اعمال میکنند. این در تضاد با روشهای زیادی است که انسانها و حتی حیوانات میتوانند در مورد جهان استدلال کنند و آینده را پیشبینی کنند. ما موجودات بیولوژیکی «مدلهای جهانی» از نحوه کار چیزها میسازیم که شامل علت و معلول است. بسیاری از مهندسان هوش مصنوعی ادعا میکنند که مدلهای آنها نیز چنین مدلهای جهانی را در شبکههای وسیع خود، از جمله نورونهای مصنوعی، ساختهاند، همانطور که توانایی آنها در نوشتن متون روان با استدلال صریح نشان میدهد. یک قرن پیشرفت در به اصطلاح «مدلهای استدلال» برخی از ناظران را متقاعد کرده است که ChatGPT و دیگران به سطح انسانی، که در صنعت به عنوان AGI شناخته میشود، برای هوش مصنوعی عمومی رسیدهاند. ChatGPT و رقبای آن بیشتر جعبههای سیاه مرموز بودند تا واقعی. در مورد نحوه تولید نتایج آنها قابل مشاهده بود زیرا آنها به جای برنامهریزی، آموزش دیده بودند و تعداد زیادی از پارامترهایی که «مغز» مصنوعی آنها را تشکیل میدادند، اطلاعات و منطق را به روشهایی رمزگذاری میکردند که برای سازندگانشان غیرقابل درک بود. اما محققان در حال توسعه ابزارهای جدیدی هستند که به آنها امکان میدهد درون این مدلها را بررسی کنند. نتایج، سوالات زیادی را در مورد این نتیجهگیری که آنها به هوش مصنوعی عمومی نزدیک هستند، باقی میگذارد. ملانی میچل، استاد موسسه سانتافه که هوش مصنوعی را مطالعه میکند، میگوید: «در مورد کاری که این مدلها واقعاً انجام میدهند و برخی از زبانهای شبه انسانی که برای نوشتن آنها استفاده میشود، اختلاف نظر وجود دارد.» «روشهای نوآورانه» جدید برای بررسی مدلهای زبانی بزرگ - بخشی از یک حوزه رو به رشد که به عنوان «تفسیرپذیری مکانیکی» شناخته میشود - به محققان نشان میدهد که چگونه این هوشهای مصنوعی ریاضی انجام میدهند، بازی میکنند یا در محیطها حرکت میکنند. میچل در مجموعهای از مقالات اخیر، به تفصیل استدلال کرد که حجم فزایندهی کار نشان میدهد که مدلهای احتمالی به جای ساختن مدلهای ذهنی کارآمدتر از موقعیتها و سپس استدلال از طریق وظایف، در حال توسعهی «کیسههای عظیمی از اکتشافات» هستند. («هوریستیک» مخفف حل مسئله و میانبر است.) وقتی کوین وفا، محقق دانشگاه هاروارد، برای اولین بار نظریهی «کیسهی اکتشافات» را شنید، گفت: «اگر احساس شود که چیزی باز شده است، دقیقاً همان چیزی است که ما سعی در توصیف آن داریم.» تحقیقات خود وفا این بود که ببیند هوش مصنوعی هنگام اعمال آن به میلیونها مسیر گام به گام، مانند مسیرهایی که در نقشههای گوگل میبینید، چه نوع نقشهی ذهنی میسازد. وفا و همکارانش از شبکهی متراکم خیابانها و کوچههای منهتن به عنوان منبع استفاده کردند. نتیجه چیزی شبیه نقشهی خیابانهای منهتن نبود. بررسی دقیق نشان داد که هوش مصنوعی انواع مانورهای غیرممکن را حدس زده است - مسیری که از پارک مرکزی عبور میکرد یا از هر بلوک به ترتیب عبور میکرد. با این حال، مدل حاصل توانست مسیرهای قابل استفادهای را بین هر دو نقطه در داخل یک ساختمان با دقت ۹۹٪ ارائه دهد. وفا میگوید اگرچه نقشه آشفته آن هر رانندهای را دیوانه میکند، اما اساساً این مدل قوانین جداگانهای را برای پیمایش موقعیتهای مختلف، از هر نقطه شروع ممکن، آموخته است. «مغز» عظیم هوش مصنوعی، همراه با قدرت پردازش بیسابقه، به آنها اجازه میدهد تا یاد بگیرند که چگونه مسائل را به روشی آشفته حل کنند که برای یک انسان غیرممکن است. تحقیقات دیگر به این نوع رفتار که زمانی رخ میدهد که مدلهای بزرگ زبانی سعی در انجام محاسبات دارند، نگاهی میاندازد، کاری که از نظر تاریخی در آن بد بودهاند اما در حال پیشرفت در آن هستند. برخی مطالعات نشان میدهد که مدلها مجموعهای جداگانه از قوانین را برای ضرب اعداد در یک محدوده خاص - مثلاً ۲۰۰ تا ۲۱۰ - نسبت به ضرب اعداد در محدوده دیگر یاد میگیرند. اگر فکر میکنید این روش ایدهآل برای انجام محاسبات است، درست حدس زدهاید. وفا میگوید همه اینها نشان میدهد که در زیر کاپوت، هوش مصنوعی امروزی بیش از حد پیچیده و به هم پیوسته است، ماشینهایی پر از راهحلهای موقت برای درخواستهای ما. باید بدانید که این سیستمها از قواعد سرانگشتی طولانی و وصله پینه شدهای تشکیل شدهاند که میتوانند توضیح دهند چرا وقتی از آنها خواسته میشود کاری را حتی کمی خارج از آموزششان انجام دهند، دچار مشکل میشوند. وقتی تیم او فقط ۱٪ از جادههای مجازی منهتن را مسدود کرد و هوش مصنوعی را مجبور به پیمایش مسیرهای انحرافی کرد، عملکرد آن به شدت کاهش یافت. این نشان دهنده تفاوت بزرگی بین هوش مصنوعی امروزی و انسان است. یک فرد ممکن است نتواند مسیرهای پیچ به پیچ را در اطراف شهر نیویورک با دقت ۹۹٪ تکرار کند، اما باید به اندازه کافی انعطافپذیر باشد تا از کارهای جادهای اجتناب کند. این تحقیق همچنین نشان میدهد که چرا بسیاری از مدلها بسیار بزرگ هستند: آنها باید لیستهای بیپایانی از اعداد را به خاطر بسپارند و نمیتوانند آن دانش را ذخیره کنند. عملکرد - عملکردی که ممکن است ساده به نظر برسد. محققان هوش مصنوعی قبلاً از خود پیشی گرفتهاند. در سال ۱۹۷۰، استاد موسسه فناوری ماساچوست، مار وین مینسکی، به مجله لایف گفت که یک کامپیوتر در «سه تا هشت سال» به هوش یک انسان معمولی دست خواهد یافت. سال گذشته، ایلان ماسک ادعا کرد که هوش مصنوعی تا سال ۲۰۲۶ از هوش انسان پیشی خواهد گرفت. در ماه فوریه، سم آلتمن در وبلاگ خود نوشت که «سیستمهایی که شروع به اشاره به هوش مصنوعی عمومی میکنند، در حال ظهور هستند» و این لحظه در تاریخ نشان دهنده «آغاز چیزی است که نمیتوان گفت این بار متفاوت است». روز سهشنبه، مدیر ارشد امنیتی آنتروپیک هشدار داد که «کارمندان مجازی» در شرکتهای آمریکایی در عرض یک سال کار خواهند کرد. حتی اگر این پیشبینیها زودهنگام باشند، آنها باقی میمانند و زندگی ما را تغییر میدهند. توسعهدهندگان نرمافزار فقط در حال بررسی چگونگی استفاده از این سیستمهای بسیار مؤثر برای کمک به بهرهوری بیشتر ما هستند. و در حالی که ممکن است هوش ذاتی آنها در حال کاهش باشد، کار بر روی اصلاح آنها ادامه دارد. در همین حال، تحقیق در مورد محدودیتهای نحوه «فکر کردن» هوش مصنوعی میتواند بخش مهمی از بهتر کردن آنها باشد.
در مقاله اخیر، جیکوب آندریاس، محقق MIT-AI، نوشت که درک بهتر چالشهای مدلهای زبانی
منجر به راههای جدیدی برای آموزش آنها میشود: «ما میتوانیم با شروع به پرداختن
به این محدودیتها، LMها را بهتر (دقیقتر، قابل اعتمادتر، قابل کنترلتر) کنیم.»
Comments
Post a Comment