اکنون میدانیم که هوش مصنوعی چگونه «فکر میکند».

 اصلاً فکر نمیکند

نامهای بزرگ در هوش مصنوعی - رهبران OpenAI، Anthropic، گوگل و دیگران - هنوز با اطمینان پیش‌بینی می‌کنند که هوش مصنوعی در سطح انسان در راه است. اما آیا این ادعاها از نظر تعداد و حجم در حال افزایش هستند؟ آنها میگویند هوش مصنوعی فقط مانند ما فکر نمیکند. کار محققان نشان میدهد که چیزی اساساً ذهنی در مورد معماری مدل‌های هوش مصنوعی امروزی وجود دارد. هوش مصنوعی امروزی قادر به شبیه‌سازی هوش با یادگیری یک عدد طبیعی از یک انگشت شست است که آن را به طور انتخابی در مورد هر چیزی که با آن مواجه می‌شوند اعمال می‌کنند. این در تضاد با روش‌های زیادی است که انسان‌ها و حتی حیوانات می‌توانند در مورد جهان استدلال کنند و آینده را پیش‌بینی کنند. ما موجودات بیولوژیکی «مدل‌های جهانی» از نحوه کار چیزها می‌سازیم که شامل علت و معلول است. بسیاری از مهندسان هوش مصنوعی ادعا می‌کنند که مدل‌های آنها نیز چنین مدل‌های جهانی را در شبکه‌های وسیع خود، از جمله نورون‌های مصنوعی، ساخته‌اند، همانطور که توانایی آنها در نوشتن متون روان با استدلال صریح نشان می‌دهد. یک قرن پیشرفت در به اصطلاح «مدل‌های استدلال» برخی از ناظران را متقاعد کرده است که ChatGPT و دیگران به سطح انسانی، که در صنعت به عنوان AGI شناخته می‌شود، برای هوش مصنوعی عمومی رسیده‌اند. ChatGPT و رقبای آن بیشتر جعبه‌های سیاه مرموز بودند تا واقعی. در مورد نحوه تولید نتایج آنها قابل مشاهده بود زیرا آنها به جای برنامه‌ریزی، آموزش دیده بودند و تعداد زیادی از پارامترهایی که «مغز» مصنوعی آنها را تشکیل می‌دادند، اطلاعات و منطق را به روش‌هایی رمزگذاری می‌کردند که برای سازندگانشان غیرقابل درک بود. اما محققان در حال توسعه ابزارهای جدیدی هستند که به آنها امکان می‌دهد درون این مدل‌ها را بررسی کنند. نتایج، سوالات زیادی را در مورد این نتیجه‌گیری که آنها به هوش مصنوعی عمومی نزدیک هستند، باقی می‌گذارد. ملانی میچل، استاد موسسه سانتافه که هوش مصنوعی را مطالعه می‌کند، می‌گوید: «در مورد کاری که این مدل‌ها واقعاً انجام می‌دهند و برخی از زبان‌های شبه انسانی که برای نوشتن آنها استفاده می‌شود، اختلاف نظر وجود دارد.» «روش‌های نوآورانه» جدید برای بررسی مدل‌های زبانی بزرگ - بخشی از یک حوزه رو به رشد که به عنوان «تفسیرپذیری مکانیکی» شناخته می‌شود - به محققان نشان می‌دهد که چگونه این هوش‌های مصنوعی ریاضی انجام می‌دهند، بازی می‌کنند یا در محیط‌ها حرکت می‌کنند. میچل در مجموعه‌ای از مقالات اخیر، به تفصیل استدلال کرد که حجم فزاینده‌ی کار نشان می‌دهد که مدل‌های احتمالی به جای ساختن مدل‌های ذهنی کارآمدتر از موقعیت‌ها و سپس استدلال از طریق وظایف، در حال توسعه‌ی «کیسه‌های عظیمی از اکتشافات» هستند. («هوریستیک» مخفف حل مسئله و میانبر است.) وقتی کوین وفا، محقق دانشگاه هاروارد، برای اولین بار نظریه‌ی «کیسه‌ی اکتشافات» را شنید، گفت: «اگر احساس شود که چیزی باز شده است، دقیقاً همان چیزی است که ما سعی در توصیف آن داریم.» تحقیقات خود وفا این بود که ببیند هوش مصنوعی هنگام اعمال آن به میلیون‌ها مسیر گام به گام، مانند مسیرهایی که در نقشه‌های گوگل می‌بینید، چه نوع نقشه‌ی ذهنی می‌سازد. وفا و همکارانش از شبکه‌ی متراکم خیابان‌ها و کوچه‌های منهتن به عنوان منبع استفاده کردند. نتیجه چیزی شبیه نقشه‌ی خیابان‌های منهتن نبود. بررسی دقیق نشان داد که هوش مصنوعی انواع مانورهای غیرممکن را حدس زده است - مسیری که از پارک مرکزی عبور می‌کرد یا از هر بلوک به ترتیب عبور می‌کرد. با این حال، مدل حاصل توانست مسیرهای قابل استفاده‌ای را بین هر دو نقطه در داخل یک ساختمان با دقت ۹۹٪ ارائه دهد. وفا می‌گوید اگرچه نقشه آشفته آن هر راننده‌ای را دیوانه می‌کند، اما اساساً این مدل قوانین جداگانه‌ای را برای پیمایش موقعیت‌های مختلف، از هر نقطه شروع ممکن، آموخته است. «مغز» عظیم هوش مصنوعی، همراه با قدرت پردازش بی‌سابقه، به آنها اجازه می‌دهد تا یاد بگیرند که چگونه مسائل را به روشی آشفته حل کنند که برای یک انسان غیرممکن است. تحقیقات دیگر به این نوع رفتار که زمانی رخ می‌دهد که مدل‌های بزرگ زبانی سعی در انجام محاسبات دارند، نگاهی می‌اندازد، کاری که از نظر تاریخی در آن بد بوده‌اند اما در حال پیشرفت در آن هستند. برخی مطالعات نشان می‌دهد که مدل‌ها مجموعه‌ای جداگانه از قوانین را برای ضرب اعداد در یک محدوده خاص - مثلاً ۲۰۰ تا ۲۱۰ - نسبت به ضرب اعداد در محدوده دیگر یاد می‌گیرند. اگر فکر می‌کنید این روش ایده‌آل برای انجام محاسبات است، درست حدس زده‌اید. وفا می‌گوید همه اینها نشان می‌دهد که در زیر کاپوت، هوش مصنوعی امروزی بیش از حد پیچیده و به هم پیوسته است، ماشین‌هایی پر از راه‌حل‌های موقت برای درخواست‌های ما. باید بدانید که این سیستم‌ها از قواعد سرانگشتی طولانی و وصله پینه شده‌ای تشکیل شده‌اند که می‌توانند توضیح دهند چرا وقتی از آنها خواسته می‌شود کاری را حتی کمی خارج از آموزششان انجام دهند، دچار مشکل می‌شوند. وقتی تیم او فقط ۱٪ از جاده‌های مجازی منهتن را مسدود کرد و هوش مصنوعی را مجبور به پیمایش مسیرهای انحرافی کرد، عملکرد آن به شدت کاهش یافت. این نشان دهنده تفاوت بزرگی بین هوش مصنوعی امروزی و انسان است. یک فرد ممکن است نتواند مسیرهای پیچ به پیچ را در اطراف شهر نیویورک با دقت ۹۹٪ تکرار کند، اما باید به اندازه کافی انعطاف‌پذیر باشد تا از کارهای جاده‌ای اجتناب کند. این تحقیق همچنین نشان می‌دهد که چرا بسیاری از مدل‌ها بسیار بزرگ هستند: آنها باید لیست‌های بی‌پایانی از اعداد را به خاطر بسپارند و نمی‌توانند آن دانش را ذخیره کنند.  عملکرد - عملکردی که ممکن است ساده به نظر برسد. محققان هوش مصنوعی قبلاً از خود پیشی گرفته‌اند. در سال ۱۹۷۰، استاد موسسه فناوری ماساچوست، مار وین مینسکی، به مجله لایف گفت که یک کامپیوتر در «سه تا هشت سال» به هوش یک انسان معمولی دست خواهد یافت. سال گذشته، ایلان ماسک ادعا کرد که هوش مصنوعی تا سال ۲۰۲۶ از هوش انسان پیشی خواهد گرفت. در ماه فوریه، سم آلتمن در وبلاگ خود نوشت که «سیستم‌هایی که شروع به اشاره به هوش مصنوعی عمومی می‌کنند، در حال ظهور هستند» و این لحظه در تاریخ نشان دهنده «آغاز چیزی است که نمی‌توان گفت این بار متفاوت است». روز سه‌شنبه، مدیر ارشد امنیتی آنتروپیک هشدار داد که «کارمندان مجازی» در شرکت‌های آمریکایی در عرض یک سال کار خواهند کرد. حتی اگر این پیش‌بینی‌ها زودهنگام باشند، آنها باقی می‌مانند و زندگی ما را تغییر می‌دهند. توسعه‌دهندگان نرم‌افزار فقط در حال بررسی چگونگی استفاده از این سیستم‌های بسیار مؤثر برای کمک به بهره‌وری بیشتر ما هستند. و در حالی که ممکن است هوش ذاتی آنها در حال کاهش باشد، کار بر روی اصلاح آنها ادامه دارد. در همین حال، تحقیق در مورد محدودیت‌های نحوه «فکر کردن» هوش مصنوعی می‌تواند بخش مهمی از بهتر کردن آنها باشد.

 در مقاله اخیر، جیکوب آندریاس، محقق MIT-AI، نوشت که درک بهتر چالش‌های مدل‌های زبانی منجر به راه‌های جدیدی برای آموزش آنها می‌شود: «ما می‌توانیم با شروع به پرداختن به این محدودیت‌ها، LMها را بهتر (دقیق‌تر، قابل اعتمادتر، قابل کنترل‌تر) کنیم.»


Comments