فکر کردن احتمالی

در سال 2018، یک وسیله نقلیه خودران اوبر با یک عابر پیاده در تمپ، آریزونا برخورد کرد و کشته شد. این اولین تصادف مرگبار با خودرویی بود که برای رانندگی خود طراحی شده بود. گفته می شود خودرو عابر پیاده را دید اما ترمز نکرد. گزارش‌های خبری به نقل از یک استاد دانشگاه پرینستون می‌گوید: «این باید هشداری برای همه شرکت‌هایی باشد که خودروهای خودران را آزمایش می‌کنند تا سیستم‌های خود را بررسی کنند تا مطمئن شوند در صورت لزوم به‌طور خودکار متوقف می‌شوند.»1 در روز حادثه، رئیس. پلیس تمپ توضیح متفاوتی ارائه کرد: "بسیار واضح است که بر اساس نحوه بیرون آمدن او از سایه، اجتناب از برخورد دشوار بود."

آیا اوبر واقعاً وسیله نقلیه خود را برای کشتن برنامه ریزی کرده است؟ البته که نه. اما این نیز درست نیست که وسیله نقلیه فرد را ندیده است. در عوض، شش ثانیه قبل از برخورد، وسیله نقلیه وجود یک شی ناشناخته را پیش‌بینی کرد. زمانی که وسیله نقلیه پیش بینی کرد که شی ناشناخته احتمالاً یک شخص است، برای ترمزهای اضطراری برای ایجاد تفاوت بسیار دیر شده بود.

به عبارت دیگر، هر دو تفسیر به دلیل قطعی بودن اشتباه است. وسیله نقلیه یک شی را تشخیص داد و احتمال کمی وجود داشت که آن شی یک شخص باشد. اگر وسیله نقلیه از قبل پیش بینی می کرد که احتمالاً یک جسم است، ترمز می کرد و از فاجعه جلوگیری می شد. بررسی گزارش تصادف حاکی از آن است که خودرو با احتمال بسیار کم با فردی برخورد کرده است. صفر نیست، اما بسیار کوچک است. علاوه بر این، وسیله نقلیه طوری برنامه ریزی شده بود که تا زمانی که بعید به نظر می رسید که چیزی یک شخص باشد، حرکت کند. این ممکن است 0.01 درصد، 0.0001 درصد یا 0.000000001 درصد باشد، اما هرگز صفر نیست. ماشین ها اینطوری کار نمیکنن

این یک نتیجه وحشتناک است. یک وسیله نقلیه خودران عابر پیاده را با احتمال کافی برای ترمزگیری ندید. برای درک اینکه این تصمیم بدی بوده، تلاش بیشتری می طلبد. پس از تصادف، اوبر برنامه خودروهای خودران خود را متوقف کرد. هنگامی که در دسامبر 2018 رانندگی خودکار را از سر گرفت، برنامه متفاوت به نظر می رسید. اتومبیل ها به بیست و پنج مایل در ساعت یا کمتر محدود می شدند و همیشه دو راننده ایمنی داشتند. تعدادی از تغییرات دیگر، از نظارت شخص ثالث بر رانندگان تا روش‌های مختلف ترمز خودکار را معرفی کرد. یک تصمیم مبتنی بر آستانه نمی توانست آن را کاهش دهد.

فکر کردن در شرط بندی

مهم است که بین یک تصمیم بد و یک نتیجه بد تمایز قائل شوید. گاهی اوقات تصمیمات خوب منجر به نتایج بد می شود. این یکی از پیام‌های اصلی کتاب «اندیشیدن درباره شرط‌بندی» نوشته آنی دوک، حرفه‌ای پوکر است. تا زمان نگارش این مقاله، دوک تنها زنی است که قهرمان مسابقات ملی پوکر NBC شده است. پوکر یک بازی شانس و مهارت است. این امکان وجود دارد که کارت های خود را درست بازی کنید و ببازید. همچنین می توان روی یک دست بد شرط بندی کرد و خوش شانس بود.

دوک استدلال می کند که وقتی همه چیز اشتباه می شود، مهم است که به تصمیم بد یا بدشانسی فکر کنید. اگر فقط بدشانسی است، آن را به عنوان یک نتیجه بد طبقه بندی کنید و ادامه دهید. اگر تصمیم بدی است، یاد بگیرید و دفعه بعد بهتر عمل کنید.

بسیاری از بازیکنان پوکر آماتور نتیجه بدی می گیرند و استراتژی خود را تغییر می دهند. به همین ترتیب، افراد زیادی شرط بندی های احمقانه بزرگی انجام می دهند و برنده می شوند. سپس، آنها تصمیمات بعدی خود را بر اساس نتایج گذشته می گیرند. این عادت که او به آن برچسب "نتیجه" می زند، این بازیکنان را به مرور بدتر می کند. بدون توانایی تشخیص اینکه آیا یک نتیجه نتیجه تصادف بوده یا نه، عدم اطمینان یادگیری را دشوار می کند.

مایکل جردن در پایان فصل 86-1985 بازی کرد و بدون مصدومیت بود. او در یک نتیجه خوب فرود آمد. این بهترین کار است، صرف نظر از شانس نسبی و بازگشت یک مصدومیت پایان حرفه ای و یک اخراج در پایان فصل. پس از آن فصل، او شش قهرمانی و پنج جایزه MVP را به دست آورد و با 2.6 میلیارد دلار تبدیل به پردرآمدترین ورزشکار تمام دوران شد. به نظر می رسد انجام آن بازی ها تصمیم درستی بوده است. شاید باید زودتر به تیم ملحق می شد. جردن مصدوم نشد، اما این بدان معنا نیست که او تصمیم درستی گرفته است.

فکر کردن در شرط بندی مستلزم این است که پیش بینی ها نامشخص هستند و درک اینکه نتایجی که تجربه می کنید تا حدی به طور تصادفی تعیین می شوند. و برای خودروها آسان نیست، قبل از خودرانی، پیش بینی و قضاوت با راننده بود. اگر یک راننده انسانی با یک عابر پیاده برخورد کند، ما هرگز نمی دانیم که آیا آنها یک خطای پیش بینی مرتکب شده اند (آنها فکر می کردند شانس برخورد با شخص در واقع صفر است، بنابراین ترمز نکردند) یا یک خطای قضاوت (آنها عجله داشتند و بیشتر بودند). آنها وزن سریع رسیدن به مقصد را بیشتر از اجتناب از تصادف می کنند). اگر آنها تصادف کردند، ما فرض می کنیم که قضاوت آنها خوب بوده است، اما آنها در پیش بینی خود از برخورد دچار خطای مکانیکی شده اند. در حال حاضر، به نظر می رسد جامعه با این موضوع مشکلی ندارد.

هنگامی که در حال طراحی یک خودروی خودران هستید، می توانید خطای پیش بینی را اندازه گیری کنید. اما پس از آن باید قضاوت را کمی کنید، که شامل انجام کارهای ناخوشایند مانند محاسبه هزینه زندگی و مقایسه آن با t است.

او تجربه مسافر بودن در ماشین را داشته است (ایستادن مکرر به دلیل احتیاط زیاد ناخوشایند است). مردم باید همیشه این را به طور ضمنی مبادله کنند، اما وقتی از آنها خواسته می شود که صریح باشند، اهانت کنند. برای یک تیم مهندسی و شاید اخلاقی که تصمیم می گیرد در مورد یک ماشین خودران چه کاری انجام دهد، ناخوشایند نخواهد بود.

پذیرش عدم قطعیت

فکر کردن در شرط بندی به معنای پذیرش عدم اطمینان است. ما احتمال وقوع چیزی را بررسی می کنیم. اگر به اندازه کافی احتمال دارد، به سمت چپ بروید. در غیر این صورت، به سمت راست بروید به عبارت دیگر، ما قاعده تصمیم خود را مشروط به پیش بینی به عنوان نقطه برش بیان می کنیم. اگر پیش‌بینی‌ها بسیار دقیق باشند، این به خوبی کار می‌کند. تصمیم مایکل جردن در مورد بازی کردن و خطر مصدومیت بیشتر را به یاد بیاورید. اگر پزشکان می‌گفتند که احتمال آسیب‌دیدگی به پایان حرفه‌ای صفر است، جردن و رینزدورف هم تردید نمی‌کردند. تصمیم دشوار بود زیرا پیش‌بینی شامل عدم قطعیت بود. جردن ارزیابی کرد که 90 درصد اعتماد به نفس کافی است. رینزدورف مخالفت کرد.

ایده مبنا قرار دادن تصمیم‌ها بر آستانه‌هایی که اعتماد را برمی‌شمارند، ایده جذابی است. به عنوان مثال، فرآیندی را در نظر بگیرید که طی آن پناهندگان برای ورود به کشورها ارزیابی شده اند، تصمیمی که مملو از عدم اطمینان است. بر اساس شهادت یک مدعی پناهندگی، داوران پناهندگی باید تصمیم بگیرند که آیا ادعای فرد را معتبر می‌دانند و در صورت رد ادعایشان، طبق کنوانسیون سازمان ملل متحد در مورد پناهندگان آسیبی به وی وارد خواهد شد یا خیر. علاوه بر این، اسناد پشتیبان لزوماً کم هستند و داوران بازخورد کمی در مورد اینکه آیا تصمیمات گذشته آنها صحیح بوده است دریافت می کنند.

در حال حاضر، داوران تمام تلاش خود را می کنند تا شواهد را سنجیده و تصمیم بگیرند. داوران معمولاً در تصمیمات خود کاملاً مطمئن هستند. همانطور که یکی از محققین بیان می کند، "به نظر می رسد برخی از مردم فکر می کنند که قلب آنها یک داور معتبر منحصر به فرد حقیقت است، و اگر قلب آنها به آنها بگوید که کسی دروغ می گوید، خوب، آنها باید دروغ می گویند."

اعتماد به نفس نابجاست برای تصمیم گیری سنجیده تر، داشتن یک پیش بینی در دسترس است که احتمالی را به این احتمال که مدعی معین، مثلاً دروغ می گوید یا نه، اختصاص دهد. هدف بهبود نتایج تصمیم گیری به جای افزایش نرخ ادعاهای پذیرفته شده است.

در حال حاضر، اطلاعاتی در مورد نتایج در دسترس نیست تا ببینیم آیا تصمیمات برای پذیرش یا رد پناهندگان منجر به نتایجی شده است که داوران فکر می کردند. اگر این داده ها جمع آوری می شد، می توان یک ماشین پیش بینی ساخت که می تواند مدعیان آینده را ارزیابی کند. با آن ماشین، ما ارزیابی مطمئن تری بر اساس شواهد خواهیم داشت. در یکی از پرونده های کانادایی، یک مدعی پناهندگی از آلمان ادعا کرد که توسط دولت در مدرسه پسرش تحت تعقیب قرار گرفته است و پلیس آلمان نمی تواند به او کمک کند. داده‌های زیادی در مورد واکنش پلیس آلمان به گزارش‌های جنایی وجود دارد، بنابراین می‌توان پیش‌بینی مطمئنی ایجاد کرد که پلیس از او محافظت می‌کند، حداقل همانطور که برای ادعای پناهندگی لازم است. داوران همچنین می توانند مطمئن باشند که شواهد ادعایی در مورد یک فعال LGBTQ از یمن یا عضوی از اقلیت تحت تعقیب در سودان را تأیید می کند.

بسیاری از موارد دیگر جای تردید باقی می گذارد. اغلب اطلاعات ناکافی در مورد اینکه آیا نیروی پلیس به درخواست‌های حمایت از خشونت خانگی پاسخ می‌دهد یا اینکه مشخصات مدعی برای جلب توجه دولت کافی است وجود دارد. در این موارد، داده های از دست رفته به معنای عدم قطعیت است. آشکار کردن این عدم قطعیت باید اعتماد بیش از حد را کاهش دهد.

قاضی باید قضاوت خود را با مقایسه پیش‌بینی‌های نامطمئن با ارزیابی «[کدام] اشتباه بدتر است: رد ادعای پناهندگی که باید پذیرفته می‌شد، یا اعطای ادعایی که باید رد می‌شد؟» اعمال کند. به اندازه کافی ساده است، اما ریسک آن زیاد است. رد ادعای قانونی پناهندگی می تواند منجر به شکنجه یا مرگ شود. پذیرش یک ادعای نادرست به این معنی است که مردم از سخاوت یک کشور سوء استفاده می کنند. طبق کنوانسیون سازمان ملل، پذیرش ادعای نادرست بدتر است. یک "اشتباه اشتباه" آشکار در رد ادعای مشروع وجود دارد.

با جدا کردن پیش‌بینی و قضاوت و روشن کردن این موضوع که حتی با بهترین هوش مصنوعی‌ها، پیش‌بینی‌ها برای ادعای پناهندگان نامشخص است، هوش مصنوعی می‌تواند به روند بهتری منجر شود. در پایان، اگر ماشین پیش‌بینی عدم قطعیت ذاتی در پیش‌بینی را بپذیرد، ادعاهای بیشتری پذیرفته می‌شود. هزینه های نه گفتن بسیار زیاد خواهد بود.

سیستم فعلی به این صورت کار نمی کند. داوران از یک ماشین پیش بینی که عدم قطعیت را در ارتباط است استفاده کمی دارند. آنها برای تفسیر عدم قطعیت آماری آموزش ندیده اند و قانون در مورد اینکه اشتباه اشتباه واقعا چقدر بدتر است مبهم است. حتی اگر داوران آموزش داشته باشند، نمی توان آن را در روند موجود حذف کرد. پذیرش همه ادعاهای نامشخص پناهندگی باعث ایجاد فشار سیاسی برای دشوارتر کردن ورود پناهندگان می شود. همچنین ممکن است انگیزه هایی برای مبهم کردن اطلاعات ایجاد کند. هوش مصنوعی برای ادعای پناهندگی، با وجود

​Look up detailsپتانسیل آن برای یک فرآیند عادلانه تر، بدون تغییر سیستم امکان پذیر نیست. بخشی از این سیستم جدید، درک صریح قضاوت، چگونگی اندازه گیری خطر نسبی یک اشتباه اشتباه است.

قضاوت گمشده هوش مصنوعی را محدود می کند

قضاوت بیان چیزی است که شما می خواهید. اما اگر زمینه جدیدی وجود داشته باشد یا اطلاعات چیزی نباشد که قبلاً با آن برخورد کرده اید، آیا لزوماً می دانید چه می خواهید؟ یک قاضی برای دعاوی پناهندگی چگونه باید این بیانیه را تفسیر کند که 40 درصد احتمال دارد که ادعایی مشروع باشد؟ در گذشته، داوران پیش بینی و قضاوت را در تصمیم گیری های خود ترکیب می کردند. برای بسیاری از کاربردهای جدید هوش مصنوعی، قضاوت - جدا از پیش بینی - ممکن است هنوز وجود نداشته باشد. از آنجایی که توانایی پیش‌بینی آنچه اتفاق می‌افتد وجود نداشت، هیچ اقدامی وجود نداشت که بتوان مشروط به آن پیش‌بینی انجام داد و از این رو، دلیلی برای یافتن نتیجه آن اقدام وجود نداشت.

این بدان معناست که پیش‌بینی و قضاوت به طور بالقوه در معرض یک مشکل مرغ و تخم‌مرغ است که به نوبه خود مانعی برای پذیرش ماشین‌های پیش‌بینی و ساخت سیستم‌های هوش مصنوعی جدید ایجاد می‌کند. سرمایه گذاری و اتخاذ پیش بینی های بهتر تنها در صورتی ارزشمند است که از آن اطلاعات استفاده کنید. اگر به طور فرضی پیش‌بینی بهتری داشته باشید، کاری که ممکن است انجام دهید، تنها زمانی مفید است که پیش‌بینی بهتری داشته باشید. به همین دلیل، نداشتن قضاوت خود محدودیتی برای تمایل شما به سرمایه گذاری در پیش بینی بهتر است و بالعکس.

درک قضاوت

قضاوت را می توان با کار کردن بر روی نتایج پیش بینی شده قبل از واقعیت ایجاد کرد. با تحقیق، ارزیابی و یادگیری از دیگران، می‌توانید مشخص کنید که در موقعیت‌های مختلف چه نتایجی محتمل است. اینگونه است که اکثر ما یاد گرفتیم که به اجاق گاز داغ دست نزنیم. یک نفر به شما گفت که اگر به اجاق گاز دست بزنید خود را می سوزانید. شما قضاوت را بدون تجربه سوختگی یاد گرفتید. شخص دیگری حکم را منتقل کرد. مزیت آن این است که از انجام اشتباهات پرهزینه در طول مسیر جلوگیری می کند.

ممکن است برخی از شما شک داشته باشید. به کودکان گفته می شود که همه کارها را انجام ندهند و بسیاری از آنها عواقب کمی دارند. خوانندگان سرکش تر ممکن است اجاق داغ را لمس کرده باشند. سپس تکامل شروع شد و شما درد لمس یک اجاق گاز داغ را تجربه کردید. شما به روشی دیگر، از تجربه آموختید.

شما انتخاب می کنید و سپس بازخورد دریافت می کنید. نتایج شما را از هزینه ها و مزایای مسیرهای مختلف آگاه می کند. هر چه بیشتر با انتخاب های مختلف در زمینه های مختلف تجربه کنید، نتایج شما بیشتر برای شما ترسیم می شود. تصویری که از آن تجربه می سازید، قضاوتی است که به شما امکان می دهد بدانید در آینده چه کاری انجام دهید.

این دو راهی است که قضاوت ساخته می شود. یا شامل یادگیری برنامه ریزی شده از شخص دیگری با خواندن، دستورالعمل ها یا فرهنگ می شود، یا با تجربه آموخته می شود. اکنون هر یک از این راه ها را به ترتیب بررسی می کنیم.

داشتن پیش‌بینی‌های کم‌هزینه یا با کیفیت، کار قضاوت از طریق تجربه را آسان‌تر می‌کند. اما اگر این پیش‌بینی‌ها به سرمایه‌گذاری و توسعه نیاز داشته باشند، چه می‌شود؟ پیش‌بینی‌ها ممکن است به دنبال آن توسعه ارزان باشند، اما هزینه‌های مربوط به به دست آوردن داده‌ها و آموزش، و سپس آزمایش الگوریتم‌های حاصل، ممکن است نیاز به توجیه روشنی برای استفاده از آنها داشته باشد. انجام یک تجزیه و تحلیل دقیق از اینکه در صورت وجود پیش‌بینی‌ها چه انتخاب‌هایی ممکن است انجام شود - یعنی پیش‌اندیشی در مورد نتایج به منظور دستیابی به قضاوت لازم - ممکن است ضروری باشد. برای مثال، بسیاری از سرمایه‌گذاران خطرپذیر، استارت‌آپ‌هایی را تأمین مالی می‌کنند که موفقیت آنها بر اساس درجه بالایی از عدم قطعیت است، اما قبل از انجام این سرمایه‌گذاری، بررسی کنید که در صورت موفقیت، بهتر است از طریق IPO یا خرید خصوصی خارج شوید. بیا.6

در انجام این تمرین، طبیعی است که فرض کنیم نتایج برای سناریوهایی که متداول‌تر از سناریوهای کم‌تکرار در نظر گرفته می‌شوند، بررسی می‌شوند. با این حال، وقتی نوبت به برنامه‌ریزی انتخاب‌ها برای سناریوهای مختلف می‌رسد، مسئله لزوماً این نیست که آیا پیش‌بینی می‌تواند بین موارد کم‌تر یا بیشتر تمایز قائل شود، بلکه این است که آیا می‌تواند سناریوها را زمانی که اقدامات به‌طور چشمگیری متفاوتی تضمین می‌کنند تمایز قائل شود.

اجازه دهید کاربرد هوش مصنوعی در کلاهبرداری کارت اعتباری را در نظر بگیریم. وقتی کارت اعتباری خود را بکشید، مجموعه‌ای از الگوریتم‌ها را به حرکت در می‌آورد که تعیین می‌کنند آیا تراکنش را پردازش کنید یا رد کنید. ممکن است به دلیل تمام شدن اعتبار یا مشکوک بودن به تقلب رد شود. یک شبکه کارت اعتباری نمی‌خواهد تراکنش‌هایی را که مشکوک به کلاهبرداری است مجاز کند، زیرا مسئول هزینه‌های مرتبط با آن سرقت است. از سوی دیگر، کل تجارت کارت های اعتباری بر این استوار است که برای مشتریان و تجار آسان و بدون دردسر باشد. بنابراین، رد معامله مشروع مضر است. مصرف کنندگان ممکن است ناامید شوند یا بدتر از آن، به استفاده از کارت دیگری روی بیاورند.

هنگامی که الگوریتم شبکه کارت اعتباری مشکوک به تقلبی بودن یک تراکنش باشد، امتیازی به آن اختصاص می‌دهد.

​Look up detailsامکان پذیری. در واقع، این امتیاز نشان دهنده احتمال تقلبی بودن معامله است. اما برای بررسی نحوه واکنش به این اطلاعات، قضاوت لازم است. این قضاوت با بازرگان یا هیچ کس در زمین نیست. در عوض، نحوه استفاده از اطلاعات در سیستم برنامه ریزی می شود و تصمیم گیری در مورد پذیرش یا رد کارت به صورت خودکار انجام می شود. چگونه می تواند غیر از این باشد؟

این بدان معنی است که قضاوتی که نحوه تبدیل یک امتیاز به یک اقدام را قبول یا رد می کند، باید از پیش اندیشیده شود، که به احتمال زیاد از کمیته ای می آید که گزینه ها را ارزیابی کرده است. اگر امتیاز پیش‌بینی همیشه 100 درصد یا 0 درصد بود، پس برای تصمیم‌گیری در مورد اقدام درست به قضاوت زیادی نیاز ندارید. با این حال، کاری که شما انجام می دهید، تعیین آستانه ای برای امتیاز است که تراکنش بالاتر از آن رد و زیر آن پذیرفته می شود. و برای اکثریت قریب به اتفاق تراکنش‌ها، پذیرفته می‌شود، که نشان می‌دهد نمرات تقلب نسبتاً بالا اتفاق نادری هستند. این شاید توضیح دهد که چرا قبل از هر گونه امتیازدهی الگوریتمی، شرکت کارت اعتباری تصمیم گیری در مورد پذیرش یا عدم پذیرش کارت را به تاجر واگذار کرد.

این آستانه باید برای متعادل کردن دو خطا انتخاب شود. اول این که ممکن است معاملات متقلبانه مجاز باشد. هزینه آن صرفاً هزینه مربوط به شرکت کارت است، نه اینکه تاجر یا دارنده کارت هزینه تراکنش را متحمل شود، که می تواند از داده های تاریخی محاسبه شود. هزینه دوم این است که معاملات قانونی ممکن است رد شود. محاسبه هزینه در اینجا دشوارتر است، و بنابراین، قضاوت دشوارتر است. نوع دارنده کارت احتمالاً در اینجا نقش مهمی ایفا می کند. یک شرکت کارت اعتباری ممکن است نگران این نوع خطا باشد اگر دارنده کارت یک مشتری ممتاز باشد که در صورت ناامیدی ممکن است تمام تراکنش ها را به کارت دیگری منتقل کند. بنابراین، قضاوت اعمال شده به سایر ویژگی های مشتری مربوط می شود. این می تواند با خود امتیازدهی تقلب در تعامل باشد. به هر حال، پیش‌بینی یک معامله متقلبانه به برون‌یابی چیزی غیرعادی از معامله‌ای که در دست بررسی است بستگی دارد. برای دارندگان کارت پریمیوم که اغلب سفر می‌کنند، پیش‌بینی این موضوع ممکن است سخت‌تر از دارندگان کارت معمولی باشد که الگوهای مصرف پایدارتری دارند.

به راحتی می توان فهمید که چگونه قضاوت با برنامه ریزی از قبل می تواند یک تمرین پیچیده با ابعاد مختلف باشد. این ابعاد باید به چیزی قابل توصیف ترجمه شوند تا حداقل در مورد کارت‌های اعتباری بتوان آن را در فرآیند خودکار کدگذاری کرد. با اتوماسیون، قضاوت شامل افراد می شود که قبل از رسیدن به تصمیم خاص، درباره آنچه مهم هستند قضاوت می کنند. این پیچیدگی مانعی برای پذیرش سیستم‌های هوش مصنوعی ایجاد می‌کند. افرادی که قضاوت می کنند تغییر می کنند. به جای اینکه تاجران یک پیش‌بینی و قضاوت ترکیبی در مورد اینکه آیا کسی اعتبار خود را رعایت می‌کند یا خیر، اعمال کنند، شرکت کارت اعتباری پیش‌بینی‌های لحظه به لحظه را با قضاوت دقیق و برنامه‌ریزی شده در مقیاس ترکیب می‌کند.

سفر تجربه

تجربه، با ارائه قضاوت - دانستن اینکه در شرایط خاص چه باید کرد - می تواند به تصمیم گیری های بهتر منجر شود. با این حال، سفری که طی آن اتفاق می افتد ممکن است ساده نباشد. از این گذشته، اینکه آیا چیزی را تجربه می کنیم بستگی به (الف) آنچه اتفاق می افتد و (ب) دانستن اینکه آنچه اتفاق افتاده است واقعاً اتفاق افتاده است. اگر به طور تصادفی یک اجاق داغ را لمس کنید، هر دوی شما یک تجربه (امیدوارم) جدید داشته اید و می توانید بفهمید که چه عواقبی دارد. اما این مستلزم تصادف است. اگر می دانید که یک اجاق ممکن است داغ باشد و بنابراین هرگز آن را لمس نکنید، واقعاً متوجه نمی شوید که چه عواقبی خواهد داشت. ما نمی گوییم که این یک استراتژی بد است. ما فقط به این نکته اشاره می کنیم که انتخاب های شما ممکن است تجربیات شما را راهنمایی کند

برای دقیق تر کردن این موضوع، موقعیتی را در نظر بگیرید که در آن دو اقدام برای انتخاب دارید. یکی از اقدامات، که ما آن را اقدام وضع موجود می نامیم، کاری است که شما همیشه انجام داده اید. شما دقیقاً می‌دانید که از آن چه چیزی به دست می‌آورید، و این ویژگی دیگری دارد که آنچه را که به دست می‌آورید همیشه یکسان است. عملی است با بازگشت معین. عمل دیگری که ما آن را اقدام مخاطره آمیز می نامیم، کاری است که شما هرگز انجام نداده اید. شما فقط نمی دانید که اگر اقدام مخاطره آمیز انجام دهید، چه اتفاقی می افتد. به عنوان مثال، ممکن است فردی را استخدام کنید که معیارهای معمول را برآورده نمی کند. یا ممکن است تامین مالی یک استارتاپ باشد که کاملاً با تز سرمایه گذاری معمول شما مطابقت ندارد. در اینجا، حتی اگر سیگنالی در مورد انتخاب مخاطره آمیز دریافت کنید که به شما کمک می کند زمینه تصمیم را بهتر درک کنید، ممکن است هنوز ندانید که آیا ارزش دنبال کردن آن را دارد یا خیر.

در این شرایط ممکن است گیر کرده باشید. پیش‌بینی‌ای که به شما اطلاعات می‌دهد ممکن است در دسترس باشد، اما اگر نمی‌دانید با این اطلاعات چه کاری انجام می‌دهید، ممکن است برای آن پیش‌بینی هزینه پرداخت نکنید. اما بدون این پیش‌بینی، به هر حال به وضعیت موجود ادامه می‌دهید و هرگز متوجه نمی‌شوید که این اقدام مخاطره‌آمیز چه چیزی برای شما در نظر گرفته است. باز هم، چالش‌ها در ساختن قضاوت مانعی برای ساختن سیستم‌های هوش مصنوعی هستند.
اگر سود راه حل سیستم هوش مصنوعی بالا باشد
نه، ارزش سرمایه گذاری در ساختن قضاوت را دارد، بنابراین این وضعیت مرغ و تخم مرغ ممکن است ناامید کننده نباشد. افرادی که بهترین موقعیت را برای ساختن آن قضاوت، از طریق تجربه یا برنامه ریزی دارند، ممکن است با افرادی که در حال حاضر بر اساس پیش بینی و قضاوت دسته بندی شده تصمیم می گیرند، متفاوت باشند.

 استاندارد برای همه چیز

در بسیاری از موارد، ما نمی دانیم که فرد دقیقاً چه واکنشی به مصرف دارو برای درمان یک بیماری نشان می دهد. ما اغلب می دانیم که برخی از افراد دچار عوارض جانبی وحشتناکی می شوند. افراد مختلف متفاوت هستند. اثرات دارویی احتمالی است. از آنجایی که حتی داروهای خوب هم برای همه موثر نیستند، گاهی اوقات تشخیص داروهای خوب و داروهای بد دشوار است.

این مشکل می‌توانست مانع از تکامل بازار داروها در گذشته فروشندگان روغن مار در اوایل قرن بیستم شود. با این حال، ما یک فرآیند نظارتی (به رهبری سازمان غذا و دارو در مورد داروها در ایالات متحده) ایجاد کردیم تا مزایای کلی هر دارو را برای هر نشانه در مقابل هزینه‌ها بسنجیم. فرآیند نظارتی ماهیت احتمالی اثربخشی دارو را تشخیص می‌دهد و از کارآزمایی‌های تصادفی‌سازی شده  برای تعیین اینکه آیا یک دارو مؤثر است یا خیر، استفاده می‌کند. علاوه بر این، نسبت سود به هزینه را در مجموع و همچنین برای گروه‌های باریک خاص در سراسر توزیع سنی و سایر توزیع‌ها در نظر می‌گیریم. نمونه اخیر تأییدیه های مرحله ای FDA برای واکسن های کووید-19، ابتدا برای بزرگسالان، سپس برای کودکان است.

همانطور که ما به طرح‌های سیستم جدیدی فکر می‌کنیم که رویکردهای قطعی را با رویکردهای احتمالی جایگزین می‌کنند، ممکن است لازم باشد رویکردهای نظارتی مشابهی را برای حوزه‌هایی که قبلاً به طور مشابه تنظیم نشده‌اند در نظر بگیریم.8 برای مثال، اگرچه ما از رانندگان جدید می‌خواهیم در یک امتحان رانندگی ساده شرکت کنند، اما هرگز قضاوت آنها را بررسی نمی‌کنیم. در مورد هزینه‌های احتمالی آسیب رساندن به دیگران، ممکن است به چیزی مانند FDA برای هوش مصنوعی رانندگی خودکار نیاز داشته باشیم که آزمایش کند آیا اقدامات وسایل نقلیه نسبت به دستورالعمل‌های تعیین‌شده ایمن هستند یا خیر.

ما به طور مشابه ممکن است به چیزی مانند FDA برای هوش مصنوعی که وام بانکی اعطا می کند نیاز داشته باشیم. این تنظیم کننده اقدامات اعطای وام هوش مصنوعی را آزمایش می کند تا مشخص کند که آیا این اقدامات با الزامات قانونی مطابقت دارند یا خیر. علاوه بر این، ممکن است به چیزی مانند FDA برای سیستم‌های هوش مصنوعی کنترل ربات انبار نیاز داشته باشیم، جایی که ربات‌ها در نزدیکی افراد کار می‌کنند تا آزمایش کنیم که آیا اقدامات روبات‌ها نسبت به برخی معیارها ایمن هستند یا خیر.

درست همانطور که صنعت داروسازی احتمالی و غیرقابل تأیید از یک فرآیند نظارتی که برای اطمینان دادن به شهروندان ایجاد شده بود بهره برد. مزایای هوش مصنوعی همانطور که از طریق The Between Times به عصر جدیدی از هوش مصنوعی فراگیر می رویم که در آن اکثر سیستم ها از قطعی به احتمالاتی در حال گذار هستند، ممکن است تقریباً برای همه چیز به FDA نیاز داشته باشیم. این نهادهای نظارتی بخشی از سیستم جدید خواهند شد.

قضات درست چه کسانی هستند؟

اینکه چه کسی قضاوت دارد، چگونه به دست می‌آید و چگونه در تصمیم‌گیری‌ها پیاده‌سازی می‌شود - خواه به عنوان آستانه یا چیز پیچیده‌تر - همه انتخاب‌های کلیدی در طراحی سیستم‌هایی هستند که بر اساس پیش‌بینی هوش مصنوعی ساخته شده‌اند. به یاد داشته باشید که پیش‌بینی هوش مصنوعی اغلب به این معنی است که شما اکنون می‌توانید انتخاب کنید که چه کسی داور مناسب باشد، در مقابل ترکیب مناسب پیش‌بینی‌کننده و داور، زیرا این توابع از هم جدا می‌شوند. با این حال، جداسازی به این معنی است که باید انتخاب کنید چه کسی آن پیش‌بینی‌ها را به دست می‌آورد و همچنین بدانید که چگونه از پیش‌بینی‌ها استفاده می‌شود. پیش‌بینی‌ها ممکن است به یک مکان بروند - مثلاً، الگوریتمی که قضاوت از پیش تعیین‌شده را برای ایجاد آستانه‌هایی برای پیش‌بینی‌هایی که اقدامات را آغاز می‌کنند - یا به مکان‌های زیادی، مانند پیش‌بینی بهترین مسیر ناوبری که در دسترس بسیاری از رانندگان است، در خود جای دهد.

این تغییرات ممکن است مخل باشد و در حین اجرا باعث ایجاد اختلاف شود. با این وجود، فرصتی برای بازاندیشی در سیستم ایجاد می‌شود که با جداسازی شروع شده و سپس بر اساس یافتن داوران مناسب است. این قضات ممکن است با تصمیم گیرندگان امروزی متفاوت باشند. آنها باید بدانند که چگونه در شرط بندی فکر کنند و مهارت های برنامه ریزی مناسب، تجربه یا فرصت تجربه برای ایجاد قضاوت مناسب داشته باشند.

امتیاز کلیدی

•  AIزمانی که تفکر احتمالی را وارد یک سیستم می کنند. وقتی یک تصادف رانندگی را بررسی می کنیم، می پرسیم که آیا راننده عابر پیاده را قبل از برخورد آنها دیده است؟ ما انتظار پاسخ بله یا خیر را داریم. ما کمتر عادت کرده ایم که با «نوعی» یا «کمی» سروکار داشته باشیم. با این حال، این دقیقاً پاسخی است که هوش مصنوعی ارائه می دهد. چیزی را دید که فکر می کرد انسانی به جاده نزدیک می شود، مثلاً با احتمال 0.01 درصد. وقتی یک هوش مصنوعی را به یک سیستم معرفی می کنیم، اغلب آن سیستم را از قطعی به احتمالی تبدیل می کنیم. گاهی اوقات سیستم موجود به خوبی طراحی شده است تا یک ورودی احتمالی را در خود جای دهد. در موارد دیگر، این فرصتی برای افزایش بهره وری از طریق طراحی مجدد سیستم ایجاد می کند.

•  برای تبدیل یک پیش‌بینی به تصمیم، باید قضاوت را اعمال کنیم. اگر مردم به طور سنتی

​Look up detailsتصمیم، در این صورت ممکن است قضاوت به عنوان متمایز از پیش بینی مدون نباشد. بنابراین، ما باید آن را تولید کنیم. از کجا آمده است؟ این می تواند از طریق انتقال (یادگیری از دیگران) یا از طریق تجربه باشد. بدون قضاوت موجود، ممکن است انگیزه کمتری برای سرمایه گذاری در ساخت هوش مصنوعی برای پیش بینی داشته باشیم. به طور مشابه، اگر هوش مصنوعی نداشته باشیم که بتواند پیش‌بینی‌های لازم را انجام دهد، ممکن است در توسعه قضاوت مرتبط با مجموعه‌ای از تصمیم‌ها، مردد باشیم. ما با مشکل مرغ و تخم مرغ روبرو هستیم. این می تواند یک چالش اضافی برای طراحی مجدد سیستم باشد.

•  برای بهره‌برداری کامل از قدرت هوش مصنوعی، بسیاری از برنامه‌ها به راه‌حل‌های جدید طراحی‌شده در سطح سیستم نیاز دارند که نه تنها شامل پیش‌بینی و قضاوت می‌شود، بلکه یک عملکرد نظارتی طراحی شده برای اطمینان از جامعه در هنگام انتقال سیستم‌ها از قطعی به احتمالی، طراحی شده است. ما از قبل نمی دانیم که سیستم در همه سناریوها چگونه رفتار خواهد کرد زیرا سخت کدگذاری نشده است. مشابه صنعت داروسازی که به سختی قابل تایید است و احتمالاتی از یک فرآیند نظارتی بهره می برد تا به شهروندان اطمینان دهد که علیرغم خطرات ناشی از عوارض جانبی، مزایا به طور کلی مثبت هستند، ممکن است به یک عملکرد نظارتی از نوع FDA نیاز داشته باشیم که ماشین ها را بررسی کند. تصمیمات در برابر یک چارچوب تست تعیین شده در بسیاری از موارد، این ممکن است برای موفقیت طراحی مجدد .سیستم که بر اطلاعات احتمالی متکی است، حیاتی باشد

Comments

Popular Posts