Featured
- Get link
- Other Apps
چگونه اقتدارگرایی بوجود می آید - وقتی اعتماد به نهادها را از بین ببرید
ابزارهای جدید می توانند ویدیوهای جعلی
ایجاد کنند و صدای افراد نزدیک به ما را شبیه سازی کنند
ایجاد و انتشار تبلیغات متقاعد کننده
که برای جلب منابع یک دولت استفاده می شود. اکنون تنها چیزی که نیاز دارید یک گوشی
هوشمند است. هوش مصنوعی مولد اکنون قادر به ایجاد تصاویر جعلی، شبیه سازی صدای ما
و حتی ویدیوهایی است که رویدادهای جهان را به تصویر می کشد و تحریف می کند. نکته
پایانی: از محافل شخصی ما گرفته تا سیرک سیاسی، همه اکنون باید بپرسند که آیا آنچه
می بینند و می شنوند درست است یا خیر. مدتهاست که به ما در مورد پتانسیل رسانههای
اجتماعی برای تحریف دیدگاه ما نسبت به جهان هشدار داده شده است، و اکنون این امکان
وجود دارد که اطلاعات نادرست و گمراهکنندهای بیش از هر زمان دیگری در رسانههای
اجتماعی منتشر شود. به همان اندازه مهم، قرار گرفتن در معرض جعلی های تولید شده
توسط هوش مصنوعی می تواند ما را وادار کند که صحت هر چیزی را که می بینیم زیر سوال
ببریم. تصاویر واقعی و ضبط های واقعی را می توان به عنوان جعلی رد کرد. دیوید رند،
استاد
که
این موضوع را مطالعه میکند، میگوید: «وقتی به مردم تقلبیهای عمیق و هوش مصنوعی
مولد نشان میدهید، بسیاری از اوقات از آزمایش بیرون میآیند و میگویند: «دیگر به
چیزی اعتماد ندارم». ایجاد، انتشار و نفوذ اطلاعات نادرست. رنه دی رستا، محقق
رصدخانه اینترنتی استانفورد، میگوید ترکیب محتوای جعلی با تولید آسان و سوء ظن به
جعلی بودن هر چیزی به مردم اجازه میدهد آنچه را که میخواهند باور کنند، انتخاب
کنند. این منجر به چیزی می شود که او آن را «واقعیت های سفارشی شده» می نامد. یافتن
نمونه هایی از محتوای گمراه کننده ایجاد شده توسط هوش مصنوعی، به ویژه در شبکه های
اجتماعی، کار سختی نیست. یکی از تصاویر جعلی که به طور گسترده منتشر شده از اسرائیلیها
که برای حمایت از کشورشان در خیابانها صف کشیدهاند، نشانههای تولید شده توسط
هوش مصنوعی بسیاری دارد - از جمله موارد عجیب و غریب، اگر دقت کنید، مانند اجساد و
اعضای بدن. تحریف شده، آشکار می شوند. به این دلایل، تصویری که به طور گسترده به
اشتراک گذاشته شده و به نظر میرسد که هواداران را در یک مسابقه فوتبال در اسپانیا
نشان میدهد که پرچم فلسطین را به نمایش میگذارد، قابل بررسی نیست. برای کاربری
آسان است که چنین علامتی را از دست بدهد و بلافاصله تصمیم بگیرد که پستی را در
شبکه های اجتماعی لایک یا تقویت کند. و با ادامه بهبود هوش مصنوعی، این احتمال
وجود دارد که چنین علائمی در آینده دشوارتر شوند. رند میگوید: «چیزی که کار ما
نشان میدهد این است که اکثر مردم عادی نمیخواهند چیزهای نادرست را به اشتراک
بگذارند - مشکل این است که برایشان اهمیتی ندارد. با گسترش محتوای جعلی که به سختی
قابل تشخیص است، جای تعجب نیست که مردم اکنون از وجود آن به عنوان بهانه ای برای
رد اطلاعات دقیق استفاده می کنند. به عنوان مثال، در اوایل سال جاری، وکلای ایلان
ماسک، در جریان یک دعوی قضایی بر سر مرگ مردی که از سیستم «خودرانی کامل» تسلا
استفاده میکرد، به شواهد ویدیویی ادعاهای ماسک در مورد این نرمافزار پاسخ دادند
و به گسترش «کلاهبرداری عمیق» اشاره کردند. ماسک دلایلی برای رد چنین شواهدی داشت.
آنها این استدلال را مطرح کردند حتی اگر کلیپ ماسک کاملا واقعی بود. قاضی پرونده
گفت این استدلال "عمیقاً نگران کننده" است. اخیراً بسیاری در TikTok و Twitter ادعا کرده اند که تصویر وحشتناک قربانی
حمله حماس به اسرائیل که توسط بنیامین نتانیاهو نخست وزیر اسرائیل در توییتر منتشر
شده است توسط هوش مصنوعی ساخته شده است. کارشناسان می گویند هیچ مدرکی دال بر تغییر
یا ایجاد این تصویر توسط هوش مصنوعی وجود ندارد. اگر بحران اصالت به رسانههای
اجتماعی محدود میشد، شاید بتوانیم در ارتباط با نزدیکترین افراد به خود آرامش پیدا
کنیم. اما حتی این تعاملات اکنون به طور بالقوه مملو از کلاهبرداری های تولید شده
توسط هوش مصنوعی است. کمیسیون تجارت فدرال ایالات متحده اکنون هشدار می دهد که چیزی
که شبیه تماس نوه ها برای درخواست پول وثیقه به نظر می رسد ممکن است کلاهبردارانی
باشند که نوارهای صدای نوه را از رسانه های اجتماعی حذف کرده اند تا پدربزرگ و
مادربزرگ را فریب دهند تا وثیقه بگیرند. به همین ترتیب، اخیراً نوجوانانی در نیوجرسی
در حال اشتراک گذاری تصاویر برهنه جعلی از همکلاسی های خود که با ابزارهای هوش
مصنوعی ساخته شده بودند، دستگیر شدند. و در حالی که اینها نمونه های بدی هستند،
شرکت هایی مانند آلفابت، شرکت مادر گوگل، تلاش می کنند تا تغییر تصاویر شخصی را به
یک چیز خوب تبدیل کنند. این شرکت با جدیدترین تلفن پیکسل خود، مجموعه ای از
ابزارهای جدید و بهبود یافته را رونمایی کرد که می توانند به طور خودکار چهره یک
فرد را در یک تصویر با چهره او از تصویر دیگر جایگزین کنند یا به سرعت یک فرد را
به طور کامل حذف کنند. حذف یک عکس ساختن تصاویر عالی عالی است، اما همچنین از پایان
ثبت خاطرات شخصی معتبر، همراه با عجیب و غریب خود به خود و لحظات برنامه ریزی نشده
استقبال می کند. جوزف استالین، که علاقه مند به پاک کردن افرادی بود که دوستش
نداشت از عکس های رسمی، این فناوری را دوست داشت. در دفاع از گوگل، سوابقی را
اضافه می کند که آیا یک تصویر به داده های پیوست شده به آن اصلاح شده است یا خیر.
اما چنین ابرداده ای فقط در عکس اصلی و برخی از کپی ها قابل دسترسی است و به
اندازه کافی آسان است که حذف شود. همه موافق نیستند که مسلح کردن مردم به دسترسی
آسان به هوش مصنوعی مشکلات فعلی ما را با اطلاعات نادرست تشدید می کند. بحث اصلی
چنین کارشناسانی این است که در حال حاضر
او میکس اوضاع را بدتر نمی کند. حتی
اگر این درست باشد، واقعاً اطمینانبخش نیست، بهویژه با توجه به این که اعتماد به
مؤسسات در ۷۰ سال گذشته در یکی از پایینترین نقاط در ۷۰ سال گذشته بوده است، و قطبیسازی - معیاری
برای میزان بیاعتمادی ما به یک مؤسسه. دیگری - در نقطه بالایی قرار دارد. وقتی
اعتماد به رسانهها، دولت و کارشناسان را از بین ببریم چه اتفاقی میافتد؟» هانی
فرید، استاد دانشگاه کالی فورنیا، برکلی که متخصص در پزشکی قانونی دیجیتال و تجزیه
و تحلیل تصویر است، گفت. «اگر شما به من اعتماد ندارید و من به شما اعتماد ندارم،
چگونه در برابر بیماری های همه گیر، یا تغییرات آب و هوایی واکنش نشان دهیم، یا
انتخابات عادلانه و باز داشته باشیم؟ این است که اقتدارگرایی به وجود می آید - وقتی
اعتماد به نهادها را از بین ببرید.»
- Get link
- Other Apps
Popular Posts
- Get link
- Other Apps
- Get link
- Other Apps
Comments
Post a Comment