تصویر آخرالزمانی هوش مصنوعی از دور دوم ریاستجمهوری بایدن!
دیپفیک(Deep Fake) فناوری جدیدی است که در آن تصاویر و ویدیوهای دروغ، اما واقع گرایانه ساخته میشوند. امروزه ویدیوهای دیپفیک از بسیاری افراد مشهور ساخته شده و در فضای مجازی منتشر میشوند.
فناوری دیپفیک و تولید تصاویر جعلی توسط هوش مصنوعی تشخیص حقیقت و دروغ را هر روز دشوارتر از دیروز میکند. به تازگی فیلمی جعلی با تصاویر تولید شده توسط هوش مصنوعی منتشر شده که نشان میدهد دوره دوم بایدن-هریس به چه آخرالزمانی تبدیل خواهد شد.
دیپفیک(Deep Fake) فناوری جدیدی است که در آن تصاویر و ویدیوهای دروغ، اما واقع گرایانه ساخته میشوند. امروزه ویدیوهای دیپفیک از بسیاری افراد مشهور ساخته شده و در فضای مجازی منتشر میشوند.
با پیشروی بدون محدودیت این فناوری و عدم تشخیص آنها از ویدئوهای واقعی توسط کاربران، به زودی تشخیص مرز بین حقیقت و دروغ عملا غیرممکن خواهد شد.
دیپفیکها با فریب دادن مردم در مورد افراد مشهور و شخصیتهای سیاسی، کارها و سخنانی را به آنها نسبت میدهند که واقعی نیستند. اما اشتباهاتی ساده مانند نبودن انگشتهای دست یا کیفیت پایین برخی ویدیوها، نشانه واضحی از این است که برخی تصاویر و فیلمها اصلاح شدهاند.
دیپفیکها شکلی از هوشمصنوعی با نام «یادگیری عمیق» هستند و زمانی که در برخی دادههای خود مشکلی پیدا میکنند، آن را حل کرده و برای ساخت فیلمها و عکسهای جعلی، چهرهها را عوض میکنند.
برخی از دیپفیکها به قصد طنز و کمدی ساخته میشوند، مانند مجموعهای از دیپفیکهای نیکلاس کیج در فیلمهایی مانند «مهاجمان صندوق گمشده» و «مرد پولادین» که او در آنها بازی نکرده است.
بسیاری افراد از این قابلیت هوش مصنوعی برای انتقام جویی و عمدتا با استفاده از چهره افراد مشهور و ساخت فیلمهای مستهجن استفاده کردهاند.
طبق گزارش دیپتریس، ۹۶ درصد از تمام ویدیوهای دیپفیک که در سال ۲۰۱۹ به صورت آفلاین یافت شدند، پورنوگرافی بودند. مثلا در سال ۲۰۱۷ از چهره اشخاص معروفی مانند تیلور سوئیفت و اسکارلت جوهانسون برای اینکار استفاده شده بود.
شخصیتهای سیاسی نیز به طور گسترده قربانی این دیپفیکها میشوند. به عنوان مثال ویدئویی جعلی از باراک اوباما در سال ۲۰۱۸ منتشر شد که در آن اوباما، دونالد ترامپ را «یک فرد احمق به تمام معنا» خطاب میکند.
شرکتهای رسانههای اجتماعی معروفی نظیر، متا، توییتر و تیکتاک انتشار دیپفیک و فیلمهای فریبنده را در پلتفرمهای خود ممنوع کردهاند، اگرچه تشخیص سریع آنها قبل از اینکه به سرعت منتشر شوند کار سختی است.
پس از اینکه جو بایدن در صبح روز سهشنبه برای کمپین انتخابات مجدد اعلام آمادگی کرد، کمیته ملی جمهوریخواهان ویدئویی دروغین با تصاویر تولید شده توسط هوش مصنوعی منتشر کردند که نشان میدهد دوره دوم بایدن-هریس به چه آخرالزمانی تبدیل خواهد شد.
این ویدئو، تصاویری از تخریب، و فروریختن ساختمانهای والاستریت، جنگ و انفجار در تایوان، و آمادگی پلیس با تجهیزات تاکتیکی برای دفاع از سانفرانسیسکو در برابر جرم و جنایت به نمایش میگذارد. سام کورنال، مدیر اجرایی کمیته ملی دموکراتها در توییتی گفت که RNC از هوش مصنوعی به شکل ناامیدکنندهای استفاده کرده است و «چارهای جز درخواست کمک از هوش مصنوعی نداشت».
پس از اینکه الیوت هیگینز، بنیانگذار گروه تحقیقاتی Bellingcat، تصاویر دیپفیکی را از ترامپ که در حال فرار از دست مقامات است، در روز دوشنبه در توییتر به اشتراک گذاشت، این تصاویر غوغایی در رسانههای اجتماعی به پا کرد. اگرچه او در ابتدای مطلب اشاره کرده بود که این تصاویر با استفاده از ابزار هوش مصنوعی Midjourney ایجاد شدهاند.
هیگینز به آسوشیتدپرس گفت که: «دونالد ترامپ در حین دستگیری بر روی زمین افتاد.» با این حال، در این تصاویر «افسران» با کلاه و یونیفورم پلیس با حروف درهم و برهم، و ترامپ با سه پا دیده می شود. هیگینز به آسوشیتدپرس گفت: «من تصور میکردم مردم متوجه میشوند که دونالد ترامپ دو پا دارد، نه سه پا.» ترامپ ممکن است توسط هیئت منصفه منهتن به جعل سوابق تجاری مرتبط با پرداخت حقالسکوت به استورمی دانیلز، در طول مبارزات انتخاباتیاش در سال ۲۰۱۶ متهم شود.
ترامپ روز پنجشنبه تصویری از خود را در پلتفرم شبکه اجتماعی Truth Social منتشر کرد که بر روی زمین زانو زده است. او در این عکس در وسط اتاقی بر روی زمین زانو زده و نورافکن مستقیماً روی او تابیده شده و دستهایش را به هم گره کرده و سرش را خم کرده است.
یکی از نقاط ضعف تصاویر تولید شده توسط هوش مصنوعی، تصاویر مربوط به دستها است. این عکس نیز شامل همین قاعده است. در این عکس به نظر میرسد که او انگشت حلقه دست راستش را از دست داده و انگشتان شستش منحرف شدهاند. همچنین، با وجودی که نورافکن بر روی او تابیده شده است، اما هیچکس در اتاق به رئیسجمهور سابق نگاه نمیکند.
در ویدئویی که او در ماه مه۲۰۲۰ در توییتر به اشتراک گذاشت، ترامپ به جای بیل پولمن در حال خواندن مونولوگ معروف «روز استقلال»، در فیلمی است که بیل نقش رئیس جمهور خیالی ایالات متحده را در آن بازی کرده است.
این در حالی است که صدای اصلی فیلم پخش میشود، و صورت ترامپ روی بدن پولمن قرار دارد. در میان جمعیت، چهره شخصیتهای معروفی مانند ایوانکا ترامپ، تد کروز و شان هانیتی بر روی بدن سربازان فیلم قرار دارد که در حال آماده شدن برای نبرد نهایی با بیگانگان هستند.
این باعث شد که بازیگران واکنش نشان دهند و پولمن به هالیوود ریپورتر گفت: "صدای او متعلق به کسی جز [او] نیست". این دیپفیک به اندازه بقیه واقعی نیست، زیرا به وضوح مشخص است که چهره ترامپ بر روی بدن پولمن قرار گرفته است.
چگونه یک دیپفیک را تشخیص دهیم
• باقیماندههای اضافی: این شامل موارد عجیب و غریب، یا وجود چیزهایی نامناسب در عکس یا ویدیو هستند. اشیایی نظیر کفشها یا گوشوارههای نامتناسب، بدشکل بودن فک، وجود انگشت یا پای اضافه(همانند تصویر جعلی ترامپ).
• حرکات چشم: اغلب، در ویدیوهای دیپفیک جعلی، افراد به شکل عجیبی پلک میزنند یا حرکات چشمشان طبیعی نیست. مطالعهای که در arXiv دانشگاه کرنل منتشر شده است، از این موضوع برای تشخیص ویدئوهای جعلی، استفاده کرده است.
• کیفیت صدا/فیلم: همانند ویدئوهای ترامپ و اپستین، بسیاری از ویدئوهای دیپفیک، عدم تطابق صوتی و تصویری را نشان میدهند. به عنوان مثال، در ویدئویی از ولادیمیر پوتین، رئیس جمهور روسیه، که رویترز آن را ترجمه کرده است، ادعا میشود که آنها با اوکراین به صلح رسیدهاند، اما حرکات دهان او با صدا مطابقت ندارد.
منابع: از آنجایی که دیپفیکها روز به روز بهتر و متقاعدکنندهتر میشوند، یکی از بهترین راهها برای تشخیص جعلی بودن آنها، بررسی منابع آنها است.
اگرچه با وجود رسانههای اجتماعی این کار کمی سختتر شده ؛ زیرا هر کسی میتواند ویدیوها و تصاویر را به اشتراک بگذارد. مثلا منبع اصلی ویدئوی منتشر شده از جو بایدن، باید از طرف کاخ سفید، یا یک آژانس رسمی دولتی یا یک پلتفرم خبری معتبر باشد.
• تقویت مهارتهای تشخیص: چندین وبسایت به افراد کمک میکنند تا مهارتهایشان را برای تشخیص دیپفیکها بالا ببرند. MIT’s Detect Fakes یک آزمون کوتاه است که به کاربران اجازه میدهد تا دو ویدیو را با هم مقایسه کنند و تصمیم بگیرند کدام یک واقعی است.
مایکروسافت Spot the Deepfake یک مسابقه 10 سوالی است که از کاربران میخواهد به نشانههایی مانند حرکت چشمها و واکنشهای احساسی توجه کنند و ویدئوهای دیپفیک را تشخیص دهند.
منبع: خبرآنلاین