سونامی ویدئو‌های جعلی در انتظار انتخابات ۲۰۲۰ امریکا

Faradeed

سونامی ویدئو‌های جعلی در انتظار انتخابات ۲۰۲۰ امریکا

به هر حال باید توجه داشت تشخیص تصاویر ویدئویی جعلی نسبت به آنچه تاکنون در قالب اخبار و متن‌های جعلی منتشر می‌شود بسیار دشوارتر است و فرید متخصص چهره‌شناسی در کالج دارتموث بر این اعتقاد است که این دسته از ویدئو‌ها می‌تواند آسیب‌های جبران‌ناپذیری به جوامع و دموکراسی وارد کند.
کد خبر: ۷۰۳۶۴
بازدید : ۹۶۴۵
۱۱ خرداد ۱۳۹۸ - ۰۹:۳۲
سونامی ویدئو‌های جعلی در انتظار انتخابات ۲۰۲۰ امریکا
 
میثم لطفی| با نزدیک شدن به انتخابات ۲۰۲۰ ایالات متحده، تعداد زیادی از رهبران سیاسی، نامزد‌های ریاست‌جمهوری و رؤسای امنیتی و اطلاعاتی این کشور نگرانی‌های خود را در مورد امنیت سایبری و آنچه از جانب حوزه فناوری به‌عنوان تهدید برای این دور از انتخابات بیان می‌شود، ابراز کردند.
 
هر یک از متخصصان و کارشناسان مشکلات مختلف فناوری را برای انتخابات ریاست جمهوری امریکا مورد توجه قرار دادند و با وجود این تمامی آن‌ها روی یک مشکل واحد که این بار گریبانگیر نامزد‌ها می‌شود اتفاق نظر دارند: فیلم‌های ویدئویی گمراه‌کننده و جعلی.

چند روز قبل در خبر‌ها اعلام شد یکی از پروفسور‌های امریکایی موفق به ساخت ابزار هوشمندی شده است که می‌تواند تصاویر ویدئویی جعلی منتشر شده مربوط به شخصیت‌های سیاسی مهم از جمله دونالد ترامپ رئیس جمهوری امریکا، ترزا می‌نخست‌وزیر بریتانیا، جاستین ترودو نخست‌وزیر کانادا و نامزد‌های انتخابات ۲۰۲۰ ریاست جمهوری امریکا را تشخیص دهد.
 
این ابزار هوشمند به‌گونه‌ای ساخته شده است که با نسل آتی فعالیت‌های مخرب کمپین‌های تبلیغاتی مقابله می‌کند و مانع نشر اطلاعات نادرست و جعلی می‌شود. ولی به‌نظر شما هوش مصنوعی تا چه اندازه می‌تواند مهندسی فریبنده رسانه‌های اجتماعی برای گمراه‌کردن رأی‌دهندگان را مختل کند؟

این ویدئو‌های گمراه کننده
کارشناسان عرصه فناوری این روز‌ها اصطلاح جدیدی با عنوان «دیپ‌فِیک» را در صحبت‌های خود مطرح می‌کنند که در اصل از ترکیب عبارت‌های «یادگیری عمیق» و «اطلاعات جعلی» ساخته شده است. این اصطلاح برای آن دسته از فایل‌های صوتی و تصویری مورد استفاده قرار می‌گیرد که شکل ظاهری کاملاً واقعی و قانع‌کننده دارند و البته به‌صورت جعلی ساخته می‌شوند.
 
این فایل‌ها که به کمک نسل جدیدی از فناوری هوش مصنوعی ساخته می‌شود، شخص مورد نظر را در تصویر ویدئویی به‌گونه‌ای نمایش می‌دهد که مخاطب تصور می‌کند فرد واقعی این صحبت‌ها را بیان کرده است و نکته مهم اینجاست که تصویر مذکور کاملاً ساختگی و جعلی است.

این قبیل تصاویر ویدئویی پیش‌تر توسط سیاستمداران و افراد سرشناس مورد استفاده قرار گرفتند و به لطف توسعه هرچه بیشتر فناوری، این روز‌ها ساخت چنین تصاویر ویدئویی جعلی آسان‌تر و ارزان‌تر از هر زمان دیگر انجام می‌شود و البته، بسیار واقعی‌تر از تصاویر جعلی که تاکنون منتشر شده است به نمایش درمی‌آید.
 
این ویدئو‌ها به گونه‌ای منتشر می‌شوند که مخاطب تصور می‌کند فرد سیاسی مورد نظر سخنرانی کرده است و کارشناسان از هم‌اکنون هشدار داده‌اند که طی یک سال پیش‌رو، سونامی این قبیل ویدئو‌ها برای نامزد‌های انتخابات ریاست جمهوری امریکا ایجاد خواهد شد.

باید توجه داشت تصاویر ویدئویی که در خانواده «دیپ‌فِیک» قرار می‌گیرند هنوز فراگیر نشده‌اند و با وجود این دولت امریکا نگرانی‌های فراوانی دارد تا دشمنان خارجی با استفاده از این ویدئو‌ها در انتخابات ۲۰۲۰ اختلال ایجاد کنند. «دان کوتس» مدیر کل تشکیلات اطلاعاتی امریکا براساس ارزیابی جهانی تهدید‌های سایبری در ماه ژانویه هشدار داده بود که تصاویر ویدئویی جعلی یا دیگر محتوای مشابه که در شبکه‌های اجتماعی به اشتراک گذاشته می‌شوند، از جمله راهکار‌هایی خواهند بود که برای ایجاد اختلال در انتخابات سال آتی به‌صورت گسترده مورد توجه قرار می‌گیرند.

سردرگم میان جعلی و واقعی
«هانی فرید» متخصص چهره‌شناسی در کالج دارتموث بر این باور است که تشخیص تصاویر ویدئویی جعلی و واقعی در انبوه ویدئو‌هایی که هر روز در شبکه‌های اجتماعی به اشتراک گذاشته می‌شوند بسیار دشوار است و تنها راه حل این است که به کمک فناوری‌های هوشمند بتوانیم جلوی گسترش هرچه بیشتر این ویدئو‌ها را بگیریم. او به کمک همکاران خود در حال ساخت نرم‌افزاری است که می‌تواند با جزئیات کامل تصاویر ویدئویی جعلی سیاستمداران را تشخیص دهد و در نهایت بتواند آن‌ها را از ویدئو‌های واقعی جدا کند.

به هر حال باید توجه داشت تشخیص تصاویر ویدئویی جعلی نسبت به آنچه تاکنون در قالب اخبار و متن‌های جعلی منتشر می‌شود بسیار دشوارتر است و فرید متخصص چهره‌شناسی در کالج دارتموث بر این اعتقاد است که این دسته از ویدئو‌ها می‌تواند آسیب‌های جبران‌ناپذیری به جوامع و دموکراسی وارد کند.

این گروه از محققان نرم‌افزار هوشمند خود را در خانواده‌ای از فناوری‌ها موسوم به «بیومتریک نرم» طبقه‌بندی می‌کنند و طی آن قرار است نرم‌افزار جدید تمام جزئیات مربوط به یک شخص واقعی و تصویر ویدئویی جعلی ساخته شده از روی او را از یکدیگر جدا کند. محققان این فرآیند را با استفاده از ابزار‌های خودکار مبتنی بر فناوری هوش مصنوعی پیش می‌برند تا به موجب آن بتوانند تمامی تصاویر ویدئویی سیاستمداران سرشناس از جمله دونالد ترامپ رئیس جمهوری کنونی یا باراک اوباما رئیس جمهوری سابق امریکا را تحلیل کنند و ارتباط میان حرکات سر، الگو‌های گفتاری و تغییرات چهره هنگام بیان کلمات خاص را نمایان سازند تا از این طریق تصویر فرد واقعی شناسایی شود.

«هانی فرید» در این خصوص می‌گوید: به‌عنوان مثال زمانی که اوباما قصد اعلام یک خبر بد را داشت اندکی اخم می‌کرد، سرش را رو به پایین می‌گرفت و با صدای بم‌تر صحبت می‌کرد. در این میان زمانی که قرار بود رئیس جمهوری سابق امریکا خبر خوب را بیان کند سرش را به سمت بالا می‌گرفت و ابرو‌های خود را اندکی به بالا
هدایت می‌کرد.

مجموعه این عوامل در کنار یکدیگر برای ساخت یک مدل واحد از یک شخص نظیر اوباما به‌کار گرفته می‌شوند و سپس زمانی که تصویر ویدئویی جدید او به اشتراک گذاشته می‌شود، سیستم هوش مصنوعی این مشخصه‌های پنهان و آشکار را بررسی می‌کند تا دریابد که آیا تصویر اوباما الگو‌های گفتاری ویژه، حرکات سر و تغییرات چهره را شامل می‌شود یا اینکه تصویر ویدئویی به‌صورت جعلی ساخته شده و فاقد این تغییرات است.

فرید در ادامه امیدوار است که ابزار‌های هوشمند خود را تا پایان سال‌جاری میلادی در اختیار روزنامه‌نگاران و مراکز خبری قرار دهد و پیش‌بینی شده است که یک سایت اینترنتی مرجع نیز برای تشخیص تمام تصاویر ویدئویی منتشر شده از سوی رهبران سیاسی و افراد سرشناس در اختیار کاربران قرار گیرد تا بتوانند از صحت آن‌ها اطمینان حاصل کنند.

گفتنی است با وجود این موارد این متخصص چهره‌شناسی در کالج دارتموث می‌گوید: تاکنون فقط الگو‌های ترامپ، اوباما، بِرنی سندرز و الیزابت وارِن ارائه شده است و بنابراین باید تلاش شبانه‌روزی صورت گیرد تا پیش از آغاز انتخابات ۲۰۲۰ امریکا، الگو‌های دیگر افرادی که در این زمینه اثرگذار هستند نیز ارائه شود. او گفت: «اگر شما یک روزنامه‌نگار هستید و در شبکه‌های مجازی با تصویر ویدئویی جدید برخورد می‌کنید، از این پس بهتر است به محتوای آن شک کنید و هر آنچه را که می‌بینید براحتی باور نکنید.»

اگرچه اقدام فرید بسیار کاربردی به‌نظر می‌رسد و می‌تواند مشکلات مربوط به تصاویر ویدئویی جعلی را تا اندازه‌ای حل کند، ولی باید اعتراف کرد که فعالیت شبکه‌های اجتماعی بسیار گسترده‌تر از تصویر ویدئویی چند شخص سرشناس دنبال می‌شود و بنابراین باید از هم‌اکنون این نگرانی را داشت تا در چند سال آینده گروه گسترده‌تری از کاربران جهانی تحت تأثیر این دسته از اطلاعات نادرست و جعلی قرار بگیرند.
 
منبع: روزنامه ایران
ارسال نظرات
نام:
ایمیل:
* نظر:
نگاه