"دیپ فیک"؛ برگ برنده هکرها در آینده

"دیپ فیک"؛ برگ برنده هکرها در آینده

ایجاد اختلال عمدی در سیستم‌های هوش مصنوعی نیز یکی از بزرگترین خطرات این فناوری به‌شمار می‌رود چرا که این اختلال می‌تواند بسته به توان فرد یا گروه ایجاد‌کننده این اختلال، دردسر‌ها و خسارات جدی ایجاد کند.
کد خبر: ۸۳۵۰۶
بازدید : ۹۲۳۱
۲۵ مرداد ۱۳۹۹ - ۱۰:۲۱
 
میترا جلیلی| هوش مصنوعی (AI) یکی از فناوری‌های نوظهور است که این روز‌ها با سرعتی بالا در حوزه‌های مختلف از بازی و سرگرمی گرفته تا آموزش، سلامت، روبات‌ها، امور مالی و بانکداری، کشاورزی، حمل و نقل و ترافیک و... به کار گرفته می‌شود.
 
هرچند هدف فعالان حوزه هوش مصنوعی، تنها رفاه مردم جهان و سرعت بخشیدن به روند اجرای پروژه‌های مختلف بوده است، اما قابلیت‌های عظیم این فناوری توجه مجرمان سایبری را نیز جلب کرده و با روش‌های گوناگون به‌دنبال سوء‌استفاده از هوش مصنوعی هستند که این موضوع نگرانی‌هایی را رقم زده است. اما بیشترین خطرات این فناوری پرکاربرد در سال‌های آینده کدام هستند؟

بررسی خطرات هوش مصنوعی با ۴ شاخص
پس از ارائه گزارش دانشمندان یک دانشگاه تحقیقاتی واقع در لندن با نام University College London) UCL) و هشدار آن‌ها درباره خطرات بالقوه هوش مصنوعی در آینده، یک نشست دو روزه با حضور ۳۱ متخصص حوزه هوش مصنوعی برگزار شد تا مخاطرات این فناوری در ۱۵ سال آینده مورد بحث و بررسی قرار بگیرد.
 
هرچند ابتدا قرار بود برخی از دانشجویان و علاقه‌مندان به این حوزه نیز در این نشست حضور داشته باشند، ولی به‌دلیل شیوع کرونا این موضوع عملی نشد و این نشست با جمعیتی کمتر از حد انتظار برپا شد. در مقابل، تعداد بیشتری از علاقه‌مندان موفق شدند بحث و گفتگو‌های این نشست را در فضای مجازی و به‌صورت آنلاین مشاهده کنند.

در این نشست از اقشار دانشگاهی، بخش خصوصی، پلیس، دولت و آژانس‌های امنیتی دولتی حضور داشتند و شرکت‌کننده‌ها بر اساس چهار شاخص، نگرانی‌های خود از هوش مصنوعی در آینده را دسته‌بندی کردند. یکی از این شاخص‌ها میزان زیانی است که هوش مصنوعی می‌تواند ایجاد کند.
 
پتانسیل هوش مصنوعی برای سوء‌استفاده مجرمان و اینکه هوش مصنوعی چقدر می‌تواند انجام یک جرم را آسان‌تر کند از دیگر شاخص‌هایی بودند که در این نشست مورد بررسی قرار گرفت. یکی دیگر از شاخص‌ها هم این بود که توقف جرم صورت گرفته با کمک هوش مصنوعی تا چه حد برای پلیس و... سخت خواهد بود.
 
آنچه همه این متخصصان متفق القول بر آن تأکید داشتند این بود که اگر از هوش مصنوعی استفاده درستی نشود می‌تواند به روش‌های گوناگون به جامعه آسیب برساند. به گفته این گروه، تهدیدات هوش مصنوعی از بی‌اعتبار کردن چهره‌های خاص سیاسی و معروف گرفته تا تأثیرگذاری بر افکار عمومی و اخاذی وجوه با جعل بستگان شخص در یک تماس ویدئویی و... را شامل می‌شود بنابراین باید برای مقابله با این خطرات آماده شویم.

شرکت‌کنندگان در این نشست، بیشتر مشکلات را ناشی از توسعه و تکرار استفاده از هوش مصنوعی برای موارد خلاف می‌دانند. به‌عنوان مثال «متیو کالدول» یکی از شرکت‌کنندگان در این نشست گفت: در محیط آنلاین که دیتا یک ثروت به‌شمار می‌رود و اطلاعات، قدرت است مجرمان سایبری وسوسه می‌شوند تا از قابلیت‌های هوش مصنوعی که این روز‌ها بسیار مورد توجه قرار گرفته سوء‌استفاده کنند.
 
این متخصص حوزه سایبری ادامه داد: برخلاف بسیاری از جرایم سنتی، جرایم دیجیتال بار‌ها به اشتراک گذاشته شده، تکرار می‌شوند و حتی در برخی موارد دستاورد‌های ناشی از این اعمال مجرمانه به فروش می‌رسد. اگر این مجرمان که از هوش مصنوعی سوء‌استفاده می‌کنند حمله‌های خود را با هک‌های DoS پیوند بزنند بی‌شک می‌توانند مشکلات بیشتری ایجاد کنند.

پروفسور «شان جانسون» یکی دیگر از افراد حاضر در این نشست نیز گفت: ما در دنیایی زندگی می‌کنیم که هر تغییری فرصت‌هایی جدید می‌سازد که این فرصت‌ها می‌توانند خوب یا بد باشند؛ بنابراین با علم به خطرات و تهدید‌های سایبری باید سیاستمداران، آژانس‌های امنیت و... تلاش کنند تا مقابل این اتفاقات بایستند و همیشه یک گام از مجرمان جلوتر باشند.
 
این نخستین نشست با موضوع تهدید‌های آینده تکنولوژی‌های نوظهور به شمار می‌رود و به نظر می‌رسد باید چنین نشست‌هایی در زمینه سایر فناوری‌ها نیز برپا شود تا بتوان با ابزاری قویتر به مقابله با مجرمان سایبری پرداخت.
 

خطرسازی هوش مصنوعی
نخستین موضوعی که در این نشست مورد بررسی قرار گرفت خطرات بالای هوش مصنوعی در آینده بود که در رأس آن‌ها فناوری دیپ فیک (Deep Fake) قرار دارد. از نگاه فعالان حوزه هوش مصنوعی، دیپ فیک‌ها این توانایی را دارند که اخبار را نیز تحت تأثیر قرار دهند و به‌راحتی یک خبر جعلی را در کوتاه‌ترین زمان ممکن به دست مردم برسانند.
 
با وایرال شدن یک ویدئوی دستکاری شده، به زحمت می‌توان برای کاربرانی که با سرعت درحال دست به دست کردن این ویدئو‌های تقلبی هستند یادآور شد که موضوع چیز دیگری است و این ویدئو اصلی نیست.
 
دیپ فیک همچنین می‌تواند دموکراسی را در برخی کشور‌ها مورد حمله قرار دهد به‌عنوان مثال در امریکا سخنرانی دستکاری شده نانسی پلوسی رئیس مجلس نمایندگان امریکا با فناوری دیپ فیک در سال گذشته، بیش از ۲.۵ میلیون بازدید در فیس‌بوک داشت و این موضوع نگرانی‌های زیادی را ایجاد کرد.
 
مقابله با دیپ فیک برای امریکا که اکنون در آستانه انتخابات ۲۰۲۰ قرار گرفته بشدت حیاتی است چراکه این فناوری می‌تواند به‌راحتی در نتیجه انتخابات تأثیرگذار باشد.

مؤسسه تحقیقاتی Future Advocacy در بریتانیا نیز در این نشست نمونه‌هایی از دیپ فیک‌ها در فضای سیاسی کشور‌های مختلف را به‌عنوان نمونه ارائه کرد. هرچند برخی ویدئو‌های دیپ فیک که به طور مشابه از هوش مصنوعی برای ایجاد فیلم‌های جعلی استفاده کرده بودند هیچ خطری متوجه جامعه نمی‌کردند، اما نشان از پتانسیل دیپ فیک، برای تأثیرگذاری در دنیای سیاست و ایجاد تغییراتی ناخواسته دارند.
 
با اینکه اکنون با کمک برخی الگوریتم‌ها می‌توان دیپ فیک‌های آنلاین را تشخیص داد، ولی همچنان راه‌های بسیاری برای انتشار این ویدئو‌های دستکاری شده وجود دارد که این موضوع می‌تواند سبب بی‌اعتمادی مردم به محتوا‌های صوتی و تصویری شود.

یکی دیگر از مواردی که در رده خطر‌های بالای هوش مصنوعی قرار می‌گیرد، خودرو‌های خودران هستند. دراین نشست عنوان شد امکان دارد در آینده از این خودرو‌های بدون سرنشین به‌عنوان مکانیسمی برای حمل و انتقال مواد منفجره و اسلحه استفاده شود حتی برخی معتقدند شاید تروریست‌ها در حملات انتحاری از این خودرو‌ها کمک بگیرند.
 
از دیگر موارد خطرناک استفاده از هوش مصنوعی می‌توان به فیشینگ‌های سازماندهی شده با استفاده از قابلیت فناوری هوش مصنوعی اشاره کرد که می‌تواند هم نشت اطلاعاتی بسیار گسترده‌ای به همراه داشته باشد و هم به سیستم‌های بانکی ضرباتی جبران‌ناپذیر وارد کند.

ایجاد اختلال عمدی در سیستم‌های هوش مصنوعی نیز یکی از بزرگترین خطرات این فناوری به‌شمار می‌رود چرا که این اختلال می‌تواند بسته به توان فرد یا گروه ایجاد‌کننده این اختلال، دردسر‌ها و خسارات جدی ایجاد کند. یکی از مواردی که بسیاری از فعالان حوزه فناوری به آن اشاره دارند روبات‌های قاتل هستند.
 
این افراد معتقدند در آینده امکان دارد افرادی که صلاحیت لازم را ندارند هوش مصنوعی به کار رفته در روبات‌ها را تحت کنترل خود درآورند تا این روبات‌ها عملاً همه خواسته‌هایشان را عملی کنند.
 
لزوماً همه این خواسته‌ها اخلاقی نیستند و گاه می‌توانند دردسر زیادی برای یک جامعه ایجاد کنند. باج‌خواهی‌ها و اخاذی‌های گسترده نیز بخشی دیگر از نگرانی‌های عمده ناشی از سوء‌استفاده از هوش مصنوعی در آینده بود که در این نشست مطرح شد.

سلامت، در تیررس مجرمان سایبری
شرکت‌کنندگان در این نشست به نگرانی‌های خود در زمینه خطرات میانی خود در زمینه توسعه هوش مصنوعی نیز اشاره کردند. کلاهبرداری و فروش سرویس‌ها و محصولات با سوء‌استفاده از عنوان هوش مصنوعی و همچنین تبلیغات هدفدار، در این دسته از نگرانی‌های متخصصان حوزه هوش مصنوعی جای می‌گیرد.
 
این نگرانی‌ها وقتی بیشتر می‌شود که پای سلامت مردم در میان باشد. سوء‌استفاده از هوش مصنوعی در زمینه سلامت و کلاهبرداری‌هایی که در تبلیغات و... با کمک هوش مصنوعی انجام می‌گیرد در این دسته جای می‌گیرند. یکی از نمونه‌های آن هم تبلیغات دارو از زبان پزشکان با سوء‌استفاده از فناوری هوش مصنوعی و در قالب دیپ فیک است که می‌تواند بسیار دردساز و نگران‌کننده باشد.

بخشی دیگری از این نگرانی‌ها سوء‌استفاده از روبات‌های نظامی و همچنین ساماندهی حملات پهپادی با سوء‌استفاده از هوش مصنوعی است. در این نشست فعالان حوزه هوش مصنوعی سوء‌استفاده از فناوری تشخیص چهره در حکومت‌های سرکوبگر، دستکاری در بازار سهام و سرمایه و ایجاد مشکلات مالی عمدی گسترده در بازار یک کشور را از دیگر موارد نگرانی خود در صورت سوء‌استفاده از هوش مصنوعی در آینده عنوان کردند.

محققان در این نشست به خطراتی با شدت کمتر سوء‌استفاده از هوش مصنوعی نیز اشاره داشتند. افراد شرکت‌کننده در این نشست یکی از نگرانی‌های این دسته از خطرات را روبات‌های سارق دانستند که زمینه‌ساز حمله به محتوا‌های هنری و موسیقی و سرقت آن‌ها و ایجاد هنر جعلی (fake art) می‌شود.
 
هرچند هنرمندان نسبت به این موضوع نگران هستند، اما محققان امکان بروز این حملات با استفاده از هوش مصنوعی را کمتر می‌دانند و آن را در دسته کم خطرترین‌ها رده‌بندی کردند. سوء‌استفاده از دستیار‌های هوش مصنوعی نیز یکی دیگر از مواردی است که محققان در این دسته از آن نام می‌برند.
 
منبع: روزنامه ایران
ارسال نظرات
نام:
ایمیل:
* نظر:
نگاه