"دیپ فیک"؛ برگ برنده هکرها در آینده
ایجاد اختلال عمدی در سیستمهای هوش مصنوعی نیز یکی از بزرگترین خطرات این فناوری بهشمار میرود چرا که این اختلال میتواند بسته به توان فرد یا گروه ایجادکننده این اختلال، دردسرها و خسارات جدی ایجاد کند.
کد خبر :
۸۳۵۰۶
بازدید :
۱۰۲۷۲
میترا جلیلی | هوش مصنوعی (AI) یکی از فناوریهای نوظهور است که این روزها با سرعتی بالا در حوزههای مختلف از بازی و سرگرمی گرفته تا آموزش، سلامت، روباتها، امور مالی و بانکداری، کشاورزی، حمل و نقل و ترافیک و... به کار گرفته میشود.
هرچند هدف فعالان حوزه هوش مصنوعی، تنها رفاه مردم جهان و سرعت بخشیدن به روند اجرای پروژههای مختلف بوده است، اما قابلیتهای عظیم این فناوری توجه مجرمان سایبری را نیز جلب کرده و با روشهای گوناگون بهدنبال سوءاستفاده از هوش مصنوعی هستند که این موضوع نگرانیهایی را رقم زده است. اما بیشترین خطرات این فناوری پرکاربرد در سالهای آینده کدام هستند؟
بررسی خطرات هوش مصنوعی با ۴ شاخص
پس از ارائه گزارش دانشمندان یک دانشگاه تحقیقاتی واقع در لندن با نام University College London) UCL) و هشدار آنها درباره خطرات بالقوه هوش مصنوعی در آینده، یک نشست دو روزه با حضور ۳۱ متخصص حوزه هوش مصنوعی برگزار شد تا مخاطرات این فناوری در ۱۵ سال آینده مورد بحث و بررسی قرار بگیرد.
هرچند ابتدا قرار بود برخی از دانشجویان و علاقهمندان به این حوزه نیز در این نشست حضور داشته باشند، ولی بهدلیل شیوع کرونا این موضوع عملی نشد و این نشست با جمعیتی کمتر از حد انتظار برپا شد. در مقابل، تعداد بیشتری از علاقهمندان موفق شدند بحث و گفتگوهای این نشست را در فضای مجازی و بهصورت آنلاین مشاهده کنند.
در این نشست از اقشار دانشگاهی، بخش خصوصی، پلیس، دولت و آژانسهای امنیتی دولتی حضور داشتند و شرکتکنندهها بر اساس چهار شاخص، نگرانیهای خود از هوش مصنوعی در آینده را دستهبندی کردند. یکی از این شاخصها میزان زیانی است که هوش مصنوعی میتواند ایجاد کند.
پتانسیل هوش مصنوعی برای سوءاستفاده مجرمان و اینکه هوش مصنوعی چقدر میتواند انجام یک جرم را آسانتر کند از دیگر شاخصهایی بودند که در این نشست مورد بررسی قرار گرفت. یکی دیگر از شاخصها هم این بود که توقف جرم صورت گرفته با کمک هوش مصنوعی تا چه حد برای پلیس و... سخت خواهد بود.
آنچه همه این متخصصان متفق القول بر آن تأکید داشتند این بود که اگر از هوش مصنوعی استفاده درستی نشود میتواند به روشهای گوناگون به جامعه آسیب برساند. به گفته این گروه، تهدیدات هوش مصنوعی از بیاعتبار کردن چهرههای خاص سیاسی و معروف گرفته تا تأثیرگذاری بر افکار عمومی و اخاذی وجوه با جعل بستگان شخص در یک تماس ویدئویی و... را شامل میشود بنابراین باید برای مقابله با این خطرات آماده شویم.
شرکتکنندگان در این نشست، بیشتر مشکلات را ناشی از توسعه و تکرار استفاده از هوش مصنوعی برای موارد خلاف میدانند. بهعنوان مثال «متیو کالدول» یکی از شرکتکنندگان در این نشست گفت: در محیط آنلاین که دیتا یک ثروت بهشمار میرود و اطلاعات، قدرت است مجرمان سایبری وسوسه میشوند تا از قابلیتهای هوش مصنوعی که این روزها بسیار مورد توجه قرار گرفته سوءاستفاده کنند.
این متخصص حوزه سایبری ادامه داد: برخلاف بسیاری از جرایم سنتی، جرایم دیجیتال بارها به اشتراک گذاشته شده، تکرار میشوند و حتی در برخی موارد دستاوردهای ناشی از این اعمال مجرمانه به فروش میرسد. اگر این مجرمان که از هوش مصنوعی سوءاستفاده میکنند حملههای خود را با هکهای DoS پیوند بزنند بیشک میتوانند مشکلات بیشتری ایجاد کنند.
پروفسور «شان جانسون» یکی دیگر از افراد حاضر در این نشست نیز گفت: ما در دنیایی زندگی میکنیم که هر تغییری فرصتهایی جدید میسازد که این فرصتها میتوانند خوب یا بد باشند؛ بنابراین با علم به خطرات و تهدیدهای سایبری باید سیاستمداران، آژانسهای امنیت و... تلاش کنند تا مقابل این اتفاقات بایستند و همیشه یک گام از مجرمان جلوتر باشند.
این نخستین نشست با موضوع تهدیدهای آینده تکنولوژیهای نوظهور به شمار میرود و به نظر میرسد باید چنین نشستهایی در زمینه سایر فناوریها نیز برپا شود تا بتوان با ابزاری قویتر به مقابله با مجرمان سایبری پرداخت.
خطرسازی هوش مصنوعی
نخستین موضوعی که در این نشست مورد بررسی قرار گرفت خطرات بالای هوش مصنوعی در آینده بود که در رأس آنها فناوری دیپ فیک (Deep Fake) قرار دارد. از نگاه فعالان حوزه هوش مصنوعی، دیپ فیکها این توانایی را دارند که اخبار را نیز تحت تأثیر قرار دهند و بهراحتی یک خبر جعلی را در کوتاهترین زمان ممکن به دست مردم برسانند.
با وایرال شدن یک ویدئوی دستکاری شده، به زحمت میتوان برای کاربرانی که با سرعت درحال دست به دست کردن این ویدئوهای تقلبی هستند یادآور شد که موضوع چیز دیگری است و این ویدئو اصلی نیست.
دیپ فیک همچنین میتواند دموکراسی را در برخی کشورها مورد حمله قرار دهد بهعنوان مثال در امریکا سخنرانی دستکاری شده نانسی پلوسی رئیس مجلس نمایندگان امریکا با فناوری دیپ فیک در سال گذشته، بیش از ۲.۵ میلیون بازدید در فیسبوک داشت و این موضوع نگرانیهای زیادی را ایجاد کرد.
مقابله با دیپ فیک برای امریکا که اکنون در آستانه انتخابات ۲۰۲۰ قرار گرفته بشدت حیاتی است چراکه این فناوری میتواند بهراحتی در نتیجه انتخابات تأثیرگذار باشد.
مؤسسه تحقیقاتی Future Advocacy در بریتانیا نیز در این نشست نمونههایی از دیپ فیکها در فضای سیاسی کشورهای مختلف را بهعنوان نمونه ارائه کرد. هرچند برخی ویدئوهای دیپ فیک که به طور مشابه از هوش مصنوعی برای ایجاد فیلمهای جعلی استفاده کرده بودند هیچ خطری متوجه جامعه نمیکردند، اما نشان از پتانسیل دیپ فیک، برای تأثیرگذاری در دنیای سیاست و ایجاد تغییراتی ناخواسته دارند.
با اینکه اکنون با کمک برخی الگوریتمها میتوان دیپ فیکهای آنلاین را تشخیص داد، ولی همچنان راههای بسیاری برای انتشار این ویدئوهای دستکاری شده وجود دارد که این موضوع میتواند سبب بیاعتمادی مردم به محتواهای صوتی و تصویری شود.
یکی دیگر از مواردی که در رده خطرهای بالای هوش مصنوعی قرار میگیرد، خودروهای خودران هستند. دراین نشست عنوان شد امکان دارد در آینده از این خودروهای بدون سرنشین بهعنوان مکانیسمی برای حمل و انتقال مواد منفجره و اسلحه استفاده شود حتی برخی معتقدند شاید تروریستها در حملات انتحاری از این خودروها کمک بگیرند.
از دیگر موارد خطرناک استفاده از هوش مصنوعی میتوان به فیشینگهای سازماندهی شده با استفاده از قابلیت فناوری هوش مصنوعی اشاره کرد که میتواند هم نشت اطلاعاتی بسیار گستردهای به همراه داشته باشد و هم به سیستمهای بانکی ضرباتی جبرانناپذیر وارد کند.
ایجاد اختلال عمدی در سیستمهای هوش مصنوعی نیز یکی از بزرگترین خطرات این فناوری بهشمار میرود چرا که این اختلال میتواند بسته به توان فرد یا گروه ایجادکننده این اختلال، دردسرها و خسارات جدی ایجاد کند. یکی از مواردی که بسیاری از فعالان حوزه فناوری به آن اشاره دارند روباتهای قاتل هستند.
این افراد معتقدند در آینده امکان دارد افرادی که صلاحیت لازم را ندارند هوش مصنوعی به کار رفته در روباتها را تحت کنترل خود درآورند تا این روباتها عملاً همه خواستههایشان را عملی کنند.
لزوماً همه این خواستهها اخلاقی نیستند و گاه میتوانند دردسر زیادی برای یک جامعه ایجاد کنند. باجخواهیها و اخاذیهای گسترده نیز بخشی دیگر از نگرانیهای عمده ناشی از سوءاستفاده از هوش مصنوعی در آینده بود که در این نشست مطرح شد.
سلامت، در تیررس مجرمان سایبری
شرکتکنندگان در این نشست به نگرانیهای خود در زمینه خطرات میانی خود در زمینه توسعه هوش مصنوعی نیز اشاره کردند. کلاهبرداری و فروش سرویسها و محصولات با سوءاستفاده از عنوان هوش مصنوعی و همچنین تبلیغات هدفدار، در این دسته از نگرانیهای متخصصان حوزه هوش مصنوعی جای میگیرد.
این نگرانیها وقتی بیشتر میشود که پای سلامت مردم در میان باشد. سوءاستفاده از هوش مصنوعی در زمینه سلامت و کلاهبرداریهایی که در تبلیغات و... با کمک هوش مصنوعی انجام میگیرد در این دسته جای میگیرند. یکی از نمونههای آن هم تبلیغات دارو از زبان پزشکان با سوءاستفاده از فناوری هوش مصنوعی و در قالب دیپ فیک است که میتواند بسیار دردساز و نگرانکننده باشد.
بخشی دیگری از این نگرانیها سوءاستفاده از روباتهای نظامی و همچنین ساماندهی حملات پهپادی با سوءاستفاده از هوش مصنوعی است. در این نشست فعالان حوزه هوش مصنوعی سوءاستفاده از فناوری تشخیص چهره در حکومتهای سرکوبگر، دستکاری در بازار سهام و سرمایه و ایجاد مشکلات مالی عمدی گسترده در بازار یک کشور را از دیگر موارد نگرانی خود در صورت سوءاستفاده از هوش مصنوعی در آینده عنوان کردند.
محققان در این نشست به خطراتی با شدت کمتر سوءاستفاده از هوش مصنوعی نیز اشاره داشتند. افراد شرکتکننده در این نشست یکی از نگرانیهای این دسته از خطرات را روباتهای سارق دانستند که زمینهساز حمله به محتواهای هنری و موسیقی و سرقت آنها و ایجاد هنر جعلی (fake art) میشود.
هرچند هنرمندان نسبت به این موضوع نگران هستند، اما محققان امکان بروز این حملات با استفاده از هوش مصنوعی را کمتر میدانند و آن را در دسته کم خطرترینها ردهبندی کردند. سوءاستفاده از دستیارهای هوش مصنوعی نیز یکی دیگر از مواردی است که محققان در این دسته از آن نام میبرند.
منبع: روزنامه ایران
۰