روباتهای قاتل، و قوانین تازۀ جنگ
اگر یک رادار ضدهوایی روی آن قفل کند، پهپاد سیگنال رادار را تا منبعش دنبال میکند و کلاهک جنگیای که در دماغۀ پهنش لانه کرده، پهپاد، رادار و هر اپراتور راداری که در آن نزدیکی باشد را منفجر میکند.
کد خبر :
۶۷۱۸۶
بازدید :
۲۸۶۷
فرادید| هاروپ (The HAROP)، یک پهپادی انتحاری است که از پرتابگرش همچون تیر از چلۀ کمان رها میشود. اما این پهپاد برای سرعت و تفریح ساخته نشده است. در عوض، بدون نظارت، تنها منتظر میماند و در ارتفاعی آنقدر بالا که کسانی که در میدان نبرد مشغول جنگند، صدای پیشرانهاش را نشنوند، در انتظار فرصت میماند.
به گزارش فرادید به نقل از اکونومیست، اگر هاروپ مزاحمی نداشته باشد، در نهایت به یک پایگاه هوایی که از قبل برایش تعیین شده، بازمیگردد، مینشیند و منتظر وظیفۀ بعدی خود میماند. اما اگر یک رادار ضدهوایی روی آن قفل کند، پهپاد سیگنال رادار را تا منبعش دنبال میکند و کلاهک جنگیای که در دماغۀ پهنش لانه کرده، پهپاد، رادار و هر اپراتور راداری که در آن نزدیکی باشد را منفجر میکند.
صنایع هوافضای اسراییل، بیش از یک دهه است که هاروپ را میفروشد. تعدادی کشور، از جمله هند و آلمان آن را خریدهاند. آنها از حالت شکار رادار این پهپاد استفاده نمیکنند؛ این پهپاد را میتوان از راه دور هدایت کرد و از آن علیه هر هدفی که دوربینهایش شکار کنند و اپراتورها صلاح بدانند، استفاده کرد. این احتمالاً همان حالتی است که آذربایجان در جریان درگیریش با ارمنستان در سال ۲۰۱۶، از آن استفاده کرده بود. اما هاروپهایی که اسراییل علیه سیستمهای ضدهوایی سوریه به کار برده، احتمالاً در استفاده از خاصیت انتحاری خود آزاد بودهاند.
بر اساس گزارش انستیتوی صلح بینالملل استکهلم، که یک اتاق فکر است، در سال ۲۰۱۷، هاروپ یکی از ۴۹ سیستم استفادهشدهای بود که میتوانستند اهداف احتمالی را تشخیص دهند و بدون مداخلۀ انسان به آن حمله کنند. از این رو، این سیستم احتمالاً خاری است در چشم ۸۹ سازمان غیردولتی در ۵۰ کشور است که تحت پرچم "کارزار توقف استفاده از رباتهای قاتل" گرد هم آمدهاند. نام این کارزار، یک ضدبرندینگ موفق است: کیست که نخواهد جلوی رباتهای قاتل را بگیرد؟ نام این کارزار، دو موضوع ترسناک داستانهای علمی تخیلی را با هم ترکیب میکند: سلاحی به غایت قدرتمند و هوش غیرانسانی.
اما مورد هاروپ همچنین نشان میدهد که چنین سلاحهایی، و مسائلی که پدید میآورند، امری به کلی تازه نیست. موشکهای "شلیک کن و فراموش کن" که مدتی این پا و آن پا میکنند تا امضای راداریای که به آنها گفته شده به آن حمله کنند را پیدا کنند، چندین دهه است که وجود دارند. آنها اغلب از هواپیما شلیک میشدند، زمان بسیار کمتری میتوانستند انتظار بکشند، و چنانچه رادار دشمن توجهی بهشان نشان نمیداد، قابلیت بازگشتن به پایگاه و انتظار فرصتی دیگر را کشیدن را نداشتند. اما قابلیت خودمختاریشان در کشتن، با نمونههای امروزی مشابه بود. مینهای ضدنفر، چند قرن است که مورد استفاده هستند، به جای گشت زدن، سر جایشان مینشینند و هر چیزی که رویشان پای بگذارد میکشند، نه اینکه راداری را تشخیصشان داده دنبال کنند. اما زمانی که از این سلاحهای استفاده میشد، هیچ انسانی در اینکه چه زمانی یا اینکه به چه کسی حمله کنند، نقشی نداشت.
در هر نوع بحثی در رابطه با خطرات و اخلاق مرتبط با سلاحهای خودمختار، پذیرش سابقۀ طولانی و ناخوشایند دستگاههایی که بدون تمایز یا بدون دستور مستقیم انسان، میکشند، ضروری است. با این وجود، نباید از این واقعیات غافل شد که قابلیتهای این گونه از سلاحها به سرعت در حال افزایش است، و توافق برای محدود کردن استفاده از این نوع تسلیحات اگرچه مطلوب است، اما به کار بستنش بسیار دشوار است. تشخیص اینکه آیا یک مین زمانی در ذیل معیارهایی که تحت پیمان اتاوا قرار میگیرد، سخت نیست. اما اینکه آیا هاروپ یک روبات خودمختار است یا یک سلاح کنترل از راه دور، به نرمافزاری که در آن لحظه اجرا میکند، بستگی دارد.
تسلیحات از زمانی که اولین اژدرهای شناساگر صوتی در جنگ جهانی دوم به کار گرفته میشدند، قابلیت تعقیب شکار خود را داشتهاند. اغلب تسلیحات مدرن که علیه ماشینهای پرسرعت مورد استفاده قرار میگیرند، روی صدای آنها، بازتاب راداری و امضای حرارتی آنها قفل میکنند. اما در اغلب موارد، انتخاب در مورد اینکه روی چه چیزی قفل کنند - روی موتور جت داغ کدام هواپیما یا روی صدای کدام کشتی- بر عهدۀ یک شخص است.
یک استثنای این موضوع در سیستمهای دفاعی نظیر توپهای فالانکس (Phalanx) که کشتیهای آمریکایی و متحدانش از آن استفاده میکنند، دیده میشود. زمانی که این حالت فعال شود، فالانکس به هر چه که به سوی کشتیاش بیاید، شلیک میکند؛ و در مورد کشتیای خود را تحت حمله از سوی موشکهایی میبیند که سرعتشان بیش از آن است که انسانی بتواند انگشتش را تکان دهد، چنین موضوعی منصفانه به نظر میرسد. استدلال مشابهی را نیز میتوان در مورد اسلحههای رباتی گشتزن در منطقۀ غیرنظامیشدۀ میان کرۀ شمالی و جنوبی به کار برد.
ظهور ماشینها
چالشی که نیروهای مسلح مدرن و تولید کنندگان سلاح نظیر هوافضای اسراییل با آن مواجه هستند، کار کردن قابلیت انتخاب هدف از میان میدانی از غیرهدفها است. دو پیشرفت تکنولوژی تازه، زمانه را برای حل این چالش مناسب کردهاند. اول اینکه کامپیوترها بسیار قویتر از آنچه که بودند، هستند، و به لطف "یادگیری ماشینی" در قابلیت تشخیص اشیا بسیار زبدهتر شدهاند. اگر یک آیفون میتواند به چهرۀ شما خوشامد بگوید، اما به چهرۀ خواهر یا برادرتان روی خوش نشان ندهد، چرا یک موشک نباید بتواند که یک تانک را از یک اتوبوس مدرسه تشخیص دهد؟
تغییری که رخ داده این است که خودمختاری در جنبههای غیرکشتاری حیات نظامی، به صورت گستردهای در حال گسترش است. پهپادها، کامیونهای بدون راننده و زیردریاییهای بدون خدمه، همگی برای مقاصد متنوعی که اکثراً کاملا غیرکشنده هستند، مورد استفاده قرار میگیرند. در رزمایشی که در ارتش بریتانیا با نام "جنگجوی خودمختار" در دسامبر ۲۰۱۸، در دشت سالزبری برگزار کرد، افسران نظامی خودروها و هواپیماهای خودمختاری را که برای دید زدن خطوط دشمن، تخلیۀ سربازان مجروح، و رساندن تجهیزات و آدوقه به خط موقت جبهه مورد استفاده قرار میگیرند، به نمایش گذاشتند.
خودروهای خودمختار، حتماً نباید تبدیل به سلاحهای خودمختار شوند، حتی اگر از نیرویی مرگبار بهرهمند باشند. پهپادهای "ریپر" که آمریکا دشمنانش را با آنها میکشد، با وجود اینکه میتوانند به صورت خودمختار پرواز کنند، وقتی که نوبت به اقدامات خشن میرسد، تحت کنترل شدید انسانی قرار دارند.
اما، کنترل از راه دور ماهوارهای، یک تاخیر زمانی به همراه دارد که در جنگی تمامعیار که به سوی پهپادها شلیک میشود، اهمیت پیدا میکند. همچنین همکاری نیز با خارج کردن انسان از چرخه، میتواند بهتر شود. بخش تحقیقات پیشرفتۀ پنتاگون (DARPA)، در حال کار بر حملههای خودمختاری در دستههای بزرگ است که بیشتر به کوچ سارها شباهت دارد. چه اپراتور انسانیای میتواند هماهنگیای در این ابعاد را مدیریت کند؟ این فقط مسئلهای برای آینده نیست. یکی از مزایایی که MDBA، یک موشکساز اروپایی، برای موشکهای هوا به زمین برایماستون (Brimstone)، ذکر میکند، این است که میتوانند بر اساس دستور آتش، خود را ترتیب دهند. اگر هواپیماهای مختلف تعدادی برایماستون را به یک "محدودۀ مرگ" شلیک کنند، و موشکها اجازه داشته باشند که بیشترین آسیب ممکن را بزنند، موشکها همدیگر را زیر نظر میگیرند تا احتمال اینکه دو تایشان به یک هدف بخورند، کاهش پیدا کند.
هزینه نیز یک مولفه در نیروهای مسلح است، چرا که تربیت افراد بسیار هزینهبر است. ژنرال ریچارد بارونز، یکی از ارشدترین فرماندهان ارتش بریتانیا تا سال ۲۰۱۶، میگوید: "امتیازی که روباتها دارند این است که حقوق و مزایای بازنشستگی نمیگیرند. " ضمن اینکه خانواده و اقوام ندارند. از دست رفتن روبات، تنها خسارتی مالی و ظرفیتی در پی ندارد، و پتانسیل انسانی از دست نمیرود.
اگر نگه داشتن انسان در چرخه، تنها مسئلۀ افزایش هزینه بود، باز هم میتوانست ارزشش را داشته باشد. اما کنترل انسانی، آسیب پذیری ایجاد میکند. معنایش این است که باید انبوهی از اطلاعات رمزگذاریشده را بفرستید و دریافت کنید. اگر پیوندهای ضروری دادهها به صورت فیزیکی مورد حمله قرار گیرند - مثلاً با تسلیحات ضدماهواره- به صورت الکترونیکی مختل شوند یا از طریق جنگ سایبری تحت اختیار دشمن قرار گیرند، چه؟ جنگهای آینده احتمالاً در آنچه که نیروهای مسلح آمریکا "محیطهای الکترومعناطیسی مورد مناقشه" مینامند، اتفاق خواهند افتاد. نیروی هوایی انگلستان اطمینان دارد که پیوندهای دادۀ رمزگذاریشده، در چنین محیطهایی سالم خواهد ماند. اما مسئله این است که نیروهای هوایی، نفع خود را در اطمینان از این میدانند که همچنان کاری برای خلبانان وجود داشته باشد و از این به صورت ناخودآگاه دچار جهتگیری هستند.
آسیبپذیری پیوندهای ارتباطی نسبت به مداخله، استدلالی است که در دفاع از اعطای خودمختاری بیشتر به سلاحها بیان میشود. اما سیستمهای خودمختار نیز میتوانند هدف مداخله قرار گیرند. حسگرهای سلاحهایی نظیر برایماستون، بایستی به نسبت آنهایی مثلاً در خودروهای خودران مورد استفاده قرار میگیرند، بسیار پیشرفتهتر باشد، نه فقط به این خاطر که میدانهای نبرد پرهرجومرج هستند، بلکه به این دلیل که دشمن ممکن است سعی در منحرف کردنشان داشته باشد. همانطور که برخی از فعالات با استفاده از آرایش غیرمتقارن سعی میکنند سیستمهای تشخیص چهره را گمراه کنند، اهداف نظامی نیز امضاهایی را که سلاح خودمختار به دنبال تشخیصشان است را مخدوش میکنند. پائول شاره، نویسندۀ کتاب "ارتش هیچکس: سلاحهای خودمختار و آیندۀ جنگ" هشدار میدهد که شبکههای عصبی مورد استفاده در یادگیری ماشینی، ذاتاً در برابر حقهها آسیبپذیر هستند.
روز داوری
قابلیتهای نوین، کاهش هزینهها، مقاومت در برابر اقدامات متقابل و احتمال شکلگیری بازارهای تازه برای صادرات، همگی موجب تشویق به تحقیق و توسعه در زمینۀ تسلیحات خودمختار شده است. برای خفه کردن این امر در نطفه، کارزار توقف روباتهای قاتل به دنبال ممنوعیت پیشگیرانه برای تسلیحات "کاملاً خودمختار" است. مشکل اینجاست که بر سر اینکه مرز این موضوع کجاست، توافق چندانی وجود ندارد. مثلاً، سوییس میگوید که تسلیحات خودمختار، تسلیحاتی هستند که قادرند "به صورت جزیی یا کلی در استفاده از زور، به خصوص در چرخۀ هدفگیری، جایگزین انسان شوند"، و این تعریف هاروپ و برایماستون و بسیاری سلاحهای دیگر را در برمیگیرد. در مقابل، بریتانیا، میگوید که سلاحهای خودمختار فقط سلاحهایی هستند که "قادر به درک قصد و دستور سطح بالاتر باشند. " هر آنچه که در زرادخانههای امروزی، و حتی در مرحلۀ طراحی قرار دارند، خارج از این تعریف قرار میگیرند.
تا حدی برای سر و سامان دادن به این چیزها، در سال ۲۰۱۷، کنوانسیون سلاحهای متعارف خاص سازمان ملل، مباحث پیشین خود را از طریق تشکیل گروهی از متخصصان دولتی صورتبندی کرد تا نکات حساس خودمختاری را مورد مطالعه قرار دهند. در کنار ایجاد شناختی مشترک از اینکه چه سلاحهایی را باید کاملاً خودمختار محسوب کرد، این هیئت در حال بررسی یک ممنوعیت فراگیر یا دیگر گزینهها برای برخورد با چالشهای انسانی و امنیتیای است که اینگونه سلاحها ایجاد میکنند.
اکثر کشورهای دخیل در مباحثات کنوانسیون، در مورد اهمیت کنترل انسانی موافقت دارند. اما در این مورد که معنای دقیق این امر چیست، اختلاف دارند. هیتر روف و ریچارد مویس، دو حقوقدان بینالملل، در این زمینه استدلال میکنند که "انسانی را که تنها دکمۀ "آتش" را، بدون آگاهی یا دانش شناختی، در واکنش به شاخصهای کامپیوتری فشار میدهد" در واقع کنترلی ندارد. آنها میگویند، "کنترل معنادار"، نیازمند درک شرایطی که سلاح در آن استفاده میشود و همچنین ظرفیت مداخلۀ به موقع و عقلانی است. این امر نیازمند، مسئولیتپذیری است.
سرتیپ ریچارد کریگ، که ریاست تحقیقات ارتش بریتانیا در زمینۀ سیستمهای خودمختار را برعهده دارد، با اینکه شرایط اهمیت حیاتی دارد، موافق است. در برخی شرایط ممکن است کار درست این باشد که همۀ اهداف با دقت بررسی شوند. در دیگر شرایط کافی است که تهدید شناسایی شود و مطابق با آن اقدام شود. برای مثال، او میگوید یک سیستم فالانکس، "در حالت کاملاً خودمختار قرار نخواهد گرفت، مگر آنکه تهدیدی شدید وجود داشته باشد. کنترل انسانی معنادار در اینجا یعنی روشن کردن سیستم و گذاشتن آن در این حالت، و سپس خاموش کردن این حالت. "
معنای این حرف این است که هواپیماهای جنگی روباتی آینده، نظیر آنچه که برنامۀ نورون (nEURON) به رهبری فرانسه و برنامۀ تارانیس بریتانیا به دنبالش هستند و هر دو در حال آزمودن شناسایی هدف خودکار هستند، بزرگترین چالش پیش رو محسوب میشوند. این سیستمها هر قدر هم پیچیده باشند، ممکن است با طیف گستردهای از محیطهای اهداف مواجه شوند که پیشبینیشان سخت است. آنها بسته به اینکه سر از کجا در بیاورند، بسته به توانایی و تجربۀ اپراتورها، اینکه چه بر سر راهشان قرار گیرد و احتمالاً تغییراتی در الگوریتمهایشان که از طریق یادگیری ماشینی مشتمل در سلاح صورت میگیرد، ممکن است تحت کنترل معنادار انسانی قرار داشته یا نداشته باشند. اینجا برای فلاسفۀ اخلاق یک سرزمین ناشناخته و برای کسانی که بدنبال ایجاد پیمانهایی در این زمینه هستند، یک کابوس است.
دو جین کشوری که به دنبال یک ممنوعیت الزامآور حقوقی در زمینۀ تسلیحات تماماً خودمختار هستند، کشورهایی با ظرفیت نظامی اندک نظیر جیبوتی و پرو، اما برخی از اعضا، نظیر اتریش، قدرت دیپلماتیک دارند. هیچیک از آنها صاحب چنان صنعت تسلیحاتیای نیستند که بتوانند از تسلیحات خودمختار سودی به جیب بزنند. آنها استدلال خود تا حدودی بر حقوق بینالمللی بشردوستانه بنا کردهاند، که شاکلهای است که حول قوانین جنگی که در کنوانسیونهای لاهه و ژنو گذارده شده، شکل گرفته است. این قانون از ارتشها میخواهد که میان جنگجویان و غیرنظامیان تمایز قائل شوند، از حملههایی که خطرش برای غیرنظامیان بر دستاورد نظامی میچربد خودداری کنند، بیش از آنچه متناسب هدف است از زور استفاده نکنند و از تحمیل رنج غیرضروری حذر کنند.
در مورد تمایز قائل شدن، وینسنت بولانین و مایک وربروگن، متخصصان انستیتوی صلح بینالملل استکهلم، گوشزد میکنند که سیستمهای تشخیص هدف موجود، با وجود همۀ پیشرفتهای اخیر، همچنان "ابتدایی" هستند و در مقابل آبوهوای بد و پسزمینۀ شلوغ آسیبپذیرند. آنهایی که انسانهای را تشخیص میدهند، "بسیار خام و اولیه" هستند؛ و تازه این قبل از آن است که دشمنان باهوش سعی کنند روباتها را به حمله به چیزهای اشتباه هدایت کنند.
تشخیص ضرورت و تناسب، که لازمۀشان سبکسنگین کردن جان انسانها در برابر اهداف نظامی است، حتی از آن هم دشوارترند. سرگرد کاتلین مککندریک، از ارتش بریتانیا، میگوید: "ماشینهای جدید هر قدر هم که پیچیده باشند، چنین چیزی فرای گسترۀ قابلیتهایشان است. " ارتشی که از تسلیحات خودمختار استفاده میکند، بایستی تصمیمات مربوط به تناسب را قبل از اینکه چیزی را شلیک کند، بگیرد.
راه نجات؟
حقوق بینالملل بشردوستانه، با "شرط مارتنز" که در اصل در کنوانسیون ۱۸۹۹ لاهه پذیرفته شد، شکل گرفته است. این شرط میگوید که تسلیحات جدید بایستی با "اصول انسانی" و "آنچه که وجدان عام دیکته میکند"، مطابق باشد. بانی دوچرتی، از دیدبان حقوق بشر، سازمان غیردولتیای که کارزار ضد روبات را هماهنگ میکند، میگوید که "از آنجا که ماشینهای خودمختار، تسلیحات کاملاً خودمختار نمیتوانند ارزش زندگی انسان و اهمیت از دست رفتن آن را درک کنند. از این رو در احترام به شرف انسان ناکام هستند. " این استدالی قوی است، اما از نظر حقوقی چندان به کار نمیآید. در مورد آنچه که وجدان عام دیکته میکند، تحقیقات و تاریخ نشان میدهند که اینها از آنچه که یک بشردوست آرزو میکند، بسیار منعطفتر هستند.
فارغ از حقوق و اخلاق، تسلیحات خودمختار میتوانند خطرات بیثباتکنندۀ تازهای پدید بیاورند. سیستمهای خودکار میتوانند به شکلهای غیرقابلپیشبینی تداخل کنند، همانطور که الگوریتمهای مبادلات باعث "سقوطهای ناگهانی" در بازار بورس میشوند. آقای شاره، احتمال جنگ ناگهانیِ "ناشی از درگیریهای از کنترل خارج شده" را مطرح میکند. پیتر رابرتز، ریاست یک اتاق فکر نظامی در انگلیس، میگوید: "اگر ما این نظر را که انسانها تصمیمات بدی میگیرند را میپذیریم، باید همچنین این نظر را که سیستمهای هوش مصنوعی تصمیمات بدی میگیرند، البته با سرعت بیشتر، را هم بپذیریم. "
به جز گروه اصلیای که به دنبال ممنوعیت هستند، طیفی از نظرات وجود دارد. چین اعلام کرده از لحاظ اصولی از یک ممنوعیت حمایت میکند؛ اما ممنوعیت بر استفاده، نه توسعه. فرانسه و آلمان با ممنوعیت، در حال حاضر، مخالف هستند؛ اما میخواهند که کشورها با یک مرامنامه موافیت کند، که همزمان دستشان را برای "تفسیرهای ملی" باز بگذارد. هند، نمیخواهد تجربهاش در رابطه با سلاح هستهای تکرار شود؛ جایی که ندارهای فناوری با یک پیمان تبعیضآمیز دستشان از سلاحهایی که بازی را عوض میکردند، کوتاه ماند.
در آن سوی طیف، گروهی از کشورها از جمله آمریکا، بریتانیا و روسیه قرار دارند که علناً با ممنوعیت مخالفت میکنند. این کشورها اصرار دارند که قوانین بینالمللی موجد، مانعی کافی در برابر همۀ سیستمهای آتی است.
برخی حتی استدلال میکنند که سلاحهای خودمختار ممکن است جنگها را انسانیتر کنند. جنگجویان انسانی حقوق بینالمللی بشردوستانه را زیر پا میگذارند. اما روباتهایی که به درستی برنامهریزی شده باشند، ممکن است نتوانند چنین کاری کنند. سلاح گشتزن سامسونگ، که در منطقۀ غیرنظامی بین دو کره مورد استفاده بود، میتوانست بالا رفتن دست و انداختن سلاح به زمین را به عنوان نشانههای تسلیم تشخیص دهد که معنای عدم شلیک بود. همهجور محدودیت بر مبنای حقوق بینالمللی بشردوستانه و حساس به شرایط را میتوان در برنامهریزی نسلهای آتی این سلاحها گنجاند. اما چقدر طول میکشد تا یک ارتش در مضیقه تصمیم بگیرد این موانع را بیخیال شود و افسار سگهای روباتی جنگ را رها کند؟
این موضوع، یکی از بزرگترین مشکلاتی که مدافعان ممنوعیت و کنترل با آن مواجهند را بر سر میز باز میگرداند. کنترل سلاح، نیازمند بازرسی و تایید است و این موضوع هر وقت که بحثمان خودمختاری باشد، مسئلهای غامض میشود. مایکل هاروویتز، از دانشگاه پنسیلوانیا، میگوید: "تفاوت میان امکیو ۹ ریپر و نسخۀ خودمختارش در نرمافزار است نه سختافزار. تشخیص چنین امری با استفاده از تکنیکهای مرسوم کنترل تسلیحات بسیار دشوار خواهد بود. "
شتاب برای محدود کردن تکنولوژی پیش از آنکه به صورت گسترده توسعه یابد و استفاده شود، قابل درک است. اگر معلوم شود اعطای خودمختاری بیشتر به سلاحها، در عمل، موجب برتری نظامی میشود، و اگر کشورهای پیشرفته، بر خلاف جنگهای اخیرشان که خودخواسته بوده، درگیر جنگهایی برای بقای ملی شوند، آنچه که گذشته نشان میدهد این است که همۀ محدودیتهای حقوقی و اخلاقی امروز فروخواهند ریخت. ژنرال بارونز میگوید، کشورهای به احتمال زیاد کنترل انسانی را قربانی حفظ خود میکنند. او میگوید: "شما میتوانید بچههایتان را بفرستید تا بجنگند و کارهای هولناک بکنند، یا اینکه میتوانید ماشینها را بفرستید و بچههایتان را بچسبید. " بچههای دیگران، به شما ربطی ندارند.
۰