روبات‌های قاتل، و قوانین تازۀ جنگ

روبات‌های قاتل، و قوانین تازۀ جنگ

اگر یک رادار ضدهوایی روی آن قفل کند، پهپاد سیگنال رادار را تا منبعش دنبال می‌کند و کلاهک جنگی‌ای که در دماغۀ پهنش لانه کرده، پهپاد، رادار و هر اپراتور راداری که در آن نزدیکی باشد را منفجر می‌کند.
کد خبر: ۶۷۱۸۶
بازدید : ۲۲۵۴
۲۲ مرداد ۱۴۰۰ - ۰۰:۳۱
فرادید| هاروپ (The HAROP)، یک پهپادی انتحاری است که از پرتابگرش همچون تیر از چلۀ کمان رها می‌شود. اما این پهپاد برای سرعت و تفریح ساخته نشده است. در عوض، بدون نظارت، تنها منتظر می‌ماند و در ارتفاعی آنقدر بالا که کسانی که در میدان نبرد مشغول جنگند، صدای پیشرانه‌اش را نشنوند، در انتظار فرصت می‌ماند.

به گزارش فرادید به نقل از اکونومیست، اگر هاروپ مزاحمی نداشته باشد، در نهایت به یک پایگاه هوایی که از قبل برایش تعیین شده، بازمی‌گردد، می‌نشیند و منتظر وظیفۀ بعدی خود می‌ماند. اما اگر یک رادار ضدهوایی روی آن قفل کند، پهپاد سیگنال رادار را تا منبعش دنبال می‌کند و کلاهک جنگی‌ای که در دماغۀ پهنش لانه کرده، پهپاد، رادار و هر اپراتور راداری که در آن نزدیکی باشد را منفجر می‌کند.

صنایع هوافضای اسراییل، بیش از یک دهه است که هاروپ را می‌فروشد. تعدادی کشور، از جمله هند و آلمان آن را خریده‌اند. آن‌ها از حالت شکار رادار این پهپاد استفاده نمی‌کنند؛ این پهپاد را می‌توان از راه دور هدایت کرد و از آن علیه هر هدفی که دوربین‌هایش شکار کنند و اپراتور‌ها صلاح بدانند، استفاده کرد. این احتمالاً همان حالتی است که آذربایجان در جریان درگیریش با ارمنستان در سال ۲۰۱۶، از آن استفاده کرده بود. اما هاروپ‌هایی که اسراییل علیه سیستم‌های ضدهوایی سوریه به کار برده، احتمالاً در استفاده از خاصیت انتحاری خود آزاد بوده‌اند.

بر اساس گزارش انستیتوی صلح بین‌الملل استکهلم، که یک اتاق فکر است، در سال ۲۰۱۷، هاروپ یکی از ۴۹ سیستم استفاده‌شده‌ای بود که می‌توانستند اهداف احتمالی را تشخیص دهند و بدون مداخلۀ انسان به آن حمله کنند. از این رو، این سیستم احتمالاً خاری است در چشم ۸۹ سازمان غیردولتی در ۵۰ کشور است که تحت پرچم "کارزار توقف استفاده از ربات‌های قاتل" گرد هم آمده‌اند. نام این کارزار، یک ضدبرندینگ موفق است: کیست که نخواهد جلوی ربات‌های قاتل را بگیرد؟ نام این کارزار، دو موضوع ترسناک داستان‌های علمی تخیلی را با هم ترکیب می‌کند: سلاحی به غایت قدرتمند و هوش غیرانسانی.
 

اما مورد هاروپ همچنین نشان می‌دهد که چنین سلاح‌هایی، و مسائلی که پدید می‌آورند، امری به کلی تازه نیست. موشک‌های "شلیک کن و فراموش کن" که مدتی این پا و آن پا می‌کنند تا امضای راداری‌ای که به آن‌ها گفته شده به آن حمله کنند را پیدا کنند، چندین دهه است که وجود دارند. آن‌ها اغلب از هواپیما شلیک می‌شدند، زمان بسیار کمتری می‌توانستند انتظار بکشند، و چنانچه رادار دشمن توجهی بهشان نشان نمی‌داد، قابلیت بازگشتن به پایگاه و انتظار فرصتی دیگر را کشیدن را نداشتند. اما قابلیت خودمختاریشان در کشتن، با نمونه‌های امروزی مشابه بود. مین‌های ضدنفر، چند قرن است که مورد استفاده هستند، به جای گشت زدن، سر جایشان می‌نشینند و هر چیزی که رویشان پای بگذارد می‌کشند، نه اینکه راداری را تشخیصشان داده دنبال کنند. اما زمانی که از این سلاح‌های استفاده می‌شد، هیچ انسانی در اینکه چه زمانی یا اینکه به چه کسی حمله کنند، نقشی نداشت.

در هر نوع بحثی در رابطه با خطرات و اخلاق مرتبط با سلاح‌های خودمختار، پذیرش سابقۀ طولانی و ناخوشایند دستگاه‌هایی که بدون تمایز یا بدون دستور مستقیم انسان، می‌کشند، ضروری است. با این وجود، نباید از این واقعیات غافل شد که قابلیت‌های این گونه از سلاح‌ها به سرعت در حال افزایش است، و توافق برای محدود کردن استفاده از این نوع تسلیحات اگرچه مطلوب است، اما به کار بستنش بسیار دشوار است. تشخیص اینکه آیا یک مین زمانی در ذیل معیار‌هایی که تحت پیمان اتاوا قرار می‌گیرد، سخت نیست. اما اینکه آیا هاروپ یک روبات خودمختار است یا یک سلاح کنترل از راه دور، به نرم‌افزاری که در آن لحظه اجرا می‌کند، بستگی دارد.

تسلیحات از زمانی که اولین اژدر‌های شناساگر صوتی در جنگ جهانی دوم به کار گرفته می‌شدند، قابلیت تعقیب شکار خود را داشته‌اند. اغلب تسلیحات مدرن که علیه ماشین‌های پرسرعت مورد استفاده قرار می‌گیرند، روی صدای آنها، بازتاب راداری و امضای حرارتی آن‌ها قفل می‌کنند. اما در اغلب موارد، انتخاب در مورد اینکه روی چه چیزی قفل کنند - روی موتور جت داغ کدام هواپیما یا روی صدای کدام کشتی- بر عهدۀ یک شخص است.

یک استثنای این موضوع در سیستم‌های دفاعی نظیر توپ‌های فالانکس (Phalanx) که کشتی‌های آمریکایی و متحدانش از آن استفاده می‌کنند، دیده می‌شود. زمانی که این حالت فعال شود، فالانکس به هر چه که به سوی کشتی‌اش بیاید، شلیک می‌کند؛ و در مورد کشتی‌ای خود را تحت حمله از سوی موشک‌هایی می‌بیند که سرعتشان بیش از آن است که انسانی بتواند انگشتش را تکان دهد، چنین موضوعی منصفانه به نظر می‌رسد. استدلال مشابهی را نیز می‌توان در مورد اسلحه‌های رباتی گشتزن در منطقۀ غیرنظامی‌شدۀ میان کرۀ شمالی و جنوبی به کار برد.

ظهور ماشین‌ها

چالشی که نیرو‌های مسلح مدرن و تولید کنندگان سلاح نظیر هوافضای اسراییل با آن مواجه هستند، کار کردن قابلیت انتخاب هدف از میان میدانی از غیرهدف‌ها است. دو پیشرفت تکنولوژی تازه، زمانه را برای حل این چالش مناسب کرده‌اند. اول اینکه کامپیوتر‌ها بسیار قویتر از آنچه که بودند، هستند، و به لطف "یادگیری ماشینی" در قابلیت تشخیص اشیا بسیار زبده‌تر شده‌اند. اگر یک آیفون می‌تواند به چهرۀ شما خوشامد بگوید، اما به چهرۀ خواهر یا برادرتان روی خوش نشان ندهد، چرا یک موشک نباید بتواند که یک تانک را از یک اتوبوس مدرسه تشخیص دهد؟

تغییری که رخ داده این است که خودمختاری در جنبه‌های غیرکشتاری حیات نظامی، به صورت گسترده‌ای در حال گسترش است. پهپادها، کامیون‌های بدون راننده و زیردریایی‌های بدون خدمه، همگی برای مقاصد متنوعی که اکثراً کاملا غیرکشنده هستند، مورد استفاده قرار می‌گیرند. در رزمایشی که در ارتش بریتانیا با نام "جنگجوی خودمختار" در دسامبر ۲۰۱۸، در دشت سالزبری برگزار کرد، افسران نظامی خودرو‌ها و هواپیما‌های خودمختاری را که برای دید زدن خطوط دشمن، تخلیۀ سربازان مجروح، و رساندن تجهیزات و آدوقه به خط موقت جبهه مورد استفاده قرار می‌گیرند، به نمایش گذاشتند.

خودرو‌های خودمختار، حتماً نباید تبدیل به سلاح‌های خودمختار شوند، حتی اگر از نیرویی مرگبار بهره‌مند باشند. پهپاد‌های "ریپر" که آمریکا دشمنانش را با آن‌ها می‌کشد، با وجود اینکه می‌توانند به صورت خودمختار پرواز کنند، وقتی که نوبت به اقدامات خشن می‌رسد، تحت کنترل شدید انسانی قرار دارند.

اما، کنترل از راه دور ماهواره‌ای، یک تاخیر زمانی به همراه دارد که در جنگی تمام‌عیار که به سوی پهپاد‌ها شلیک می‎شود، اهمیت پیدا می‌کند. همچنین همکاری نیز با خارج کردن انسان از چرخه، می‌تواند بهتر شود. بخش تحقیقات پیشرفتۀ پنتاگون (DARPA)، در حال کار بر حمله‌های خودمختاری در دسته‌های بزرگ است که بیشتر به کوچ سار‌ها شباهت دارد. چه اپراتور انسانی‌ای می‌تواند هماهنگی‌ای در این ابعاد را مدیریت کند؟ این فقط مسئله‌ای برای آینده نیست. یکی از مزایایی که MDBA، یک موشک‌ساز اروپایی، برای موشک‌های هوا به زمین برایم‌استون (Brimstone)، ذکر می‌کند، این است که می‌توانند بر اساس دستور آتش، خود را ترتیب دهند. اگر هواپیما‌های مختلف تعدادی برایم‌استون را به یک "محدودۀ مرگ" شلیک کنند، و موشک‌ها اجازه داشته باشند که بیشترین آسیب ممکن را بزنند، موشک‌ها همدیگر را زیر نظر می‌گیرند تا احتمال اینکه دو تایشان به یک هدف بخورند، کاهش پیدا کند.

هزینه نیز یک مولفه در نیرو‌های مسلح است، چرا که تربیت افراد بسیار هزینه‌بر است. ژنرال ریچارد بارونز، یکی از ارشدترین فرماندهان ارتش بریتانیا تا سال ۲۰۱۶، می‌گوید: "امتیازی که روبات‌ها دارند این است که حقوق و مزایای بازنشستگی نمی‌گیرند. " ضمن اینکه خانواده و اقوام ندارند. از دست رفتن روبات، تنها خسارتی مالی و ظرفیتی در پی ندارد، و پتانسیل انسانی از دست نمی‌رود.

اگر نگه داشتن انسان در چرخه، تنها مسئلۀ افزایش هزینه بود، باز هم می‌توانست ارزشش را داشته باشد. اما کنترل انسانی، آسیب پذیری ایجاد می‌کند. معنایش این است که باید انبوهی از اطلاعات رمزگذاری‌شده را بفرستید و دریافت کنید. اگر پیوند‌های ضروری داده‌ها به صورت فیزیکی مورد حمله قرار گیرند - مثلاً با تسلیحات ضدماهواره- به صورت الکترونیکی مختل شوند یا از طریق جنگ سایبری تحت اختیار دشمن قرار گیرند، چه؟ جنگ‌های آینده احتمالاً در آنچه که نیرو‌های مسلح آمریکا "محیط‌های الکترومعناطیسی مورد مناقشه" می‌نامند، اتفاق خواهند افتاد. نیروی هوایی انگلستان اطمینان دارد که پیوند‌های دادۀ رمزگذاری‌شده، در چنین محیط‌هایی سالم خواهد ماند. اما مسئله این است که نیرو‌های هوایی، نفع خود را در اطمینان از این می‌دانند که همچنان کاری برای خلبانان وجود داشته باشد و از این به صورت ناخودآگاه دچار جهت‌گیری هستند.

آسیب‌پذیری پیوند‌های ارتباطی نسبت به مداخله، استدلالی است که در دفاع از اعطای خودمختاری بیشتر به سلاح‌ها بیان می‌شود. اما سیستم‌های خودمختار نیز می‌توانند هدف مداخله قرار گیرند. حسگر‌های سلاح‌هایی نظیر برایم‌استون، بایستی به نسبت آن‌هایی مثلاً در خودرو‌های خودران مورد استفاده قرار می‌گیرند، بسیار پیشرفته‌تر باشد، نه فقط به این خاطر که میدان‌های نبرد پرهرج‌ومرج هستند، بلکه به این دلیل که دشمن ممکن است سعی در منحرف کردنشان داشته باشد. همانطور که برخی از فعالات با استفاده از آرایش غیرمتقارن سعی می‌کنند سیستم‌های تشخیص چهره را گمراه کنند، اهداف نظامی نیز امضا‌هایی را که سلاح خودمختار به دنبال تشخیصشان است را مخدوش می‌کنند. پائول شاره، نویسندۀ کتاب "ارتش هیچکس: سلاح‌های خودمختار و آیندۀ جنگ" هشدار می‌دهد که شبکه‌های عصبی مورد استفاده در یادگیری ماشینی، ذاتاً در برابر حقه‌ها آسیب‌پذیر هستند.
 

روز داوری

قابلیت‌های نوین، کاهش هزینه‌ها، مقاومت در برابر اقدامات متقابل و احتمال شکل‌گیری بازار‌های تازه برای صادرات، همگی موجب تشویق به تحقیق و توسعه در زمینۀ تسلیحات خودمختار شده است. برای خفه کردن این امر در نطفه، کارزار توقف روبات‌های قاتل به دنبال ممنوعیت پیشگیرانه برای تسلیحات "کاملاً خودمختار" است. مشکل اینجاست که بر سر اینکه مرز این موضوع کجاست، توافق چندانی وجود ندارد. مثلاً، سوییس می‌گوید که تسلیحات خودمختار، تسلیحاتی هستند که قادرند "به صورت جزیی یا کلی در استفاده از زور، به خصوص در چرخۀ هدفگیری، جایگزین انسان شوند"، و این تعریف هاروپ و برایم‌استون و بسیاری سلاح‌های دیگر را در برمی‌گیرد. در مقابل، بریتانیا، می‌گوید که سلاح‌های خودمختار فقط سلاح‌هایی هستند که "قادر به درک قصد و دستور سطح بالاتر باشند. " هر آنچه که در زرادخانه‌های امروزی، و حتی در مرحلۀ طراحی قرار دارند، خارج از این تعریف قرار می‌گیرند.

تا حدی برای سر و سامان دادن به این چیزها، در سال ۲۰۱۷، کنوانسیون سلاح‌های متعارف خاص سازمان ملل، مباحث پیشین خود را از طریق تشکیل گروهی از متخصصان دولتی صورت‌بندی کرد تا نکات حساس خودمختاری را مورد مطالعه قرار دهند. در کنار ایجاد شناختی مشترک از اینکه چه سلاح‌هایی را باید کاملاً خودمختار محسوب کرد، این هیئت در حال بررسی یک ممنوعیت فراگیر یا دیگر گزینه‌ها برای برخورد با چالش‌های انسانی و امنیتی‌ای است که اینگونه سلاح‌ها ایجاد می‌کنند.

اکثر کشور‌های دخیل در مباحثات کنوانسیون، در مورد اهمیت کنترل انسانی موافقت دارند. اما در این مورد که معنای دقیق این امر چیست، اختلاف دارند. هیتر روف و ریچارد مویس، دو حقوقدان بین‌الملل، در این زمینه استدلال می‌کنند که "انسانی را که تنها دکمۀ "آتش" را، بدون آگاهی یا دانش شناختی، در واکنش به شاخص‌های کامپیوتری فشار می‌دهد" در واقع کنترلی ندارد. آن‌ها می‌گویند، "کنترل معنادار"، نیازمند درک شرایطی که سلاح در آن استفاده می‌شود و همچنین ظرفیت مداخلۀ به موقع و عقلانی است. این امر نیازمند، مسئولیت‌پذیری است.

سرتیپ ریچارد کریگ، که ریاست تحقیقات ارتش بریتانیا در زمینۀ سیستم‌های خودمختار را برعهده دارد، با اینکه شرایط اهمیت حیاتی دارد، موافق است. در برخی شرایط ممکن است کار درست این باشد که همۀ اهداف با دقت بررسی شوند. در دیگر شرایط کافی است که تهدید شناسایی شود و مطابق با آن اقدام شود. برای مثال، او می‌گوید یک سیستم فالانکس، "در حالت کاملاً خودمختار قرار نخواهد گرفت، مگر آنکه تهدیدی شدید وجود داشته باشد. کنترل انسانی معنادار در اینجا یعنی روشن کردن سیستم و گذاشتن آن در این حالت، و سپس خاموش کردن این حالت. "

معنای این حرف این است که هواپیما‌های جنگی روباتی آینده، نظیر آنچه که برنامۀ نورون (nEURON) به رهبری فرانسه و برنامۀ تارانیس بریتانیا به دنبالش هستند و هر دو در حال آزمودن شناسایی هدف خودکار هستند، بزرگترین چالش پیش رو محسوب می‌شوند. این سیستم‌‎ها هر قدر هم پیچیده باشند، ممکن است با طیف گسترده‌ای از محیط‌های اهداف مواجه شوند که پیش‌بینی‌شان سخت است. آن‌ها بسته به اینکه سر از کجا در بیاورند، بسته به توانایی و تجربۀ اپراتورها، اینکه چه بر سر راهشان قرار گیرد و احتمالاً تغییراتی در الگوریتمهایشان که از طریق یادگیری ماشینی مشتمل در سلاح صورت می‌گیرد، ممکن است تحت کنترل معنادار انسانی قرار داشته یا نداشته باشند. اینجا برای فلاسفۀ اخلاق یک سرزمین ناشناخته و برای کسانی که بدنبال ایجاد پیمان‌هایی در این زمینه هستند، یک کابوس است.

دو جین کشوری که به دنبال یک ممنوعیت الزام‌آور حقوقی در زمینۀ تسلیحات تماماً خودمختار هستند، کشور‌هایی با ظرفیت نظامی اندک نظیر جیبوتی و پرو، اما برخی از اعضا، نظیر اتریش، قدرت دیپلماتیک دارند. هیچ‌یک از آن‌ها صاحب چنان صنعت تسلیحاتی‌ای نیستند که بتوانند از تسلیحات خودمختار سودی به جیب بزنند. آن‌ها استدلال خود تا حدودی بر حقوق بین‌المللی بشردوستانه بنا کرده‌اند، که شاکله‌ای است که حول قوانین جنگی که در کنوانسیون‌های لاهه و ژنو گذارده شده، شکل گرفته است. این قانون از ارتش‌ها می‌خواهد که میان جنگجویان و غیرنظامیان تمایز قائل شوند، از حمله‌هایی که خطرش برای غیرنظامیان بر دستاورد نظامی می‌چربد خودداری کنند، بیش از آنچه متناسب هدف است از زور استفاده نکنند و از تحمیل رنج غیرضروری حذر کنند.

در مورد تمایز قائل شدن، وینسنت بولانین و مایک وربروگن، متخصصان انستیتوی صلح بین‌الملل استکهلم، گوشزد می‌کنند که سیستم‌های تشخیص هدف موجود، با وجود همۀ پیشرفت‌های اخیر، همچنان "ابتدایی" هستند و در مقابل آب‌وهوای بد و پس‌زمینۀ شلوغ آسیب‌پذیرند. آن‌هایی که انسان‌های را تشخیص می‌دهند، "بسیار خام و اولیه" هستند؛ و تازه این قبل از آن است که دشمنان باهوش سعی کنند روبات‌ها را به حمله به چیز‌های اشتباه هدایت کنند.

تشخیص ضرورت و تناسب، که لازمۀشان سبک‌سنگین کردن جان انسان‌ها در برابر اهداف نظامی است، حتی از آن هم دشوارترند. سرگرد کاتلین مک‌کندریک، از ارتش بریتانیا، می‌گوید: "ماشین‌های جدید هر قدر هم که پیچیده باشند، چنین چیزی فرای گسترۀ قابلیتهایشان است. " ارتشی که از تسلیحات خودمختار استفاده می‌کند، بایستی تصمیمات مربوط به تناسب را قبل از اینکه چیزی را شلیک کند، بگیرد.

راه نجات؟

حقوق بین‌الملل بشردوستانه، با "شرط مارتنز" که در اصل در کنوانسیون ۱۸۹۹ لاهه پذیرفته شد، شکل گرفته است. این شرط می‌گوید که تسلیحات جدید بایستی با "اصول انسانی" و "آنچه که وجدان عام دیکته می‌کند"، مطابق باشد. بانی دوچرتی، از دیدبان حقوق بشر، سازمان غیردولتی‌ای که کارزار ضد روبات را هماهنگ می‌کند، می‌گوید که "از آنجا که ماشین‌های خودمختار، تسلیحات کاملاً خودمختار نمی‌توانند ارزش زندگی انسان و اهمیت از دست رفتن آن را درک کنند. از این رو در احترام به شرف انسان ناکام هستند. " این استدالی قوی است، اما از نظر حقوقی چندان به کار نمی‌آید. در مورد آنچه که وجدان عام دیکته می‌کند، تحقیقات و تاریخ نشان می‌دهند که این‌ها از آنچه که یک بشردوست آرزو می‌کند، بسیار منعطف‌تر هستند.

فارغ از حقوق و اخلاق، تسلیحات خودمختار می‌توانند خطرات بی‌ثبات‌کنندۀ تازه‌ای پدید بیاورند. سیستم‌های خودکار می‌توانند به شکل‌های غیرقابل‌پیش‌بینی تداخل کنند، همانطور که الگوریتم‌های مبادلات باعث "سقوط‌های ناگهانی" در بازار بورس می‌شوند. آقای شاره، احتمال جنگ ناگهانی‌ِ "ناشی از درگیری‌های از کنترل خارج شده" را مطرح می‌کند. پیتر رابرتز، ریاست یک اتاق فکر نظامی در انگلیس، می‌گوید: "اگر ما این نظر را که انسان‌ها تصمیمات بدی می‌گیرند را می‌پذیریم، باید همچنین این نظر را که سیستم‌های هوش مصنوعی تصمیمات بدی می‌گیرند، البته با سرعت بیشتر، را هم بپذیریم. "

به جز گروه اصلی‌ای که به دنبال ممنوعیت هستند، طیفی از نظرات وجود دارد. چین اعلام کرده از لحاظ اصولی از یک ممنوعیت حمایت می‌کند؛ اما ممنوعیت بر استفاده، نه توسعه. فرانسه و آلمان با ممنوعیت، در حال حاضر، مخالف هستند؛ اما می‌خواهند که کشور‌ها با یک مرامنامه موافیت کند، که همزمان دستشان را برای "تفسیر‌های ملی" باز بگذارد. هند، نمی‌خواهد تجربه‌اش در رابطه با سلاح هسته‌ای تکرار شود؛ جایی که ندار‌های فناوری با یک پیمان تبعیض‌آمیز دستشان از سلاح‌هایی که بازی را عوض می‌کردند، کوتاه ماند.

در آن سوی طیف، گروهی از کشور‌ها از جمله آمریکا، بریتانیا و روسیه قرار دارند که علناً با ممنوعیت مخالفت می‌کنند. این کشور‌ها اصرار دارند که قوانین بین‌المللی موجد، مانعی کافی در برابر همۀ سیستم‌های آتی است.

برخی حتی استدلال می‌کنند که سلاح‌های خودمختار ممکن است جنگ‌ها را انسانی‌تر کنند. جنگجویان انسانی حقوق بین‌المللی بشردوستانه را زیر پا می‌گذارند. اما روبات‌هایی که به درستی برنامه‌ریزی شده باشند، ممکن است نتوانند چنین کاری کنند. سلاح گشتزن سامسونگ، که در منطقۀ غیرنظامی بین دو کره مورد استفاده بود، می‌توانست بالا رفتن دست و انداختن سلاح به زمین را به عنوان نشانه‌های تسلیم تشخیص دهد که معنای عدم شلیک بود. همه‌جور محدودیت بر مبنای حقوق بین‌المللی بشردوستانه و حساس به شرایط را می‌توان در برنامه‌ریزی نسل‌های آتی این سلاح‌ها گنجاند. اما چقدر طول می‌کشد تا یک ارتش در مضیقه تصمیم بگیرد این موانع را بی‌خیال شود و افسار سگ‌های روباتی جنگ را رها کند؟

این موضوع، یکی از بزرگترین مشکلاتی که مدافعان ممنوعیت و کنترل با آن مواجهند را بر سر میز باز می‌گرداند. کنترل سلاح، نیازمند بازرسی و تایید است و این موضوع هر وقت که بحثمان خودمختاری باشد، مسئله‌ای غامض می‌شود. مایکل هاروویتز، از دانشگاه پنسیلوانیا، می‌گوید: "تفاوت میان ام‌کیو ۹ ریپر و نسخۀ خودمختارش در نرم‌افزار است نه سخت‌افزار. تشخیص چنین امری با استفاده از تکنیک‌های مرسوم کنترل تسلیحات بسیار دشوار خواهد بود. "

شتاب برای محدود کردن تکنولوژی پیش از آنکه به صورت گسترده توسعه یابد و استفاده شود، قابل درک است. اگر معلوم شود اعطای خودمختاری بیشتر به سلاحها، در عمل، موجب برتری نظامی می‌شود، و اگر کشور‌های پیشرفته، بر خلاف جنگ‌های اخیرشان که خودخواسته بوده، درگیر جنگ‌هایی برای بقای ملی شوند، آنچه که گذشته نشان می‌دهد این است که همۀ محدودیت‌های حقوقی و اخلاقی امروز فروخواهند ریخت. ژنرال بارونز می‌گوید، کشور‌های به احتمال زیاد کنترل انسانی را قربانی حفظ خود می‌کنند. او می‌گوید: "شما می‌توانید بچه‌هایتان را بفرستید تا بجنگند و کار‌های هولناک بکنند، یا اینکه می‌توانید ماشین‌ها را بفرستید و بچه‌هایتان را بچسبید. " بچه‌های دیگران، به شما ربطی ندارند.
ارسال نظرات
نام:
ایمیل:
* نظر:
از میان اخبار
نگاه
تازه‌‌ترین عناوین