جلوی "رباتهای قاتل" را بگیرید!
اصطلاح "ربات قاتل" ما را به یاد داستانهای علمی تخیلی میاندازد. اما آیندهای که در آن سیستمهایی که بدون دستور کاربر قادر به کشتن انسانها هستند، دور نیست.
کد خبر :
۵۴۱۹
بازدید :
۶۴۶۰
فرادید | اصطلاح "ربات قاتل" بلافاصله ما را به یاد داستانهای علمی تخیلی تظیر ترمیناتور میاندازد. اما آیندهای که در آن سیستمهای تسلیحاتی خودمختاری که بدون دستور کاربر قادر به کشتن انسانها هستند در نبرد به کار گرفته شوند، چندان دور نیست.
به گزارش فرادید به نقل از نیوزویک، در واقع همین حالا هم سربازان آمریکایی از مقرهایی هزاران کیلومتر دورتر، حملات پهپادی را هدایت میکنند. اما مسئلۀ نگرانکنندهتر این است که ارتش ایالات متحده در حال آزمایش پهپادهایی است که از کامپیوتر دستور میگیرند. موضوعی که ممکن است در طی چندسال آینده به واقعیت بپیوندد. مگر اینکه مردم جلوی آن را بگیرند.
این جاست که "کمپین ممنوعیت رباتهای قاتل" وارد میشود. این کمپین متشکل از ائتلافی از سازمانهای مردمنهاد است که تلاش دارند از طریق پیمانی بینالمللی، سیستمهای تسلیحاتی خودمختار را ممنوع کنند. شش عضو این کمپین روز سهشنبۀ هفتۀ گذشته در ساختمان سازمان ملل در نیویورک جمع شدند و به خبرنگاران هشدار دادند که توسعۀ دستگاههای خودمختار خیلی سریعتر از تلاشها برای رسیدن به توافقی دیپلماتیک برای ممنوعیت آنها پیش میرود.
یکی از نگرانیهای اصلی این کمپین این است که روزی تصمیمگیری راجع به کشتن انسان به ماشین واگذار شود. نتایج تحقیق جدیدی که راجع به پهپادها منتشر شده نشان میدهد که در یک بازۀ پنج ماهه در افغانستان، از هر ده نفری که به وسیلۀ پهپادهایی که توسط انسان هدایت میشوند، کشته شدهاند، 9 نفرشان کسانی غیر از هدفهای موردنظر بودهاند. توبی والش، استاد هوش مصنوعی در دانشگاه نیوساوت ولز و یکی از اعضای کمپین، میگوید که استفاده از سلاحهای خودمختاری که توسط سیستمهای هوش مصنوعی فعلی هدایت میشود، منجر به تلفات ناخواستۀ بسیار بدتر و بیشتری خواهند شد. او میگوید که ماشینها نمیتوانند در تشخیص سربازان از غیرنظامیان یا سنجیدن اقدام متناسب با شرایط بهتر از انسان عمل کنند. در حالی که چیزی به ورود تسلیحاتی که توسط کامپیوتر کنترل میشوند باقی نمانده، اما به عقیدۀ والش هنوز تا رسیدن هوش مصنوعی به ظرفیتهای عقلیای که در ترمیناتور میدیدیم، "شاید 50 سال یا بیشتر باقی مانده باشد."
امروزه، برخی از سیستمهای تسلیحاتی خودمختار مورد استفاد قرار دارند، هر چند که بسیاری از آنها جنبۀ دفاعی دارند و علیه مهمات متجاوز دشمن وارد عمل میشوند. برای مثال، سیستم دفاع موشکی پاتریوت در جریان جنگ آمریکا و عراق به عنوان یک نمونۀ موفق از فناوری پیشرفته مثال زده میشد، هر چند که مسئول انهدام دو فروند هواپیمای نیروهای متحد آمریکا هم بود. همینطور تسلیحات ماشینیای که قادرند اهداف را از کیلومترها دورتر تشخیص دهند، حالا در ناحیۀ غیرنظامیای که کرۀ جنوبی و شمالی را از هم جدا میکند، مورد استفاده هستند. آنها از لحاظ فنی این امکان را دارند تا بدون کمک انسان شلیک کنند، اما فعلاً کارشان مطلع کردن کاربر است و سپس او تصمیم نهایی را دربارۀ کشیدن ماشه میگیرد.
کریستوف هاینز، گزارشگر ویژۀ سازمان ملل در اعدامهای فراقضایی، بدون انجام تشریفات و دلبخواهی، میگوید: "کشورها اغلب استدلال میکنند که کامپیوترها در برخی از عملکردها بسیار سریعتر از انسان هستند و میتوانند از این مزیت چندصدم ثانیهای به نفع خود استفاده کنند. برخی از کشورها هم استدلال میکنند که چنین فناوریای میتواند در مواردی منجر به هدفگیری بهتر شود." ایالات متحده، به عنوان یک قدرت برتر نظامی، احتمالاً در زمینۀ تحقیق و توسعۀ سیستمهای تسلیحاتی خودمختار، پیشرو است. آرداین جِی تی رانکین-گالووی، سخنگوی پنتاگون، میگوید: "وزارت دفاع روی مبحث خودمختاری تمرکز زیادی دارد. از جمله بهرهگیری از ظرفیتها به روشهای نو و سرمایهگذاری بر روی فناوریهای نوینی که بتوانند برتریهای عملیاتی بزرگتری ایجاد کنند."
اما دکتر یان کِر، از کمیتۀ بینالمللی کنترل تسلیحات رباتیک و یکی از اعضای کمپین میگوید که کشتار بهینهتر به معنی جنگهای انسانیتر نیست. والش نیز استدلال میکند که سیستمهای تسلیحاتی خودمختار از طریق کاهش هزینۀ جنگ، چه از حیث جان سربازان و چه لحاظ پولی، باعث افزایش تعداد جنگها خواهند شد. بانی دوشرتی، از دیدهبان حقوق بشر، پیشتر به نیوزویک گفته بود که نه تنها نمیشود ماشین را به خاطر جرایم جنگی محاکمه کرد، بلکه تحت قوانین فعلی، انسانهایی که این رباتهای کشنده را تولید و برنامهریزی کرده و فرماندهی آنها را برعهده دارند نیز به راحتی میتوانند از زیر مسئولیت شانه خالی کنند. او میگوید بدون پذیرش مسئولیت، خونخواهی قربانیان ممکن نیست، در پی آن شاهد سرزنش اجتماعی نخواهیم بود و بازدارندگی در مقابل تکرار جنایت وجود نخواهد داشت.
کمپین ممنوعیت رباتهای قاتل توصیه میکند که به جای اینکه قوانین مربوط به استفاده از ماشینهای قاتل تدوین شود، این ماشینها به کل ممنوع شوند، چرا که وقتی که این فناوری به وجود بیاید، حکومتها برای استفاده از آنها وسوسه خواهند شد. و وجود حتی یک انبار از سیستمهای تسلیحاتی رباتی، گام نخست در مسیر اشاعه و شروع یک مسابقۀ تسلیحاتی بیپایان خواهد بود. در ماه جولای سال جاری، استیفن هاوکینگ، الون ماسک، استیو وازنیاک و نزدیک به هزار متخصص هوش مصنوعی دیگر، در نامهای در حمایت از این کمپین نوشتند: "طولی نخواهد کشید که این ماشینها سر از بازار سیاه دربیاورند و به دست تروریستها، دیکتاتورهایی که به دنبال احاطۀ بیشتر بر مردم کشورشان هستند، و جنگسالارانی که به دنبال پاکسازی قومی هستند، بیافتند."
برخی از طرفهای این بحث معتقدند که ایجاد محدودیت در تحقیقات اثری نامطلوب خواهد داشت و در توسعۀ هوش مصنوعی برای کاربردهای مفید، اخلال ایجاد خواهد کرد. برای مثال، خودروهای بدون راننده میتوانند جان میلیونها نفر را در جادهها نجات دهند. مانوئلا ولوسو، استاد علوم کامپیوتر در دانشگاه کارنگی ملون، میگوید: "به همۀ فوایدی که استفادۀ خوب از این فناوری میتواند به ارمغان بیاورد فکر کنید؛ اینکه انسانها از این فناوری در جهت مفید استفاده نکنند، مایۀ شرمساری نیست؟" به عقیدۀ او فناوریهایی نظیر پهپادها و هوش مصنوعی از نظر اخلاقی خنثی هستند. در مقابل، این روش استفاده از فناوری است که میتواند خطرناک باشد. او میگوید که باز هم افرادی خواهند بود که بیتوجه به محدودیتها به توسعۀ هوش مصنوعی خواهند پرداخت و از آن سواستفاده خواهند کرد.
او میگوید: "هر اتفاقی که در مورد هوش مصنوعی بیافتد، بستگی به خود بشریت دارد. مردم باید حواسشان را جمع کنند و از هوش مصنوعی استفادۀ خوب بکنند، اما من مطمئن نیستم که چه طور باید جلوی آدم بدها را بگیریم تا کاری که دلشان میخواهد نکنند."
هاینز معتقد است که از جزییات مهمی در بحث پیرامون ممنوعیت رباتهای قاتل غفلت شده است. او میگوید: "خودمختاری یک طیف است. من با سطوح پایین خودمختاری مخالف نیستم، چرا که مسلماً چیز خوبی است و به انسانها کمک میکند تا تصمیمات بهتری بگیرند. اما فناوری باید به مثابه ابزاری در دستان انسان باشد و نه بالعکس، به خصوص وقتی که انتخاب مرگ و زندگی انسانها در میان است."
کمپین ممنوعیت رباتهای قاتل، پس از دوسال گفگوهای غیررسمی و چندجانبه، شاهد پیشرفت اندکی بوده است. یک استثنای قابل توجه در این میان، بخشنامهای بود که در سال 2012 وزارت دفاع آمریکا صادر کرد و وجود سطح "مناسب" از قضاوت انسانی در استفاده از زور را الزامی نمود. باب وورک، معاون وزارت دفاع آمریکا، در ماه سپتامبر در موسسۀ سلطنتی یونایتد سرویسز در لندن گفت: "موضوع این است که به ماشینها اجازه دهیم تا به در تصمیمگیری در سطح عملیاتی و تاکتیکی به انسانهای تصمیمگیر کمک کنند، تا بتوانیم نسبت به دشمن سریعتر و بهتر تصمیمگیری کنیم." حتی اگر نیت واقعی آمریکا از توسعۀ این تکنولوژی همین باشد، در این موضوع که در حال نزدیک شدن به لحظهای حساس هستیم که باید تکلیف ممنوعیت رباتهای قاتل یک بار برای همیشه مشخص شود.
در سیزدهم نوامبر امسال، در نشست کنوانسیون سلاحهای متعارف در ژنو، 120 کشور عضو تصمیم خواهند گرفت که آیا تمایلی به ادامۀ مباحث دارند یا خیر. در حالی که به گفتۀ استیفن گوس، مدیر اجرایی بخش تسلیحات دیدهبان حقوق بشر، "از الان معلوم است که بحثها ادامه خواهد یافت"، اما فعالان خواهان اقداماتی فراتر هستند. مِری وارهام، که او نیز از دیدهبان حقوق بشر و از هماهنگکنندگان کمپین است، میگوید: "اینکه گفتگوهای غیررسمی در سازمان ملل، انتظاراتشان اینقدر پایین است و این قدر کند پیش میروند، مایۀ نگرانی روزافزون است." او همچنین افزود که امیدوار است که کشورها به بحثهای رسمیتری که به مذاکرات راجع به یک پیمان بینالمللی جدید منتهی شود، متعهد شوند.
اما چنانکه گوس میگوید، کنوانسیون سلاحهای متعارف به انفعال مشهور است و در طول عمرش تنها یک موفقیت داشته است: اعمال ممنوعیت پیشگیرانه از کاربرد لیزرهای کورکننده در سال 1995. گزینۀ دیگری که این گروه در اختیار، کار کردن خارج از چارچوب سازمان ملل و گشتن به دنبال کشورهایی است که از طرح یک پیمان پیشگرانه حمایت کنند. اما این رویکرد هم ممکن مشکلزا باشد. گوس میگوید که اگرچه هیچ کشوری تاکنون علیه یک پیمان منع اعلام موضع نکرده است، اما هیچکدام هم به این منظور پیشقدم نشدهاند، و خیلی زود اصولاً فرصت این امر از دست خواهد رفت و دیگر دیر است.
کِر دربارۀ تسلیحات خودمختار میگوید: "ما از مرز اخلاقیای عبور خواهیم کرد که تا به حال از آن نگذشته بودیم. این موضوع نیازمند توجه بینالمللی است."
منبع: Newsweek
ترجمه: فرادید
مترجم: بهزاد ساعدپناه
۰