1. پرش به گزارش
  2. پرش به منوی اصلی
  3. پرش به دیگر صفحات دویچه وله

مناقشه بر سر تقبیح "روبات‌های آدمکش"

۱۳۹۷ شهریور ۴, یکشنبه

روبات‌های جنگی که قادر باشند بطور مستقل اهداف خود را انتخاب و نابود کنند، بیشتر در فیلم‌های علمی ـ تخیلی دیده می‌شوند، اما چنین سیستم‌هایی در دست ساخت و توسعه هستند. دانشمندان حوزه‌ی "هوش مصنوعی" هشدار می‌دهند.

Autonome Waffen |  Protest gegen "Killerroboter" in London
عکس: Getty Images/AFP/C. Court

آنچه "جنگ‌افزارهای مرگبار خودگردان" خوانده می‌شود، در زبان روزمره به "روبات‌های آدمکش" نیز معروف است. این‌ها می‌توانند ماشین‌هایی باشند که مستقل هدفگیری و تیراندازی می‌کنند. پهپادها و زیردریایی‌های بی‌سرنشین نیز جزو همین جنگ‌افزارها هستند.

ویژگی آنها اینست که در مأموریت‌های جنگی از سوی انسان‌ها هدایت نمی‌شوند، بلکه بطور مستقل تصمیم می‌گیرند که کدام هدف مشروع است و سپس شلیک می‌کنند. آیا باید چنین جنگ‌افزارهایی را ممنوع کرد؟

به گزارش "اشپیگل آنلاین" از تاریخ ۵ شهریور (۲۷ اوت) نمایندگان بیش از ۷۵ کشور جهان در شهر ژنو سوئیس گردمی‌آیند تا در این باره رایزنی کنند.

به کانال دویچه وله فارسی در تلگرام بپیوندید

آماندیپ گیل، سفیر هند و رئیس این نشست مشورتی در آغاز سال جاری گفته بود که "نباید این امر را دراماتیزه کرد و روبات‌ها بر جهان مسلط نخواهند شد".

اما منتقدان هشدار می‌دهند. توماس کوشن‌مایستر، عضو آلمانی "کارزار بین‌المللی علیه روبات‌های آدمکش" معتقد است که جنگ‌افزارها قادر به تشخیص دوست از دشمن نیستند و باید آنها را از نظر حقوق بین‌المللی به دقت سنجید. به گفته‌ی او، این تصمیم که به زندگی یک انسان پایان داده شود، هرگز نباید به یک ماشین واگذار شود.

توسعه‌ی شتابنده‌ی هوش مصنوعی

جنگ‌افزارهای خودگردان از طریق توسعه‌ی شتابنده‌ی هوش مصنوعی ممکن شده‌اند. کامپیوترها از راه داده‌های تزریق شده می‌آموزند که یک هدف چگونه به نظر می‌رسد، چگونه حرکت می‌کند و چه زمانی باید به آن شلیک کرد و این کار را بدون شرکت انسان در تصمیم‌گیری انجام می‌دهند.

جنگ‌افزارهای خودگردان را برای نمونه باید از "موشک‌های پتریوت" متمایز کرد. این موشک‌ها هم بطور اتوماتیک شلیک می‌شوند، اما هدف آنها باید پیش‌تر توسط انسان دقیق برنامه‌ریزی شده باشد.

میشائیل بیونتینو که تا چندی پیش نماینده آلمان در نهاد خلع‌سلاح در ژنو بود می‌گوید: «جنگ‌افزارهای خودگردان هدف را خودشان انتخاب می‌کنند و دارای بانکی اطلاعاتی از اهداف نیستند.»

البته باید خاطر نشان کرد که مرز میان سیستم‌های اتوماتیک و خودگردان سیال است.

دیگر جای تردیدی نیست که کشورهایی مانند ایالات متحده آمریکا، روسیه، چین، اسرائیل، کره جنوبی و بریتانیا مشغول کار روی چنین سیستم‌هایی هستند. نایل داویسون عضو کمیته‌ی بین‌المللی صلیب سرخ معتقد است که این سیستم‌ها هم‌اکنون نیز وجود دارند.

او که ناظر رعایت حقوق بین‌الملل انسانی مصرح در کنوانسیون معتبر ژنو است، از توسعه‌ی این سیستم‌ها ابراز نگرانی می‌کند. در کنوانسیون ژنو آمده است: «حملات باید اکیدا به اهداف نظامی محدود باشند». اما آیا ماشین‌ها قادر به تصمیم‌گیری در این باره هستند؟ داویسون معتقد است که انسان‌ها باید کنترل کافی در اختیار داشته باشند تا بتوانند تصمیمات مشروع بگیرند.

اما جنگ‌افزارهای خودگردان و روبات‌های آدمکش با خود تردیدها و پرسش‌های زیادی می‌آورند:

ـ آیا آنها می‌توانند تشخیص دهند که یک دشمن هم‌اکنون می‌خواهد خود را تسلیم کند یا زخمی شده است؟

ـ آیا می‌توانند تشخیص دهند انسانی که شناسایی شده و سلاح در دست دارد، یک سرباز است یا یک شکارچی؟

ـ آیا می‌توانند تشخیص دهند که سرباز شناسایی شده از نیروهای خودی است؟

ـ چه کسی مسئول و پاسخگوی جنایت‌هایی خواهد بود که توسط این جنگ‌افزارها صورت می‌گیرد و انسان کنترلی بر آنها ندارد؟

ماشین‌ها نباید در مورد مرگ و زندگی تصمیم بگیرند

میشائیل بیونتینو می‌گوید سیاست جمهوری فدرال آلمان در این زمینه کاملا روشن است: تصمیم برای زندگی و مرگ نباید به یک ماشین واگذار شود. به گفته‌ی او این مساله حتی در قرارداد دولت ائتلافی آلمان نیز تصریح شده است: «ما با سیستم‌های تسلیحاتی خودگردان که تحت کنترل انسان نباشند مخالفیم و خواهان تقبیح جهانی آنها هستیم.»

آلمان مشترکا به همراه فرانسه اصل و عرفی رفتاری پیشنهاد کرده که بر مبنای آن همه‌ی سیستم‌های تسلیحاتی امروز یا آینده باید تحت کنترل انسان باشند.

توماس کوشن‌مایستر، عضو "کارزار بین‌المللی علیه روبات‌های آدمکش" عکس: Facing Finance

اما توماس کوشن‌مایستر، عضو "کارزار بین‌المللی علیه روبات‌های آدمکش" این اصل رفتاری را "ببر بی‌دندان" می‌خواند و معتقد است که چنین عرفی از نظر حقوق بین‌الملل تعهدآور نیست. به همین دلیل سازمان او خواهان یک قرارداد متعهدکننده و الزام‌آور است.

اما به گفته‌ی کوشن‌مایستر، بسیاری از کشورها نمی‌خواهند سیستم‌های تسلیحاتی خود را محدود کنند. به همین دلیل در مذاکرات بین‌المللی هیچ تعجیلی نشان نمی‌دهند. اما این بازی با زمان بسیار حساس و خطرناک است، وقتی در نظر بگیریم که جنگ‌افزارهای جدید هم‌اکنون به چه درجه‌ای از خودگردانی رسیده‌اند.

بیش از دوهزار دانشمند که در حوزه‌ی هوش مصنوعی فعالیت می‌کنند، این جنگ‌افزارها را محکوم کرده‌اند. آنان در فراخوانی از جمله نوشته‌اند: یک مولفه‌ی اخلاقی وجود دارد. ما نباید تصمیم‌گیری درباره‌ی زندگی و مرگ را به ماشین‌ها واگذار کنیم.

این دانشمندان قول داده‌اند که هرگز در توسعه و تولید این‌گونه جنگ‌افزارها همکاری نکنند و از شرکت‌های فن‌آوری نیز خواسته‌اند که همین قول را بدهند.

پرش از قسمت در همین زمینه
پرش از قسمت گزارش روز

گزارش روز

پرش از قسمت تازه‌ترین گزارش‌های دویچه وله