1. رفتن به محتوا
  2. رفتن به مطالب اصلی
  3. رفتن به دیگر صفحات دویچه وله
جهان دیجیتال

جنگ آینده؛ وقتی سلاح ها به فناوری ژنتیک مجهز می‌شوند

۱۳۹۷ مهر ۴, چهارشنبه

روبات های خودمختار، هوش مصنوعی و فناوری ژنتیک سرنوشت زندگی و مرگ انسان ها را تغییر می دهند. حالا همه این فناوری ها به عرصه تولید سلاح وارد شده است. جنگ ها در آینده چگونه خواهند بود؟

Autonome Waffen | Roboter Fedor
یک نمونه از روبات های جنگی ساخت روسیه عکس: Imago/ITAR-TASS

دقیقا ۳۵ سال پیش، در اوج جنگ سرد، جهان عنقریب شاهد یک جنگ هسته ای بود. در شب ۲۵ بر ۲۶ سپتمبر همان سال، یک ماهواره جاسوسی اتحاد جماهیر شوروی سابق به خاطر یک اشتباه نرم افزاری شفق طلوع آفتاب را در پرتو ابرها با شلیک راکت های اتومی توسط ایالات متحده امریکا اشتباه گرفت. این ماهواره خبر حمله اتومی با ۵۰ راکت بر ۹۰ کیلومتری جنوب مسکو را گزارش کرد. اما تصمیمگیری استانیسلاو یگوریش پتروف، سرمایه ای برای بقای بشریت بود. وی با بررسی پیکسل های روی صفحه نمایش دریافت که این زنگ خطر اشتباهی بوده و دستور به حملات تلافی جویانه اتومی را نداد. این ارزیابی قهرمانانه پتروف برای چند دهه به عنوان یک راز دولتی مخفی ماند.

در کانال رسمی تلگرام دویچه وله دری عضو شوید

این فقط یک نمونه از خطای تکنالوژی بود که ممکن بود به ویرانی سیاره زمین و نابودی بشریت بینجامد. حالا سوال این است: اگر سیستم واکنشی آن زمان خودکار می بود، پتروف به عنوان یک عامل انسانی آنجا نمی بود و پیام را بررسی نمی کرد، سیستم چطور واکنش نشان می داد و چه اتفاقی می افتاد؟

استانیسلاو یگوریش پتروفعکس: picture-alliance/dpa/O. Killig

تخنیک مرگبار به سرعت در حال توسعه

حالا پس از چند دهه از آن زمان، دیجیتالیزه شدن جهان با سرعت سرسام آوری رو به رشد است و به تمام حوزه های زندگی انسان ها به شمول سکتور نظامی نیز نفوذ کرده است. هوش مصنوعی، یادگیری ماشین ها، روباتیک، چاپ سه بعدی و فناوری ژنتیکی در اردوها انقلابی را به میان آورده است و به میدان های جنگ هم راه یافته است. یکی از نمونه ها نیز طیاره های بدون سرنشین هستند که نوعی روبات های جنگی با کنترول انسانی از راه دور می باشند. فعلا در نهایت انسان است که تصمیم می گیرد دکمه را برای پرتاب بمب و کشتن فشار بدهد یا خیر. اما کار با سرعت فراوانی جریان دارد تا روبات ها خودشان بتوانند در مورد مرگ و زندگی انسان ها تصمیم گیری کنند. روندی روشن برای کنترول سلاح های هوشمند و مستقل وجود ندارد.

یک نمونه از روبات های جنگی ساخت امریکا عکس: picture-alliance/AP Photo/Eric Risberg

راینهارد گرینوالد از اداره ارزیابی فناوری در پارلمان آلمان فدرال "بوندستاگ" می گوید: «این مسئله فراتر از آن است که این کار اخلاقی است یا خیر. این سوال مهم است که چه خطرهایی برای ثبات بین المللی خواهد داشت؟ این یک حوزه بسیار پیچیده است که مسئله بقای بشریت را نیز شامل می شود و همچنان در حال توسعه خواهد بود».

انسان ها کنترول را از دست می دهند؟

روند صعودی سیستم سلاح های خودمختار به سرعت به درگیری ها می انجامد و این نگران کننده است. فرماندهان نظامی همین حالا نیز از تکناولوژی مدرن استفاده می کنند و همچنین هوش مصنوعی را افزایش می دهند تا در موقعیت های پیچیده جنگی، پیگیری و تصمیم گیری آسان شود. گرینوالد پیشبینی می کند: «مشکل این است که زمانی می رسد که انسان ها دیگر نمی توانند به طور مداوم کنترول شناختی و واکنشی داشته باشند. فشار مضاعفی روی سرعت جنگ وجود دارد که باعث می شود زمانی بالاخره مسئولیت و تصمیمگیری انسانی پشت سر گذاشته و سقوط کند. این خطر وجود دارد».

جاستن برونک، محقق مرکز تحقیقاتی بریتانیایی «رویال یونایتد سرویس» می گوید در اردوهای کشورها آمادگی رو به افزایشی دیده می شود تا برای رفع آنچه که کارل فون کلاوزویتس استراتژیست آلمانی در ۲۰۰ سال قبل آن را «بلاتکلیفی جنگ» خوانده بود، به سیستم های تکنالوژی اعتماد کنند. او می گوید: «همانطور که ما به به سوی استفاده بالقوه از سیستم سلاح های خودمختار و یا حداقل نرم افزار گزینش و نرم افزار اولویت بندی اتوماتیک اهداف حرکت می کنیم، در اردوهای غربی، به ویژه در ایالات متحده و بریتانیا اعتماد در مورد اینکه این سیستم ها کار می کنند بیشتر می شود. حتی در صورتی که شواهدی وجود دارد که این سلاح ها قطعاً آنطوری که معمولا در نظریه پردازی ها گفته می شوند، به طور کامل کار نمی کنند».

به همین دلیل و به خاطر همین ترس از آینده جنگ و بشریت است که در ژنیو اجلاسی بین المللی برگزار می گردد تا در مورد سلاح های خودکار و به کارگیری هوش مصنوعی و فناوری ژنیتیکی در عرصه نظامی بحث و تبادل نظر شود. بسیاری از کشورها همین حالا هم با چنین امری مخالف هستند و خواهان توقف آزمایش ها در این زمینه می باشند.

جاستین برونکعکس: DW/M. von Hein

خطر ادغام همه فناوری ها در سلاح

کنفرانس موسسه تحقیقات صلح استکهلم موسوم به سیپری (SIPRI) نیز در مورد "فناوری های جدید" پایان می یابد. دان سمیت رئیس این کنفرانس می گوید: «یکی از ایده های اصلی این کنفرانس بحث در مورد این است که در مورد جنگ های سایبری و هسته ای جداگانه صحبت می شود، اما ما می گوییم خطر واقعی هک شدن شبکه های هسته ای و تسلیحات مجهز به هوش مصنوعی است».

خطر دیگر هم این است که اگر فناوری هسته ای، ژنتیک و هوش مصنوعی در روبات های خودمختار ادغام شوند، چه موجودی خلق خواهد شد؟ شارلوته لیندسی کورتت، مدیر انتقال داده های دیجیتالی در کمیته بین المللی صلیب سرخ به حضور انسانی تاکید می کند: «کمیته صلیب سرخ موضع واضحی دارد و آن این است برای استفاده از هر نوع تکنالوژی یا سلاح که هدف گیری می کند، زخمی می کند، می کشد و یا می تواند بر زیرساخت های غیرنظامی یا زیربناهای مهم زندگی و معیشت مردم تأثیر بگذارد، انسان باید در تصمیم گیری نقش مرکزی داشته باشد». به باور وی این مسایل در زندگی انسان ها نباید به دست اولگاریتم های ماشینی سپرده شود؛ چراکه از قدرت فهم ماشین ها بسیار بالاتر است.

همین حالا هم در بمباران های هوایی که توسط طیاره های بدون سرنشین و با کنترول انسانی صورت می گیرد، بارها اتفاق افتاده که مکان ها و یا اشخاصی به اشتباه هدف قرار گرفته اند و تلفات ملکی زیادی به بار آمده است. حالا تصویر کنید در عصر امروزی اگر تصمیم گیری با روبات های جنگی باشد و یک خطای نرم افزاری باعث یک حمله اتومی گردد، چه چیزی در انتظار سرنوشت بشریت خواهد بود؟

ماتیاس فون هاین/ر.ش

 

عبور از قسمت بیشتر در این زمینه

بیشتر در این زمینه

عبور از قسمت گزارش روز دویچه وله

گزارش روز دویچه وله

عبور از قسمت مطالب بیشتر از دویچه وله