چرا نیاز داریم ربات‌های نظامی‌ قاتل را همین حالا متوقف کنیم؟

6

زمانی در آثار آسیموف قوانین سه‌گانه رباتیک را می‌خواندیم، در این آثار این قوانین آنقدر در تار و پود مغزهای پوزیترونیک روبات‌های تخیلی نقش بسته بود که تخطی از آن و احتمال آزار به انسان تقریبا نامحتمل می‌شد.

اما آیا در عالم واقع هم همین طور است؟ ما هنوز به فناوری ربات‌های بسیار هوشمند به سبک داستان‌های تخیلی دست نیافته‌ایم، اما در عوض بهپادها را داریم یا سیستم‌های خودکار مقابله هشدار و مقابله با حملات موشکی را.

همین چند روز پیش بود که باراک اوباما مجبور شد در مورد کشته شدن یک شهروند آمریکایی با استفاده از بهپاد که ظاهرا امنیت ملی آمریکا را به خطر انداخته بود، توضیح بدهد. چرا که این هراس وجود به وجود آمده بود که شهروندان آمریکایی هم بدون محاکمه توسط این فناوری، مورد تهدید قرار بگیرند.

آیا ما باید به ربات‌ها و سیستم‌های کامپیوتری اجازه تصمیم‌گیری‌های خطیری مثل تصمیم در مورد مرگ و زندگی یک انسان را بدهیم؟!

تبلیغ: رایگان: تست MBTI + تفسیر ویدیویی تیپ شخصیت و سازگاری شغلی

نویسنده مهمان «یک پزشک» –احسان حاجیان– در این مورد مقاله‌ای نوشته است:

در طی دهه‌ گذشته، گسترش استفاده از جنگ‌افزارهای بدون سرنشین و هدایت‌شونده از راه دور، به طور چشمگیری میدان نبرد را تغییر داده است و چالش‌های بشردوستانه و حقوقی جدیدی را به وجود آورده است. هم‌اکنون پیشرفت سریع فناوری باعث شده تلاش‌هایی برای توسعه جنگ‌افزارهای کاملاً خودکار صورت بگیرند. این جنگ‌افزارهای رباتی قادر خواهند بود بدون دخالت انسان و بر اساس ارزیابی‌های خودشان، هدف را انتخاب و به آن شلیک کنند. این قابلیت موجب بروز چالش‌های بنیادینی برای حفاظت از غیر نظامیان و برآورده کردن قانون‌های بشردوستانه می‌شود.

چندین کشور دارای ارتش‌های مجهز به فناوری‌های پیشرفته از جمله چین، اسرائیل، روسیه، انگلیس، آمریکا و کره‌ی جنوبی در حال حرکت به سمت سامانه‌هایی هستند که خودمختاری رزمی‌ بیش‌تری به ماشین‌ها خواهند داد. اگر یک یا چند کشور تصمیم به استفاده از جنگ‌افزارهای کاملاً خودکار بگیرند، گامی بسیار فراتر از استفاده از هواگردهای هدایت شونده از راه دور، سایر کشورها ممکن است احساس کنند مجبور هستند سیاست‌های خود را در این زمینه تغییر دهند و این موضوع منجر به شروع یک مسابقه‌ی تسلیحاتی خواهد شد. اکنون و پیش از این که سرمایه‌گذاری، توسعه‌ی فناوری و راهبردهای نظامی‌جدید، تغییر این روند را دشوار کنند، توافق برای فراهم و برقرار کردن کنترل این جنگ‌افزارها ضروری است.

اجازه دادن به ربات‌ها برای تصمیم گیری در مورد زندگی یا مرگ انسان‌ها از خط قرمز اخلاقی بنیادینی عبور می‌کند. ربات‌های خودکار، فاقد قضاوت انسانی و توانایی درک شرایط میدان نبرد هستند. این ویژگی‌ها برای اتخاذ تصمیم‌های پیچیده‌ی اخلاقی در یک میدان نبرد پویا، ضروری هستند.

به عنوان مثال آیا یک ربات می تواند در یک محیط شلوغ شهری به اندازه‌ی کافی بین نظامیان و غیر نظامیان تمایز قائل شود؟ و آیا ارزیابی‌ها و واکنش‌های آنها متناسب با نوع محیط و نوع تهدیدهای موجود خواهد بود؟ برای نمونه، آیا رباتی که مسلح به مسلسل و موشک است می تواند تشخیص دهد به سمت نظامیانی که در اطراف یک ساختمان مسکونی سنگر گرفته‌اند نباید موشک شلیک کند؟ در نتیجه ربات‌های کاملاً خودکار الزامات قانون‌های جنگی را نمی‌توانند اجرا کنند.

killer robots taranis

جایگزین کردن سربازان با ماشین‌ها، ممکن است باعث شود به راه انداختن جنگ‌ها کار ساده‌تری شود. این موضوع موجب می‌شود بار دشواری‌های جنگ از روی دوش نیروهای نظامی برداشته شده و به مردم غیرنظامی‌ تحمیل شود. به کارگیری ربات‌های کاملاً خودکار باعث می‌شود شکافی در مسئولیت پذیری و پاسخگویی نیروهای نظامی ایجاد شود چرا که مشخص نیست چه کسی از نظر قانون در مورد اقدام‌های ربات‌ها پاسخ‌گو خواهد بود: فرماندهان، برنامه‌نویسان، تولیدکنندگان یا خود ربات‌ها؟

بدون وجود کسی که در برابر کارهای ربات‌ها مسئول و پاسخ‌گو باشد، نظامیان برای اطمینان پیدا کردن از این که ربات‌ها، غیر نظامیان را در معرض خطر قرار نمی‌دهند، انگیزه‌ی کمی‌خواهند داشت و قربانیان اقدام‌های ربات‌ها نیز از این که کسی به خاطر آن‌چه بر سر آن‌ها آمده است مجازات نمی‌شود، ناراضی خواهند بود.

دادن این قدرت به ماشین‌ها که تصمیم بگیرند در میدان نبرد چه کسی زنده بماند و چه کسی کشته شود یک کاربرد غیرقابل پذیرش فناوری است. نظارت انسانی بر هر ربات رزمی، برای اطمینان پیدا کردن از محافظت بشردوستانه و کنترل قانونی موثر، ضروری است. انسان‌ها نباید از حلقه‌ی تصمیم گیری در مورد انتخاب هدف و شلیک به سمت آن در میدان جنگ، کنار گذاشته شوند.

05-28-2013 12-59-50 PM

لازم است فورا یک توافق و قانون جامع و پیش‌گیرانه درباره‌ی توسعه، ساخت و استفاده از ربات‌های کاملاً خودکار، ایجاد شود. این قانون می‌تواند توسط یک معاهده‌ی بین المللی و هم‌چنین قانون‌های داخلی کشورها به دست بیاید.

باید از تمام کشورها خواست سیاست‌های خود را در مورد جنگ‌افزارهای کاملاً خودکار، به خصوص با در نظر گرفتن نگرانی‌های اخلاقی، قانونی، سیاسی و فناورانه به طور واضح برای عموم بیان کنند.

آن چه در ادامه می‌خوانید مصاحبه‌ی مارک بیشاپ، متخصص هوش مصنوعی، استاد محاسبات شناختی (cognitive computing) در گلداسمیت در دانشگاه لندن و رئیس انجمن مطالعه‌ی هوش مصنوعی و شبیه سازی رفتار، با مجله‌ی نیوساینتیست است. او می‌گوید ممنوعیت استفاده از جنگ‌افزارهایی که بدون دخالت انسان کار می‌کنند و شلیک می‌کنند حیاتی است.

Mark Bishop

– جنبش «مبارزه برای متوقف کردن ربات‌های قاتل» چیست؟

-این جنبش یک اتحادیه از سازمان‌های غیردولتی و گروه‌های فشار است که برای ممنوعیت تولید و به کارگیری سامانه‌های جنگ‌افزاری کاملاً خودکار فعالیت می‌کند. در این سامانه‌ها نقش انسان در انتخاب دقیق هدف و دخالت در تصمیم گیری نهایی برای شلیک کردن به هدف حذف شده است.

509-UK_CampaigntoStopKillarRobotsLaunchBannerImageCSKR

– چقدر به ساخت و استفاده از این چنین سامانه‌هایی نزدیک هستیم؟

-همین الآن هم نمونه‌هایی از این فناوری موجود هستند. برای مثال سال‌ها است از سامانه دفاع هوایی فالانکس بر روی بیش‌تر ناوهای نیروی دریایی امریکا استفاده می‌شود. این سامانه وظیفه‌ی شناسایی و منهدم کردن موشک‌ها و پهپادهای نزدیک‌شونده دشمن به ناوها را برعهده دارد.

Phalanx

[این سامانه در جنگ‌ها و تمرین‌های نظامی چند بار در تشخیص هدف اشتباه کرده است. برای مثال در جنگ اوّل خلیج فارس به جای هدف قرار دادن یک موشک ضدکشتی عراقی، به اشتباه به سمت اخلال‌گرهای راداری که توسط یکی از ناوهای آمریکا پخش شده بود شلیک کرد امّا این حادثه تلفات جانی نداشت. هم‌چنین در جریان یک تمرین نظامی، به اشتباه به لاشه‌ی یک هواگرد هدف شلیک کرد و باعث کشته شدن یک نفر و زخمی شدن یک نفر دیگر شد]

پهپاد رزمی ‌هارپی ساخت اسرائیل نمونه‌ی دیگری است که از فناوری شلیک کن فراموش کن استفاده می‌کند و به منظور شناسایی و انهدام سامانه‌های راداری به کار گرفته می‌شود.

– عامل محرک توسعه‌ این فناوری چیست؟

Harpy

– راهبرد نظامی‌ فعلی غرب برروی استفاده از پهپاد‌ها بیش از تجهیزات رایج تمرکز دارد. امّا پهپاد‌ها در برابر هک شدن آسیب‌پذیر هستند[برای مثال می‌توان به پهپادهای آمریکا که توسط ایران شکار شدند اشاره کرد]. سامانه‌های کاملاً خودکار عملا در برابر این تهدید، ایمن هستند. آن‌ها هم‌چنین هزینه‌ها را کاهش می‌دهند. این به معنای آن است که تولیدکنندگان بیش‌تر می‌فروشند. بنابراین یک نیاز و اجبار تجاری برای توسعه‌ی سامانه‌های خودکار و استفاده از آن‌ها توسط دولت‌ها وجود دارد.

– خطرهای این سامانه‌ها چیست؟

– دلیل‌هایی وجود دارند تا نسبت به توانایی‌های سامانه‌های خودکار تردید داشته باشیم. برای مثال آیا این سامانه‌ها می‌توانند به نحو مناسبی در مورد نیاز به شلیک کردن قضاوت کنند، به تهدید‌ها به طور متناسب واکنش نشان دهند یا به طور قابل اعتمادی بین نظامیان و غیر نظامیان تمایز قائل شوند؟

هم‌چنین هنگامی‌که شما سامانه‌های نرم‌افزاری پیچیده را در ارتباط و تعامل با یک‌دیگر قرار می‌دهید، ظرفیت بسیار بزرگی برای رویدادن نتیجه‌های پیش بینی نشده به وجود می‌آید. یک مثال آشکار از این مورد در سال ۲۰۱۱ در وب سایت آمازون مشاهده شد. ربات‌های اینترنتی قیمت‌گذاری، بهای کتابی به نام «The Making of a Fly: The Genetics of Animal Design» را تا بیشتر از ۲۳ میلیون دلار دلار بالا بردند!

– بنابراین آیا شما در مورد تشدید درگیری‌های نظامی به دلیل اقدام‌های ربات‌ها نگران هستید؟

-بله. در کره‌ جنوبی دانشمندان در حال ساخت و توسعه دادن یک ربات به منظور گشت‌زنی در مرز این کشور با کره‌ی شمالی هستند. اگر این ربات اشتباها به سمت هدفی شلیک کند یا به طور نامتناسبی به یک تهدید واکنش نشان دهد، به سادگی می‌توان تصور کرد یک تجاوز مرزی کوچک تا حد یک درگیری جدی و خطرناک تشدید خواهد شد.

نمونه ترسناک‌تر این موضوع در زمان جنگ سرد و در خلال رزمایش ایبل آرچر ۸۳ (Able Archer 83) رخ داد.

[ایبل آرچر یک تمرین ۱۰ روزه مرکز فرماندهی ناتو بود که در دوم نوامبر ۱۹۸۳ در منطقه غرب اروپا آغازشد. قرار بود تا این رزمایش یک جنگ هسته‌ای را شبیه سازی کند

واقع‌گرایی بسیار زیاد رزمایش ایبل آرچر و روابط تخریب شده بین آمریکا و شوروی سابق، بعضی از سران سیاسی و نظامی شوروی را مشکوک کرده بود که شاید این تمرین‌ها، مقدمات شروع یک جنگ واقعی هستند و در حقیقت ناتو قصد دارد در پوشش این رزمایش ضربه اول را به بلوک شرق وارد کند.

Pershing II
موشک پرشینگ ۲

در پاسخ به این رزمایش، شوروی وضعیت آماده‌باش درجه یک را به نیروهای هسته‌ای خود اعلام کرد و به واحدهای هوایی خود را در آلمان شرقی و لهستان  آماده باش داد.

بسیاری از تاریخ نویسان این رویداد را نزدیک‌ترین وضعیت به یک رویارویی هسته ای بین دو قدرت پس از بحران موشکی کوبا در سال ۱۹۶۲ قلمداد کرده‌اند. با پایان یافتن این مانور در روز یازدهم نوامبر خطر این رویارویی بر طرف شد.

در شب ۲۶ سپتامبر ۱۹۸۳ ماهواره‌های پیش‌اخطار روس‌ها ، با نام رمز اُکو، شلیک یک موشک قاره‌پیما از خاک آمریکا را اعلام کردند. سرهنگ دوم استانیسلاو پتروف ،افسرنگهبان وقت، این اخطار را به عنوان یک خطای رایانه‌ای ندیده گرفت چرا که رادارهای زمینی هیچ حرکتی را ثبت نکرده بودند. یکی از علت‌های تصمیم پتروف این بود که سامانه‌های تحت نظر وی به تازگی نصب شده بودند و احتمال خطا در آنها وجود داشت. پتروف مطمئن بود که یک حمله هسته‌ای از طرف آمریکا باید توسط هزاران موشک انجام شود نه تنها با یک موشک.

اندکی بعد چهار شلیک دیگر به سوی خاک شوروی از سوی سامانه اعلام شد که پتروف همه آن‌ها نیز را ندیده گرفت و رد کرد. تحقیقات بعدی نشان داد که حق با پتروف بوده است و این اعلان‌های خطا در بعضی موارد نادر، برای سیستم اکو امکان پذیر بوده‌اند.]

در این مورد توصیه می‌کنم این مطلب «یک پزشک» را بخوانید:‌ مردی که جهان را نجات داد.

همان‌طور که می‌بینید، تنها مداخله‌ی یک سرهنگ روس بود که از وقوع جنگ هسته‌ای جلوگیری کرد.

05-28-2013 12-48-39 PM
استانیسلاو پتروف

امّا ظرفیت تشدید زمانی که شما سامانه‌های خودکاری دارید که با سامانه‌های خودکار دیگر در ارتباط و تعامل هستند، فوق‌العاده وحشتناک می‌شود.

-آیا ربات‌ها نمی‌توانند خطرهایی را که انسان‌ها راتهدید می‌کنند، کاهش دهند؟

– افرادی مانند رباتیسیت (Roboticist) آمریکایی رونالد آرکین، دیدگاهی دارند که می‌گوید ربات‌ها ممکن است نسبت به سربازانی که داغ‌دار شده‌اند یا به دنبال انتقام‌گیری هستند، ارزیابی‌های بی‌طرفانه‌تری داشته باشند. این گفته نه تنها ارتباطی به مسئله‌ی تشدید ندارد بلکه تنها هنگامی تحقق می‌یابد که سامانه‌ها بتوانند به طور قابل اعتمادی تصمیم بگیرند چه زمانی شلیک کنند، به طور متناسبی قضاوت کنند و با دقت بالایی بین هدف‌ها تمایز قائل شوند.

– در این صورت، چه کاری از دست ما ساخته است؟

-فناوری مورد استفاده در سامانه‌های جنگ‌افزاری خودکار استفاده‌های دیگری هم دارند؛ سامانه هدایت و راندن خودروی گوگل یک نمونه از آن است. بنابراین متوقف کردن توسعه‌ این فناوری می‌تواند مشکل باشد. در عوض ما باید بر روی یک معاهده‌ بین‌المللی که استفاده از جنگ‌افزارهای خودکار را ممنوع می‌کند، متمرکز شویم

منابع:

http://www.newscientist.com/article/mg21829170.300-why-we-need-to-stop-military-killer-robots-now.html

http://wars-and-history.mihanblog.com/post/402

http://www.stopkillerrobots.org/the-problem/

http://www.stopkillerrobots.org/the-solution/


 
ممکن است شما دوست داشته باشید
6 نظرات
  1. فرشاد می گوید

    فکر میکردم drone ها برای شلیک کردن از مرکز هدایت میشن و دستور میگیرند، نه اینکه خودشون تصمیم بگیرند به چه کسی شلیک بکنند یا نه!
    یا drone خودش تصمیم میگیره، یا هدایت میشه. در مورد اول فاجعست! فک کنید فقط یه باگ برنامه‌نویسی که تو مراحل تست شناسایی نشده باشه چه فجایعی میتونه به بار بیاره! و در مورد دوم میتونم بگم حداقل اوباما خواسته از زیر سوال در بره که گفته خطای ماشین بوده!

  2. جلال می گوید

    Autonomous robots will take over regardless, but thank you for this interesting article.

  3. عرفان خسروی می گوید

    آفرین به احسان حاجیان!

    1. احسان حاجیان خیادانی می گوید

      سلام
      آفرین به عرفان خسروی که هر چی دارم به خاطر لطف‌های اونه
      اگه بدونید چقدر دلم هواتون را کرده 🙂

  4. رضاکیانی می گوید

    خیلی خوب بود برادر. هنوز خیلی مونده تا رباتهایی مثل رباتهای موجود در فیلم ترمیناتور ۲و۳ ساخته بشن. در زمینه هوش مصنوعی هنوز اول راه هستیم. مگر اینکه رباتهایی بسازند و بهشون یاد بدن هرچی رو که دیدن هدف قرار بدن(یعنی احتیاج به شناسایی دوست از دشمن نداشته باشند)
    به هرحال خدا به خیر بگذرونه چون این جور که من می بینم در نهایت آینده ی میدانهای نبرد رو این رباتها تعیین خواهند کرد. راستی اون کارتون شماره ۹ رو دیدی؟

  5. افشین می گوید

    به جای سامانه دفاع هوایی فالانکس میتونستید سامانه مصباح یک خودمون رو معرفی کنید… . این سامانه هم وقتی در شرایط جنگی قرار میگیره، اهداف رو خودکار تشخیص میده و در صورت عدم دریافت سیگنال سامانه تشخیص دوست از دشمن، به هدف شلیک میکنه. این سامانه هیچ اوپراتوری نداره و فرمان آتش اون کاملا خودکاره. رادار اپتیکی، رادار حرارتی و رادار آرایه ای سه بعدی اون کاملا ساخت داخله. کامپیوتر تشخیص هدف و اصلاح مسیر شلیک ساخت صاایران هست. این سیستم به طور انبوه تولید شده و در نقاط زیادی نصب شده.
    این سیستم در سوریه به طور کامل تست شده و همین اواخر یک فانتوم اسرائیلی رو سرنگون کرد.

    توضیحات بیشتر:
    http://irartesh.ir/post/865/%D8%A2%D8%B4%D9%86%D8%A7%DB%8C%DB%8C-%D8%A8%D8%A7-%D8%B3%D8%A7%D9%85%D8%A7%D9%86%D9%87-%D9%BE%D8%AF%D8%A7%D9%81%D9%86%D8%AF%DB%8C-%D9%85%D8%B5%D8%A8%D8%A7%D8%AD-1.html

    فیلم:
    http://www.aparat.com/v/VD5cu

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.