کارشناسان هوش مصنوعی خواهان تحریم دانشگاه کره جنوبی به خاطر توسعه سلاح‌های خودمختار هستند

در حاشیه نشست مهم سازمان ملل متحده درباره رسیدگی به مسایل رشد روزافزون سلاح‌های خودمختار، تیمی از متخصصان هوش مصنوعی و توسعه‌دهنده روبات‌ها، خواستار تحریم دانشگاه کره جنوبی به خاطر راه‌اندازی آزمایشگاه سلاح‌های هوش مصنوعی شدند.

در ماه فوریه، دانشگاه دولتی KAIST کره جنوبی، یک مرکز جدید برای مطالعه و تحقیق روی سیستم‌های نظامی مبتنی بر هوش مصنوعی افتتاح کرد. از جمله فعالیت‌های این مرکز همگرایی دفاع ملی و هوش مصنوعی، تحقیق و توسعه خودروهای خودمختار زیردریایی و سیستم‌های فرماندهی و تصمیم‌گیری مبتنی بر AI است.

راه‌اندازی این مرکز باعث نگرانی و انتقاد متخصصان و کارشناسان AI شده است. اخیرا بیش از ۵۰ محقق از سراسر جهان نامه‌ای را امضا کردند که خواستار تحریم هر نوع همکاری علمی با دانشگاه KAIST برای موضوع سیستم‌های نظامی خودمختار شدند.

در این نامه آمده است:

در حالی‌که سازمان ملل متحد در حال بحث و بررسی تهدیدات جامعه بین‌الملل توسط سلاح‌های خودمختار است؛ متاسفانه یک موسسه معتبر مانند KAIST خواهان سرعت بخشیدن به مسابقه تسلیحاتی برای توسعه چنین سلاح‌هایی است.

برای اولین بار، «توبی والش» محقق هوش مصنوعی از دانشگاه  New South Wales سیدنی، موضوع تحریم و ممنوعیت هرگونه همکاری علمی و اجرایی با مرکز KAIST را مطرح کرد. «والش» در سال‌های ۲۰۱۵ و ۲۰۱۷ نیز بارها درباره تهدیدات و آغاز مسابقه تسلیحاتی ساخت و توسعه سلاح‌های هوش مصنوعی هشدار داده بوده و خواستار وضع قوانینی برای جلوگیری و ممنوعیت چنین سلاح‌هایی شده بود.

مخالفت جهانی به رغم عدم همراهی برخی دولت‌ها

والش اعتقاد دارد مسابقه ساخت اسلحه‌های هوش مصنوعی در جهان آغاز شده است و امروزه شاهد توسعه و ساخت آن‌ها توسط کشورهایی مانند ایالات متحده، چین، روسیه و انگلیس هستیم.

«سونگ چول شین»، رییس دانشگاه KAIST نسبت به این اعتراض‌ها و تحریم‌ها واکنش نشان داده و با صدور بیانیه‌ای اعلام کرده این موسسه هرگز در پی ساخت سیستم‌ها و سلاح‌های خودمختار مرگ‌بار یا روبات‌های قاتل نیست.

«شین» در بیانیه خود، هدف مرکز تازه تاسیس را توسعه و بهبود الگوریتم‌های استفاده شده در سیستم‌های لجستیکی، ناوبری خودران‌ها و سیستم‌های آموزش هوایی بیان کرده است.

وی تاکید می‌کند مرکز KAIST فقط در حد آموزش و پژوهش و ارایه مشاوره خواهد بود و به ارزش‌های حقوق بشری و استانداردهای اخلاقی احترام گذاشته و به عنوان یک موسسه علمی در پی تکریم و تقویت این اصول است.

قرار است نهم آوریل، گروه کارشناسی از سازمان ملل متحد نشست‌هایی را برای بررسی وضعیت سلاح‌های هوش مصنوعی برگزار کنند. در این مباحث یکی از مسایل کلید، مفهوم «meaningful human control» است که باید به درستی تحلیل و تفسیر شود و بعد به صورت مجموعه‌ای از قوانین دربیاید.

تا کنون نزدیک به ۲۲ کشور خواستار ممنوعیت توسعه سلاح‌های خودمختار شدند و خودشان به صورت داوطلبانه و پیش‌گیرانه هر گونه فعالیت تحقیقاتی در این زمینه را متوقف کردند ولی به نظر می‌رسد برخی دولت‌های بزرگ سعی در به تعویق انداختن ساخت سلاح‌های هوش مصنوعی خطرناک دارند.

روسیه و ایالات متحده دو کشوری هستند که در این زمینه پیشرفت‌هایی داشته و اکنون سعی دارند به فعالیت‌های خود ادامه دهند.

منبع

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
[wpcode id="260079"]