کارشناسان هوش مصنوعی خواهان تحریم دانشگاه کره جنوبی به خاطر توسعه سلاحهای خودمختار هستند

در حاشیه نشست مهم سازمان ملل متحده درباره رسیدگی به مسایل رشد روزافزون سلاحهای خودمختار، تیمی از متخصصان هوش مصنوعی و توسعهدهنده روباتها، خواستار تحریم دانشگاه کره جنوبی به خاطر راهاندازی آزمایشگاه سلاحهای هوش مصنوعی شدند.
در ماه فوریه، دانشگاه دولتی KAIST کره جنوبی، یک مرکز جدید برای مطالعه و تحقیق روی سیستمهای نظامی مبتنی بر هوش مصنوعی افتتاح کرد. از جمله فعالیتهای این مرکز همگرایی دفاع ملی و هوش مصنوعی، تحقیق و توسعه خودروهای خودمختار زیردریایی و سیستمهای فرماندهی و تصمیمگیری مبتنی بر AI است.
راهاندازی این مرکز باعث نگرانی و انتقاد متخصصان و کارشناسان AI شده است. اخیرا بیش از ۵۰ محقق از سراسر جهان نامهای را امضا کردند که خواستار تحریم هر نوع همکاری علمی با دانشگاه KAIST برای موضوع سیستمهای نظامی خودمختار شدند.
در این نامه آمده است:
در حالیکه سازمان ملل متحد در حال بحث و بررسی تهدیدات جامعه بینالملل توسط سلاحهای خودمختار است؛ متاسفانه یک موسسه معتبر مانند KAIST خواهان سرعت بخشیدن به مسابقه تسلیحاتی برای توسعه چنین سلاحهایی است.
برای اولین بار، «توبی والش» محقق هوش مصنوعی از دانشگاه New South Wales سیدنی، موضوع تحریم و ممنوعیت هرگونه همکاری علمی و اجرایی با مرکز KAIST را مطرح کرد. «والش» در سالهای ۲۰۱۵ و ۲۰۱۷ نیز بارها درباره تهدیدات و آغاز مسابقه تسلیحاتی ساخت و توسعه سلاحهای هوش مصنوعی هشدار داده بوده و خواستار وضع قوانینی برای جلوگیری و ممنوعیت چنین سلاحهایی شده بود.
مخالفت جهانی به رغم عدم همراهی برخی دولتها
والش اعتقاد دارد مسابقه ساخت اسلحههای هوش مصنوعی در جهان آغاز شده است و امروزه شاهد توسعه و ساخت آنها توسط کشورهایی مانند ایالات متحده، چین، روسیه و انگلیس هستیم.
«سونگ چول شین»، رییس دانشگاه KAIST نسبت به این اعتراضها و تحریمها واکنش نشان داده و با صدور بیانیهای اعلام کرده این موسسه هرگز در پی ساخت سیستمها و سلاحهای خودمختار مرگبار یا روباتهای قاتل نیست.
«شین» در بیانیه خود، هدف مرکز تازه تاسیس را توسعه و بهبود الگوریتمهای استفاده شده در سیستمهای لجستیکی، ناوبری خودرانها و سیستمهای آموزش هوایی بیان کرده است.
وی تاکید میکند مرکز KAIST فقط در حد آموزش و پژوهش و ارایه مشاوره خواهد بود و به ارزشهای حقوق بشری و استانداردهای اخلاقی احترام گذاشته و به عنوان یک موسسه علمی در پی تکریم و تقویت این اصول است.
قرار است نهم آوریل، گروه کارشناسی از سازمان ملل متحد نشستهایی را برای بررسی وضعیت سلاحهای هوش مصنوعی برگزار کنند. در این مباحث یکی از مسایل کلید، مفهوم «meaningful human control» است که باید به درستی تحلیل و تفسیر شود و بعد به صورت مجموعهای از قوانین دربیاید.
تا کنون نزدیک به ۲۲ کشور خواستار ممنوعیت توسعه سلاحهای خودمختار شدند و خودشان به صورت داوطلبانه و پیشگیرانه هر گونه فعالیت تحقیقاتی در این زمینه را متوقف کردند ولی به نظر میرسد برخی دولتهای بزرگ سعی در به تعویق انداختن ساخت سلاحهای هوش مصنوعی خطرناک دارند.
روسیه و ایالات متحده دو کشوری هستند که در این زمینه پیشرفتهایی داشته و اکنون سعی دارند به فعالیتهای خود ادامه دهند.