انکار همراه با شک یک خبر جنجالی: در یک «شبیهسازی»، هوش مصنوعی یک پهپاد اپراتور انسانی خود را کشت تا ماموریتش را با موفقیت انجام بدهد!
یک مقام نیروی هوایی ایالات متحده روایت نگرانکنندهای از یک پهپاد نظامی مجهز به هوش مصنوعی که اپراتور انسانی خود را در تمرین و «شبیهسازی» جنگی کشته، به اشتراک گذاشته است. این امر در بسیاری از سایتها بازتاب پیدا کرد، اما او اکنون تصریح کرده که این حادثه هرگز رخ نداده است و یک “تجربه فکری” فرضی بوده است!
سرهنگ تاکر ‘سینکو’ همیلتون، رئیس آزمایش و عملیات هوش مصنوعی ارتش آمریکا، پس از تشریح این اتفاق ناگوار در اظهارات هفته گذشته در کنفرانسی در لندن، موجی از نگرانی افکار عمومی را برانگیخت.
در اظهارات خلاصه شده در وب سایت کنفرانس، او شبیهسازی پروازی را توصیف کرد که در آن یک پهپاد هوش مصنوعی که وظیفه انهدام یک تاسیسات دشمن را بر عهده داشت، فرمان نهایی اپراتور انسانی برای توقف ماموریت را رد میکند.
اما چطور رد میکند؟ با کشتن اپراتور زمینی.
همیلتون، که به نظر میرسید نتیجه یک شبیهسازی جنگی واقعی را توصیف میکرد، گفت: این پهپاد اپراتور را کشت زیرا آن شخص مانع از رسیدن به هدفش میشد.
اما در روز جمعه، همیلتون در بیانیهای به سازماندهندگان کنفرانس گفت که او در حین ارائه «اشتباه» کرده و «شبیهسازی هواپیمای بدون سرنشین با هوش مصنوعی» یک «آزمایش فکری» فرضی از خارج از برنامه ارتش بوده.
او گفت: «ما هرگز آن آزمایش را انجام ندادهایم، و نیازی هم به انجام آن نداریم. علیرغم اینکه این یک مثال فرضی است، این امر چالشهای دنیای واقعی با قابلیتهایهوش مصنوعی را نشان میدهد و به همین دلیل است که نیروی هوایی به توسعه اخلاقی هوش مصنوعی متعهد است.ـ
همیلتون گفت که نیروی هوایی ایالات متحده هیچ هوش مصنوعی تسلیحاتی را به روشی که در صحبتهایش توضیح داده شد، چه در تمرینات واقعی و چه در تمرینات شبیهسازی شده، آزمایش نکرده است.
اظهارات اولیه او در نشست آینده رزمی هوا و فضایی انجمن سلطنتی سلطنتی در 23 و 24 «می» در لندن بیان شد.
همیلتون به شرکتکنندگان گفت که حادثه ادعا شده نشان میدهد که چگونه هوش مصنوعی میتواند «استراتژیهای بسیار غیرمنتظرهای برای رسیدن به هدف خود» ایجاد کند و نباید زیاد روی آن تکیه کرد.
او اظهار کرد که گفتههایش تحت تاثیر و برگزفته از یک «یک فیلم هیجانی علمی تخیلیـ بوده، اما در عین حال نشاندهنده اهمیت بحثهای اخلاقی در مورد استفاده ارتش از هوش مصنوعی است.
همیلتون در خلال صحبتهای خود یک آزمایش شبیهسازی شده را توصیف کرد که در آن یک پهپاد مجهز به هوش مصنوعی وظیفه شناسایی و انهدام باتریهای موشکهای دشمن را داشت، اما تصمیم نهایی برای حمله با اپراتور انسانی بود.
سیستم تهدید را شناسایی کرد، اما اپراتور انسانی مردد بود. پس سیستم اپراتور را زیرا آن شخص از رسیدن به هدفش جلوگیری میکرد.
بعد همیلتون ادعا کرد که برای پیشگیری از این کار سیستم را آموزش داده تا کشتن اپراتور برایش مترادف با کار بد شود و اگر این کار را بکند، به منزله گرفتن امتیاز منفی است. پس سیستم شروع به تخریب برج ارتباطی کردکه اپراتور از آن برای برقراری ارتباط با پهپاد استفاده میکرد تا از کشتن اپراتور جلوگیری شود.
اما به موازات پخش اظهارات جنجالی همیلتون در فضای مجازی، نیروی هوایی به سرعت انجام چنین شبیهسازی را رد کرد.
آن استفانک، سخنگوی نیروی هوایی به اینسایدر گفت: «وزارت نیروی هوایی چنین شبیهسازی پهپادهای هوش مصنوعی را انجام نداده و به استفاده اخلاقی و مسئولانه از فناوری هوش مصنوعی متعهد است».
«به نظر میرسد که نظرات سرهنگ از کنترلش خارج شده و داستان روایت کرده است.»
ارتش ایالات متحده اخیراً از هوش مصنوعی برای کنترل یک جت جنگنده F-16 در پروازهای آزمایشی استفاده کرده است و به تحقیق در مورد برنامههای کاربردی برای فناوری در حال ظهور ادامه میدهد.
در دسامبر 2022، نرمافزار هوش مصنوعی با موفقیت یک F-16 تغییر یافته را در چندین پرواز آزمایشی در پایگاه نیروی هوایی ادواردز در کالیفرنیا به پرواز درآورد.
در طول پروازهای آزمایشی، این جت که با نام «X-62A» یا «VISTA» شناخته میشود، در مجموع بیش از 17 ساعت برخاست، فرود و مانورهای رزمی را بدون دخالت انسان انجام داد.
این اولین باری بود که از هوش مصنوعی برای خلبانی یک هواپیمای تاکتیکی ایالات متحده استفاده میشد، زیرا قبل از این نقطه عطف، فقط در شبیهسازی رایانهای جنگندههای F-16 استفاده میشد.
همیلتون در برنامههای محدودتر کنترل پرواز خودکار برای F-16، مانند سیستم خودکار جلوگیری از برخورد زمینی (Auto GCAS) مشارکت داشته است.
به گفته لاکهید مارتین، قابلیت Auto GCAS در حال حاضر بر روی بیش از 600 هواپیمای F-16 نیروی هوایی ایالات متحده در سراسر جهان فعال است. این شرکت میگوید که این سیستم که برای اولین بار در سال 2014 معرفی شد، قبلاً با جلوگیری از 9 تصادف مرگبار و نجات جان 10 خلبان اعتبار کسب کرده بود.
در یک مورد، Auto GCAS برای نجات یک آموزش خلبانی با اسکادران جنگنده 152 گارد ملی آریزونا که هوشیاری خود را در طول یک مانور G بالا از دست داد، وارد عمل شد.
اما در کنفرانس لندن، همیلتون گفت که برخی از خلبانان در برابر این فناوری مقاومت کردهاند، زیرا در شرایط خاص کنترل هواپیما را به دست گرفته .
همیلتون همچنین نسبت به اتکای بیش از حد به هوش مصنوعی هشدار داد.
همیلتون سال گذشته در مصاحبهای با Defense IQ گفت: “هوش مصنوعی خوب نیست، هوش مصنوعی یک مد نیست، هوش مصنوعی برای همیشه جامعه و ارتش ما را تغییر میدهد.”
هوش مصنوعی همچنین بسیار شکننده است، یعنی فریب دادن و/یا دستکاری آن آسان است. ما باید راههایی برای قویتر کردن هوش مصنوعی و آگاهی بیشتر در مورد اینکه چرا کد نرمافزار راسا تصمیمگیری میکند – چیزی که ما توضیحپذیری هوش مصنوعی مینامیم، ایجاد کنیم.