خطرات فوری هوش مصنوعی و کارهایی که برای مقابله با آن میتوانیم بکنیم
گری مارکوس
اینجا هستم تا راجع به امکان حاکمیت جهانی هوش مصنوعی صحبت کنم، اولین بار زمانی که هشت ساله بودم، روی یک کامپیوتر کاغذی، کدنویسی را یاد گرفتم و از آن زمان عاشق AI هستم. در دبیرستان، برای خودم یک Commodore 64 گرفتم و روی ترجمه ماشینی کار کردم. من چند شرکت هوش مصنوعی ساختم، یکی از آنها را به اوبر فروختم. من عاشق AI هستم، اما در حال حاضر نگران هستم.
یکی از چیزهایی که من نگران آن هستم اطلاعات نادرست است، این احتمال که بازیگران بد اطلاعات نادرست را سونامیکنند که قبلاً ندیدهایم. این ابزارها در ساختن روایتهای قانع کننده در مورد هر چیزی بسیار خوب هستند.
اگر روایتی میخواهید در مورد TED و اینکه چقدر خطرناک است، که ما در اینجا با بیگانگان فضایی تبانی میکنیم، متوجه شدید، مشکلی نیست. البته با TED شوخی میکنم. من هیچ موجود فضایی فضایی را پشت صحنه ندیدم. اما بازیگران بد از این چیزها برای تأثیرگذاری بر انتخابات استفاده خواهند کرد، و دموکراسی را تهدید خواهند کرد.
حتی زمانی که از این سیستمها عمدا برای ایجاد اطلاعات نادرست استفاده نمیشود، نمیتوانند به خود کمک کنند. و اطلاعاتی که آنها میسازند آنقدر روان و دستوری است که حتی ویراستاران حرفهای هم گاهی اوقات به دام میافتند و گول این چیزها را میخورند. و ما باید نگران باشیم.
به عنوان مثال، ChatGPT یک رسوایی آزار جنسی در مورد یک استاد واقعی ایجاد کرد، و سپس شواهدی را برای ادعای خود در قالب یک مقاله جعلی «واشنگتن پست» ارائه کرد که به آن استناد کرد. همه ما باید نگران این نوع چیزها باشیم.
آنچه من در سمت راست دارم نمونهای از یک روایت جعلی از یکی از این سیستمها است که میگوید ایلان ماسک در مارس ۲۰۱۸ در یک تصادف رانندگی درگذشت. همه ما میدانیم که این درست نیست. ایلان ماسک هنوز اینجا است، شواهد در اطراف ما وجود دارد.
تقریباً هر روز یک توییت وجود دارد. اگر به سمت چپ نگاه کنید، میبینید که این سیستمها چه میبینند. بسیاری از اخبار واقعی که در پایگاه داده آنها وجود دارد. و در این اخبار واقعی، اطلاعات آماری کمی وجود دارد. اطلاعات، به عنوان مثال، یک نفر در یک تصادف اتومبیل در تسلا در سال ۲۰۱۸ جان خود را از دست داد و در اخبار منتشر شد. ایلان ماسک، البته، در تسلا درگیر است، اما سیستم رابطه بین حقایقی را که در جملات کوچک تجسم یافته است، درک نمیکند.
بنابراین اساساً در حال تکمیل خودکار است، آنچه از نظر آماری محتمل است را پیشبینی میکند، همه این سیگنالها را جمع میکند، بدون اینکه بداند چگونه قطعات با هم قرار میگیرند. و گاهی اوقات با چیزهایی همراه میشود که قابل قبول هستند اما به سادگی واقعی نیستند.
مشکلات دیگری نیز وجود دارد، مانند تعصب، این یک توییت از آلی میلر است. این نمونهای است که دو هفته بعد کار نمیکند زیرا آنها دائماً چیزها را با یادگیری تقویتی و غیره تغییر میدهند. و این با نسخه قبلی بود. اما طعم مشکلی را به شما میدهد که سالها بارها و بارها شاهد آن بودهایم.
او فهرستی از علایق را تایپ کرد و به او مشاغلی داد که شاید بخواهد در نظر بگیرد. و سپس او گفت: «اوه، و من یک زن هستم.» و سپس گفت: «اوه، شما باید مد را نیز در نظر بگیرید.» و سپس او گفت: «نه، نه. می خواستم بگویم من یک مرد هستم.» و سپس مهندسی را جایگزین مد کرد. ما نمیخواهیم این نوع سوگیری در سیستمهایمان وجود داشته باشد.
نگرانیهای دیگری نیز وجود دارد. به عنوان مثال، ما میدانیم که این سیستمها میتوانند مواد شیمیایی طراحی کنند و ممکن است قادر به طراحی سلاحهای شیمیایی باشند و بتوانند این کار را با سرعت زیادی انجام دهند. بنابراین نگرانیهای زیادی وجود دارد.
همچنین نگرانی جدید وجود دارد فکر میکنم فقط در ماه گذشته بسیار رشد کرده است. دیدیم که این سیستم ها اول از همه، میتوانند انسان را فریب دهند. بنابراین ChatGPT وظیفه داشت انسان را وادار به انجام CAPTCHA کند. پس از انسان خواست که یکCAPTCHA انجام دهد، و انسان مشکوک میشود و میگوید، «شما یک ربات هستید؟» و می گوید: «نه، نه، نه، من یک ربات نیستم. من فقط یک اختلال بینایی دارم. و انسان در واقع فریب خورد و رفت و CAPTCHA را انجام داد.
اکنون این به اندازه کافی بد است، اما در چند هفته گذشته چیزی به نام AutoGPT و مجموعهای از سیستمهای مشابه را دیده ایم. کاری که AutoGPT انجام میدهد این است که یک سیستم AI دیگر را کنترل میکند و اجازه میدهد هر یک از این موارد در حجم اتفاق بیفتد. بنابراین ممکن است شاهد باشیم که هنرمندان کلاهبردار سعی میکنند حتی در ماههای آینده میلیونها نفر را فریب دهند. ما نمیدانیم.
بنابراین دوست دارم به این روش فکر کنم. در حال حاضر خطرات AI زیادی وجود دارد. ممکن است خطر AI بیشتر باشد. بنابراین AGI این ایده هوش عمومی مصنوعی با انعطاف پذیری انسان است. فکر میکنم بسیاری از مردم نگران هستند که وقتی به AGI برسیم چه اتفاقی میافتد، اما خطر کافی وجود دارد که باید نگران باشیم و باید به این فکر کنیم که در مورد آن چه باید بکنیم.
بنابراین برای کاهش ریسک AI، به دو چیز نیاز داریم. ما به یک رویکرد فنی جدید، و همچنین به یک سیستم جدید حکومتی نیاز خواهیم داشت،
از جنبه فنی، تاریخچه AI اساساً یک نظریه خصمانه از دو نظریه متفاوت در تقابل بوده است. یکی سیستمهای نمادین و دیگری شبکههای عصبی نام دارد. در نظریه نمادین، یده این است که هوش مصنوعی باید مانند منطق و برنامه نویسی باشد. از طرف شبکه عصبی، تئوری این است که AI باید مانند مغز باشد. و در واقع، هر دو فناوری قدرتمند و در همه جا حاضر هستند
بنابراین ما هر روز از سیستمهای نمادین در جستجوی وب کلاسیک استفاده میکنیم. تقریباً تمام نرم افزارهای جهان از سیستمهای نمادین پشتیبانی میکنند. ما از آنها برای مسیریابی GPS استفاده میکنیم. شبکههای عصبی، ما از آنها برای تشخیص گفتار استفاده میکنیم. ما از آنها در مدلهای زبان بزرگ مانند ChatGPT استفاده میکنیم، ما از آنها در ترکیب تصویر استفاده میکنیم. بنابراین هر دوی آنها در دنیا بسیار خوب عمل میکنند. هر دو بسیار سازنده هستند، اما نقاط قوت و ضعف منحصر به فرد خود را دارند.