تعمیم قوانین سه گانه روباتیک آسیموف، ۲۳ اصلی که هوش مصنوعی را باید به آنها مقید کرد

قوانین سه‌گانه روباتیک آسیموف، خیلی مختصر و مفید، اصول و قوانینی که روبات‌ها باید به آنها وفادار باشند، را تببین می‌کردند.

شمایی کودکان و نوجوانان دهه ۶۰ و اویل دهه ۷۰ممکن است این ۳ قانون را بارها در حین مطالعه علمی- تخیلی آسیموف خوانده باشید.

2-3-2017 11-22-40 AM

اما جالب است بدانید که نویسندگان داستان‌های علمی- تخیلی این قوانین را افزایش داده‌اند و در این سال‌های طولانی که بازار کتاب ما کساد بود و در شرایطی که هم‌اینک هم کمتر مترجم و ناشری است که ریسک ترجمه داستان‌های تازه از نویسندگان جدید علمی- تخیلی را قبول کند، خیال‌پردازان این سه قانون را به شش قانون رسانده‌اند:

  • قانون منهای یکم – یک روبات نباید به موجود حس‌گر آسیب برساند و یا با خودداری از عملی موجب آسیب دیدن به او گردد.
  • قانون صفرم – یک روبات نباید به بشریت آسیب برساند و یا با خودداری از عملی موجب آسیب دیدن به بشریت شود.
  • قانون یکم (تکمیل شده) – یک روبات نباید به انسان آسیب برساند و یا با خودداری از عملی موجب آسیب دیدن او شود، مگر این که قانون صفرم نقض شود.
  • قانون دوم – یک روبات باید به تمام دستوراتی که از سوی انسان به او داده می‌شود عمل کند، مگر این که دستورات قانون اول را نقض کند.
  • قانون سوم – یک روبات، تا جایی که قوانین اول یا دوم نقض نشود، باید از وجود خود حفاظت کند.
  • قانون چهارم – یک روبات باید همیشه ماهیت روباتی خود را حفظ کند.
  • قانون پنجم – یک روبات باید بداند که روبات است.

هنوز رؤیای آسیموف و نویسندگان داستان‌های علمی- تخیلی در زمینه روباتیک برآورده نشده و ما هنوز روبات‌هایی به هوشمندی و توانایی مثلا آر دنیل الیواو نداریم. اما هوش مصنوعی این چند ساله با سرعت خوبی در حال پیشرفت است و ما شاهد هستیم که هوش مصنوعی و یادگیری ماشینی اینک می‌توانند کارهایی بکنند که پیش از این تصورش را نمی‌کردیم.

می‌توان تصور کرد که یکی دو دهه بعد هوش مصنوعی به آستانه‌ای از توانمندی برسد که کم کم برخی از توانایی‌هایی‌ که تا امروز فقط در انحصار پردازش یا توان تصمیم‌گیری مدارهای مغزی ما بود را به چالش بکشد.

اما اگر این توانایی هوش مصنوعی از آغز بی‌سامان رشد کند و در قید و بندی نباشد، بالقوه می‌تواند برای بشریت مخرب هم باشد.

از همین رو است که افرادی پیدا شده‌اند که در پی ایجاد قوانین و اصولی برای هوش مصنوعی به مانند قوانین روباتیک هستند.

در اینجا ۲۳ اصلی را که در یکی از سایت‌ها پیشنهاد شده بود، با هم مرور می‌کنیم که البته آن نظم و مختصر و مفید بودن قوانین روباتیک را ندارند، اما مرور آنها قطعا می‌تواند جالب باشد.

  • هدف هوش مصنوعی نباید ایجاد هوشمندی بی‌ سمت و سو باشد، این هوشمندی باید سودمند باشد.
  • سرمایه‌گذاری باید در جهت تقویت آن دسته از فناوری‌های هوش مصنوعی باشد که در زمینه‌هایی مانند دانش اجتماعی، اخلاق، اقتصاد، دانش و علوم کامپیوتر سودمند باشند.
  • باید تعامل و بده بستان سالمی بین پژوهشگران هوش مصنوعی و قانون‌گذران برقرار شود.
  • در جامعه پژوهشگران هوش مصنوعی اعتماد، همکاری و شفافیت باید برقرار شود.
  • هوش مصنوعی نباید برای مقاصد نژادپرستانه و سلطه‌جویانه مورد استفاده قرار گیرد.
  • از ایمنی کاربردهای هوش مصنوعی باید اطمینان حاصل شود.
  • دلایل نقایص احتمالی یک یک فناوری هوش مصنوعی باید به صورت شفاف اعلام شود.
  • در تصمیم‌گیری‌های حساس مثلا تصمیم‌گیری‌های قضایی، تصمیم و پیشنهادات هوش مصنوعی حتما باید توسط یک کاربر انسانی تأیید شود.
  • توسعه‌دهندگان هوش مصنوعی باید در قابل کاربردهای نادرست و سوء استفاده از فناوری‌شان مسئولیت‌پذیر باشند.
  • هوش مصنوعی باید به ارزش‌ها و آرمان‌های بشریت وفادار باشد.
  • تک تک مردم باید حق دسترسی، مدیریت و کنترل دیتایی که تولید می‌کنند و می‌تواند ماده خام پردازش سیستم‌های هوشمند باشد را داشته باشند.
  • محصولات هوش مصنوعی نباید به هیچ عنوان آزادی‌ها و حریم خصوصی افراد را تحدید کنند.
  • هوش مصنوعی باید در حد امکان تعداد بیشتری از مردم را پوشش بدهد و گستره سودرسانی وسیعی داشته باشد.
  • منافع اقتصادی فناوری‌های هوش مصنوعی باید بین همه انسان‌های تقسیم شود.
  • انسان‌های باید همیشه و در همه وضعیت‌ها، توانایی مداخله در تصمیم‌گیری‌های الگوریتم‌های هوش مصنوعی را داشته باشند.
  • نباید به بهانه‌های واهی، امکان پیشرفت هوش مصنوعی را سد کرد.
  • از مسابقه تسلیحاتی با استفاده از هوش مصنوعی باید اجتناب شود.
  • در صورت نبود توافق عمومی، نباید محدودیت و حد بالایی برای پیشرفت هوش مصنوعی قائل شد.
  • از انجا که هوش مصنوعی می‌تواند تاریخ را در روی زمین به راستی دگرگون کند، مدیریت آن باید با رعایت همه جوانب،‌ اداره خردمندانه منابع و اطمینان از سلامت سیستم‌های صورت بگیرد.
  • خطرات احتمالی ناشی از هوش مصنوعی باید از قبل پیشبینی شوند و برنامه‌هایی برای پرهیز از آنها وجود داشته باشند.
  • سیستم‌ هوشمند یکه توانایی ارتقای خودکار خودشان یا تکثیر خودکار خود را دارند باید با دقت تحت نظر باشند و مقررات کنترلی شدیدی برای آنها اعمال شود.
  • ابرهوشمندی باید تحت ایده‌آل‌های اخلاقی مشترک توسعه پیدا کند و در خدمت بشریت باشد، نه اینکه در انحصار سازمان یا کشوری خاص باشد.

قبلی «
بعدی »

نظرات

  1. سه قانون اصلی را هم میزدید

  2. حالا برای منی که رشته تحصیلی و علاقه اصلی ام هوش مصنوعی صحبت در این رابطه ساده تره. ولی متاسفانه همه اینها فقط تئوریه ، و با توجه به بحث سود جویی و پول هنگفتی که از ربات های که تو امر جنگ و کشتار و شکار بتونن به آدم ها کمک کن این امر محاله که بصورت کامل اجرا بشه. عین همه چیز های که الان وجود داره تو ظاهر دم از حقوق بشر میزنن ولی در پشت قضیه داستان دیگه ای هست . همین الانشم بخاطر در دسترس بودن دراون ها ، کارتل های برای جابه جا کردن مواد مخدر از دروان ها استفاده میکنند و چند وقت دیگه ربات هوشمند قاتل هم به تولید بیشتر برسن استفاده میکنن. پیاده سازی این موردم خیلی ساده است یه ربات که به شکل اصلحه هوشمند که توسط تصاویری که از دوربین های درون یه منطقه امنیتی میگیره حرکت های مشکوک رو تو اون منطقه عبور ممنوع چک میکنه و حتی می تونه به پردازش تصویر افراد یا خودروهایی که جز کادر مجاز تردد اون منطقه نیستن نابود کنه. این یه کاربرد ساده بود وقتی به این مساله فکر کنید میبینید که چقدر می تونه هوش مصنوعی تو کاربردهای این چنینی وحشتاک باشه.

  3. در تکمیل صحبت دوستمون باید اشاره کنم یکی از مهمترین و بزرگترین مراکز تحقیقات در زمینه رباتیک “دارپا”ست که متعلق به وزارت دفاع آمریکاست و هدف اصلیش توسعه و ساخت فناوری‌های نوین برای استفاده ارتش آمریکاست، نتیجتا این قوانین بهمان کتابهای علمی و تخیلی تعلق دارند تا دنیای واقع.

دیدگاه خود را با ما اشتراک بگذارید:

ایمیل شما نزد ما محفوظ است و از آن تنها برای پاسخگویی احتمالی استفاده می‌شود و در سایت درج نخواهد شد.
نوشتن نام و ایمیل ضروری است. اما لازم نیست که کادر نشانی وب‌سایت پر شود.
لطفا تنها در مورد همین نوشته اظهار نظر بفرمایید و اگر درخواست و فرمایش دیگری دارید، از طریق فرم تماس مطرح کنید.

اینستاگرام ما را لطفا دنبال کنید!

پیشنهاد می‌کنیم