اخلاق ماشین هوشمند

0

مجید اکبری

  1. در دهه‌های پایای سدهٔ بیستم این جمله که اگر روزی رایانه‌ها خودآگاه بشوند، سازندگانشان را نابود خواهند کرد و…، در بسیاری از رمان‌های عملی-تخیلی به کار می‌رفت و شمار زیادی از فیلم‌های سینمایی نیز همین اندیشه را به تصویر می‌کشیدند. این جمله هشداری برای هواداران تکنولوژی‌های نوین و پیشرفته، به ویژه ماشین‌آلات هوشمند ۳۳ بود. از این رو، هر اندازه که رایانه‌ها برای انجام کارهای هوشمند ساخته و برنامه‌ریزی می‌شدند و اینک نیز می‌شوند، ملاحظات اخلاقی، اجتماعی و فرهنگی پیرامون کاربردشان اهمیت می‌یابند. به دلیل نیاز و کاربرد گستردهٔ این ماشین‌آلات در سه قلمرو که به کوتاهی در پایین به آن پرداخته خواهد شد، سخن گفتن دربارهٔ این ملاحظات فراگیر و همگانی شده است. این قلمروها عبارتند از:

یکم: طراحی سلاح‌های جنگی بسیار پیشرفته و هوشمند که بدون حضور انسان بتوانند در ردیابی و شلیک به هدف تصمیم بگیرند. از آن جایی که این‌گونه سلاح‌ها و ابزارهای رزمی خودکار و خود فرمان‌ده هستند، اگر برای نابودی گروهی از انسان‌ها در یک نبرد تصمیم نابه‌جایی بگیرند، پی‌آمدهای انسانی برآمده از تصمیم نادرست و نابه‌جا را چه کسی باید برعهده بگیرد؟

دوم: همان‌گونه که کم‌وبیش همگان می‌دانند، خرگوش‌ها جانوران آزمایشگاهی بسیار مناسبی هستند و به تازگی از روی مغز خرگوش یک رایانهٔ هوشمند خرگوش‌وار ۳۴ در آزمایشگاه پیشرفتهٔ شرکت سونی ساخته‌اند. این خرگوش مصنوعی که با فرستنده‌ای از راه دور به وسیلهٔ انسان کنترل می‌شد، به هنگام خواب کابوسی از بزرگی انسان قانون‌شکن را به ذهن خویش فراخواند. (از این رو، خطر گرایش به قانون‌شکنی و ویران‌گری به خوبی حس می‌شود.)

سوم: در کشور پیشرفته‌ای چون ژاپن که بیش‌تر جمعیت کشورش کهن‌سالان تشکیل می‌دهند، نیاز به صندلی‌های چرخ‌دار خودکار (ویلچر هوشمند) احساس می‌شود که در رفت‌وآمد این کهن‌سالان آنان را یاری دهند. شمار بالای این کهن‌سالان شمار بالایی از این ماشین‌های هوشمند را درخواست می‌کند؛ نیازی که آرام‌آرام دامن‌گیر بسیاری از کشورهای پیشرفته‌ای خواهد شد که با کاهش نسل روبه‌رو هستند، اما از یک سو، مشکل نگه‌داری و جای استقرار این ماشین‌آلات برای کشور ژاپن دردسرساز شده است و از سوی دیگر این ابزارها بسیار باهوش‌تر از کاربران سال‌خورده و فرتوتی هستند که باید آن‌ها را برای انجام کارها برنامه‌ریزی کنند.

از این رو، این ملاحظات در پرسش‌هایی از این دست به میان آورده می‌شوند:

آیا مرزهای اخلاقی‌ای برای طراحی، ساخت و کاربرد رایانه وجود دارد؟ اگر آری، کدامند؟ یاری رساندن آن‌ها به انسان تا چه اندازه ارزش دارد و مرزهای آن در کجا است؟ چگونه می‌توان کاراتر و هم‌زمان بی‌خطرتر آن‌ها را به یاری گرفت؟ پیش‌نیازهای اخلاقی و خردورزانه برای ساخت و طراحی صلح‌آمیز و هم‌زیستی آسوده با این ماشین‌ها چه چیزهایی هستند؟ و…

  1. شاید بهتر باشد نخست درآمدی کوتاه و تاریخی دربارهٔ هوش مصنوعی ۳۵ آورده شود. هوش مصنوعی که جدای از سخت‌افزاری که به کار می‌گیرد، دستاوردی نرم‌افزاری است؛ می‌کوشد تا الگوی اندیشیدن را بازسازی کند. آلن تورینگ،۳۶ منطق‌دان و ریاضی‌دان. نخستین کسی بود که به طور جدی با نوشتن جستاری مهم به نگره‌پردازی و مفهوم‌سازی دربارهٔ چگونگی پردازش ذهنی به شکل نظری و فلسفی پرداخت. گام نخست در اندیشهٔ تورینگ پیاده‌سازی یک بازی ساختگی بود که اینک به نام آزمودن تورینگ ساخته می‌شود. سپس در دنبالهٔ کار او، هوش مصنوعی با برگزاری همایش و کارگاه آموزشی مک‌کارتی ۳۷ گام دوم را به جلو برداشت. این‌گونه بود که دانش هوش مصنوعی به شکل جدی آغاز شد. جان سرل ۳۸ با نوشتاری به نام «هوش مصنوعی: نیرومند یا کم‌توان»۳۹ افق نوینی در پژوهش در این قلمرو گشود.

در روش‌شناسی هوش مصنوعی این‌گونه تحلیل می‌شود که ذهن انسان به هنگام رویاروی با پرسش‌ها از ساده‌ترینشان تا پیچیده‌ترین آنان، می‌کوشد نخست داده‌های در دست‌رس خود را بررسی کند، اگر پس از این کار پاسخ را نیافت، حرکتی را می‌آغازد که حرکت از سوی ناشناخته به همراه دانسته‌ها برای شناسایی ناشناخته است، یعنی همان چیزی است که ارسطو نیز در گفته‌های منطقی خود به آن پرداخته است. هم هنگام از سه روال بنیادینی که در پایین نام برده خواهد شد، کمک می‌گیرد تا گام به گام به سمت یافتن پاسخ حرکت کند. این فرآیند اندیشیدن و با کمی ساده‌سازی شاید بهتر باشد بگوییم پردازش ذهنی داده‌ها به سه روال بنیادی زیر فرو کاسته می‌شود:۱. انجام یک عمل به گونهٔ پی در پی.۴۱

  1. تصمیم‌سازی برای گزینش یک عمل از میان چند عمل.۴۲‌
  2. انجام تکراری و حلقه‌وار یک عمل.۴۳

البته بسیاری از کارها می‌توانند هم‌نهاده‌ای از یک تا هر سه تای آن‌ها باشند.۴۴ در عمل پس از آن‌که این الگو از فرآیند به شکل نرم‌افزار درآمد، برای عمل به یک دستگاه هوشمند ۴۵ واگذار می‌شود.

نرم‌افزارهای بسیاری طراحی و ساخته می‌شوند که می‌توانند این فرآیند را برای سخت‌افزار فهم‌پذیر و انجام‌شدنی سازند. یک نرم‌افزار رایانه‌ای از یک یا پایگانی ۴۶ از برنامه‌ها برای کنترل سخت‌افزار کمک می‌گیرد. در برنامه‌ها نیز هر بخش آن به کمک یک زبان صوری نوشته و تهیه می‌شود و در پایین‌ترین سطح یا به بیان دقیق‌تر، نزدیک‌ترین سطح به سخت‌افزار، زبان ماشین قرار می‌گیرد. هرچه که به سخت‌افزار نزدیک‌تر باشیم، این زبان‌ها صوری‌تر، منطقی‌تر و ساخته شده از علامت‌ها، نهادها و رمزها ۴۷ هستند و هر قدر که از سخت‌افزار دور شویم و در پایگان نرم‌افزار بالاتر بیاییم، این زبان‌ها و برنامه‌ها به زبان طبیعی و نمادهای طبیعی نزدیک‌تر می‌شوند.

  1. هنگامی که از اخلاق رایانه یا ماشین‌آلات هوشمند، همچون آدمک،۴۸ سخن به میان می‌آید، گروهی از کارشناسان و پژوهش‌گران دستگاه‌های رایانه‌ای بر این باورند که هیچ دانش نظری، مثل ریاضیات، اخلاق آیینک ۴۹ و نظام اخلاقی ۵۰ ندارد و نتیجه می‌گیرند از آن جایی که هوش مصنوعی ۵۱ یک رشتهٔ پژوهشی نظری است همانند هر دانش نظری دیگر به هیچ گونه اخلاق آیینک نیاز نخواهد داشت. در بررسی این دیدگاه و دادن پاسخی درخور، می‌توان این گونه استدلال کرد که گرچه ممکن است پژوهش‌گر در فرآیند پژوهش و اندیشه‌ورزی خود قاعدهٔ اخلاقی خاصی در رابطه با رشتهٔ پژوهشیش نداشته باشد، اما هنگامی که سخن بر سر کاربرد نتیجهٔ پژوهش‌ها در عمل است و کاربرد آن دانش نظری فرآورده‌های صنعتی خاصی را پدید می‌آورد، داشتن گونه‌ای اخلاق کاربردی بسیار مهم جلوه می‌کند. (به این سخن بازخواهم گشت.)
  2. سال‌ها پیش از آن‌که ماشین‌های هوشمند پیشرفته، به ویژه رایانه‌های امروزی ساخته شوند، نخستین بار ایزاک عاصم‌اف سه قانون کلی را برای آدمک‌ها پیش‌بینی کرده بود که سپس تر قانون صفرام را هم به آن‌ها افزود. این قانون‌ها عبارت بودند از:

قانون صفر: آدمک نشاید به انسانیت لطمه‌ای وارد کند یا به واسطهٔ سستی اجازه دهد صدمه‌ای به انسانیت برسد.

قانون یکم: آدمک نشاید به هیچ انسانی لطمه‌ای بزند یا به سبب کاهلی اجازه دهد آسیبی به او برسد، مگر این‌که عملش از یک قانون بالاتری تجاوز کند.

قانون دوم: آدمک باید از فرمان‌های انسان‌ها پیروی کند، مگر این‌که این فرمان‌ها با قانون‌های بالاتری در تضاد باشند.

قانون سوم: آدمک باید از هستی خویش حفاظت کند مگر این‌که چنین حفاظتی در تضاد با قانون‌های بالاتر باشد.

با پیچیده‌تر شدن تکنولوژی ساخت ماشین‌آلات هوشمند و پیشرفت شگفت دانش‌های رایانه‌ای، به ویژه دانش‌های فرارشته‌ای رایانه‌ای، اینک نمونه‌ای همانند ولی تازه‌تر از گفته‌های عاصم‌اف را می‌توان در پیشنهاد استاد برجستهٔ فلسفه و پژوهش هوش مصنوعی، نیک بستروم،۵۳ یافت. این پیشنهاد چهار بند دارد که به ‌ قرار زیر هستند:

بند یکم: سرشت جسمانی (عامل هوشمند) به لحاظ اخلاقی (به قاعده‌های اخلاقی) ارتباطی ندارد، فرض آن هیچ اثری بر کارکرد یا آگاه بودن عامل ندارد. از نگاه اخلاقی، مهم نیست که فرد به تأثیر یاخته‌های عصبی زیستی ۵۴ یا سیلیکونی ۵۵ رفتار می‌کند. (درست همان گونه که هیچ اهمیتی ندارد که رنگ پوست شما تیره یا روشن باشد.) باید به همان دلیل‌هایی که نژادپرستی و نوع‌پرستی را رد می‌کنیم، هواداری از برتری جسم کربنی ۵۶ یا زیست‌گرایی را رد کنیم.

بند دوم: از دید اخلاقی میان هستنده‌های فعلی و احتمالی فرق می‌گذاریم. ما برجا هستیم، ولی ذهن‌های کودکان ما، تنها، هستی‌هایی احتمالی هستند، مگر آن‌که ما آنان را به دنیا آوریم. هر بار که یک ماشین هوشمند ساخته شود، همان وضع اخلاقی‌ای را دارد که ذهن یا شخص هم‌سنگ با آن، اگر یک انسان می‌بود، می‌داشت. اما در مرحلهٔ کنونی ما زیر هیچ اجبار اخلاقی‌ای نیستیم تا ماشین‌های احتمالی را بر انسان‌های فعلی برتری بدهیم حتی اگر ماشین‌هایی که به وجود می‌آیند، ادعایی مشروع برای برتری نسبت به انسان‌های موجود داشته باشند، به این دلیل که آن‌ها یا شمار بسیار زیاد یا کیفیت برتری دارند، کیفیتی از قبیل این‌که ظرفیت بیشتری برای تجربه کردن خوشی و درد دارند. برخلاف آن، ما تحت این الزام اخلاقی هستیم که ماشین‌هایی نسازیم که پیش‌بینی می‌کنیم به انسان‌ها یا موجود آسیب برسانند، یعنی به انسان‌هایی که دارای وضعیت اخلاقی هستند. ماشین‌های هوشمند تنها باید به این شرط به وجود آیند که یا به انسان‌ها بهره‌ای برسانند یا به آدمیان و سازندگانشان که مایل هستند به وجودشان بیاورند و برای ساختنشان پول می‌پردازند آسیبی نرسانند. در وضعیت واقعی، موضوع سرنوشت‌ساز این نیست که آیا ماشین‌های هوشمند باید ساخته شوند یا نه، بلکه این است که چه نوع ماشین‌هایی باید ساخته شوند. به ویژه این موضوع مهم است که به ابرهوشمندها هدف‌های انسان‌دوستانه داد. نیازی به گفتن نیست که نیازمند آن نیز هستیم که دربارهٔ موضوع‌های خاصی بیندیشیم، یعنی بحث‌هایی که مرتبط با کوشش برای وضع قانون به شکلی جهانی دربارهٔ آن‌گونه از ماشین‌هایی است که احتمال می‌رود ساخته شوند.

بند سوم: به لحاظ اخلاقی اجازه نداریم هیچ ذهن مصنوعی‌ای (سخن‌گوی ساختگی)۵۷ را بسازیم که به دیگران، یعنی انسان‌ها، جانوران یا ذهن‌های مصنوعی دیگر آسیب خواهد رساند. این کار نیز اخلاقی نیست که هستنده‌ای را به وجود بیاوریم که زندگیش با زندگی باارزش برابر نیست، چرا که برای مثال او بیش از اندازه رنج یا ناخوشی را تحمل می‌کند. این نادرست است که ذهنی را به وجود بیاوریم و آن را زجر بدهیم حتی اگر یک بیمار روانی خودش برای ساختن این ذهن پولی بپردازد و حتی اگر هیچ‌کس دیگری به اجز این ذهن ساختگی آسیب نبیند.

افزون بر این، هر بار که شما یک ذهنی که یک فاعل اخلاقی که دارندهٔ قوهٔ خود قانون‌دهی و…است بیافرید، در نتیجه، آن ذهن همان حقوقی که هر فاعل اخلاقی هم‌سان دیگری دارد کسب می‌کند. این واقعیت که آن ذهن به واسطهٔ شخصی آگاهانه طراحی شده است، وضع اخلاقی آن را سست یا کم نمی‌کند. (ناوابستگی به تبارشناسی)۵۸

با این حال، به نگر می‌آید هیچ خطایی به خودی خود در ساختن یک ذهن با محدودیت‌ها یا گروهی خاص از انگیزه‌ها-برای مثال یک ذهن باهوش پایین‌تر از انسان با انگیزهٔ این‌که نوکرانه خدمت بکند و به سازنده‌اش عشق بورزد-وجود ندارد، به شرط آن‌که زندگیش همانند یک زندگی باارزش باشد و به این شرط که به گونه‌ای خردپسند دست و دل‌باز در وسیله‌هایی باشیم که آن‌ها را برای این موجود می‌سازیم.

بند چهارم: تا آن جایی که یک سازنده بر روی گونه‌ای از ذهن و به خصوص هدف‌های آن ذهنی که او می‌سازد کنترل دارد، سازنده به خاطر کارهای آن ذهن پاسخ‌گو نیز خواهد بود. این روزها والدین به خاطر کودکانشان فقط مسئولیت محدودی دارند. از آن جایی که هر کدام از والدین کنترل بسیار اندکری بر چیزی که یک بزرگسال انجام می‌دهد دارد، به ندرت می‌توان او را برای کارهای آن بزرگسال مسئول دانست، هرچند هیچ ارزشی ندارد که کمی از تقصیر یا سرزنش را متوجه والدینی دانست که به واقع فرزندانشان کارهای بد انجام می‌دهند، به ویژه اگر این والدین آن طور که می‌بایست آنان را پرورش بدهند بزرگشان نکرده باشند.

این به این معنا نیست که سخن‌گوی ساختگی خودش برای کارهایش پاسخ‌گو نیست. اگر سخن‌گوی ساختگی خود قانون‌ده است، پس به خاطر هر آسیبی که به دیگران می‌رساند و هر قانونی را که زیر پا می‌گذارد مسئول است. سخن‌گوی ساختگی و سازنده‌اش مسئولیت مشترکی برای کارهایش دارند. هر دو برای تخطی‌های آتی‌اش جواب‌گو هستند، البته تا آن اندازه که سازنده بر رفتار آتی ساخته‌اش زمانی که آن را طراحی می‌کرد کنترل داشته بود. همگی می‌دانیم که تنها مسئول دانستن سخن‌گوی ساختگی کافی نیست، چون می‌توانست برای داشتن نیت‌های بد ساخته شود و با رفاه و خوش‌بختی خودش نیز ناهمگون باشد، از این رو است که رفتارهای تنبیهی و مجازات‌های قانونی ناکارآمد خواهد بود، مگر این‌که سازنده‌اش را نیز هدف قرار بدهد.

با نگاهی به قانون‌های عاصم‌اف و بندهای پیشنهادی بستروم می‌توان دریافت که اصل‌های اخلاقی مطرح‌شده در این گفته‌ها نیاز به بررسی دقیق‌تری از نگاه فلسفهٔ اخلاق دارد تا بتوان بنیان‌های اخلاقی مناسب را برای اخلاق ماشین‌آلات هوشمند برگزید. با این همه، به نظر می‌آید که این اخلاق گونه‌ای اخلاق کاربردی را نیز در برمی‌گیرد یا به عبارت دیگر، بر بنیاد اصل‌های اخلاق ماشین‌آلات هوشمند گونه‌ای اخلاق کاربردی پیدا می‌کند.

  1. تا پیش از آن‌که سخن از ساخت ماشین‌های هوشمندی به میان آید که دارای عاطفه خواهند بود، برخی بر این گمانند که هر دستور و فرمان اخلاقی که در ارتباط آدمیان با یک‌دیگر برقرار است، جز آن‌هایی که پایه در عاطفه دارد می‌تواند و می‌بایست برای ماشین‌های هوشمند نیز برقرار باشد، اما از زمانی که ساخت ماشین‌های باعاطفه نیز امکان‌پذیر دانسته شد، این نگرش نیز با تردیدی جدی رویارو گردید.
  2. اخلاق کاربردی ماشین‌آلات هوشمند که دربردارندهٔ دستورها یا فرمان‌های اخلاقی ویژه‌ای است به هنگام سنجش و رویارو نهادنش با فرمان‌های یک اخلاق عمومی، مثل ده فرمان (احکام عشره که به موسی در سینا نازل شد) معنای روشن‌تری می‌یابد.

در مرکز مطالعاتی اخلاقی حرفه‌ای ۵۹ در مؤسسهٔ تکنولوژی دانشگاه ایلیونز، در ویرایش نخست، بیش از هشت‌صد و پنجاه دستور اخلاقی برای حرفه‌های گوناگون گردآوری شده است که این گردآیه از فرمان‌های اخلاقی در حال گسترش و پوشش دادن به همهٔ حرفه‌ها است و هدف آن دست یافتن به دستگاهی فراگیر در زمینهٔ اخلاق حرفه‌ای ۶۰ است.

به تازگی انجمن ماشین‌آلات رایانگر ۶۱ در کشور آمریکا که از معتبرترین انجمن‌های حرفه‌ای در این زمینه است، بیست و چهار دستور اخلاقی را در چهار گروه صورت‌بندی کرده است. پیشینهٔ پیشنهاد این دستورها به بررسی پارکر ۶۲ از کاربردهای غیراخلاقی انسان‌ها از رایانه‌ها و جرم‌های رایانه‌ای بازمی‌گردد. این دستورها نگارشی از یک اخلاق حرفه‌ای بسیار روزآمد، روشن و کاربردی هستند که به کمک ‌ پژوهش‌گران برجستهٔ اخلاق ماشین‌آلات هوشمند تدوین شده است و با این فرمان‌ها انجمن یاد شده، از پژوهش‌گران، کارشناسان و کارکنان سیستم‌های رایانه‌ای درخواست می‌کند نسبت به آن‌ها وفادار باشند. بخش نخست، دربردارندهٔ طرح کلی از ملاحظات اخلاقی بنیادی است. بخش دوم، کردارهای خاص‌تر و حرفه‌ای را دربر می‌گیرد. بخش سوم، ناظر به کسانی است که هدایت و مدیریت برنامه‌های پژوهشی را، چه در این انجمن و چه در کارگاه‌های تحقیقاتی دیگر به عهده دارند. بخش پایانی، اصل‌های پیروی از خود این فرمان‌ها را بیان می‌کند. این را نیز باید افزود که چند دستور راه‌نما این فرمان‌ها را تکمیل می‌کنند، چند و چون نقد و بررسی این فرمان‌ها را مشخص می‌سازند و نشان‌گر آن هستند این فرمان‌ها از اصل‌های اخلاقی عام‌تری به دست‌آمده‌اند. در پایان فرمان‌های هر چهار بخش آورده می‌شود:

  1. فرمان‌های عمومی انجمن؛ به عنوان یک عضو:

۱.۱. به بهبودی انسان و جامعه کمک کردن.

۲.۱. از آسیب رساندن به دیگران پرهیز کردن.

۳.۱. راست‌گو، درست‌کار و امانت‌دار بودن.

۴.۱. باانصاف بودن و رفتار تبعیض‌آمیز نداشتن.

۵.۱. حق مالکیت دیگران، مثل کپی‌رایت و دارایی به ثبت رسیده را رعایت کردن.

۶.۱. اعتبار شایسته برای مالکیت فکری قائل شدن.

۷.۱. به سپهر شخصی دیگران احترام گذاشتن.

۸.۱. به امور خصوصی احترام گذاشتن.

  1. مسئولیت‌های حرفه‌ای و خاص‌تر؛ به عنوان عضوی از انجمن:

۱.۲. کوشیدن برای دست یافتن به کیفیت بالاتر در فرآیند و فرآورده‌های حرفه‌ای.

۲.۲. توانایی حرفه‌ای به دست آوردن و این توانایی را نگه داشتن.

۳.۲. دستورهای موجود راجع به کار حرفه‌ای را دانستن و به فرمان‌ها احترام گذاشتن.

۴.۲. بازنگری مناسب حرفه‌ای را پذیرفتن و در تدارک آن بودن.

۵.۲. ارزیابی‌های فراگیر و سراسری از دستگاه‌های رایانه‌ای و اثرهایشان، شامل تحلیل خطرهای ممکن، به دست دادن.

۶.۲. به پیمان‌ها، توافق‌ها و مسئولیت‌های تعیین شده احترام گذاشتن.

۷.۲. فهم عمومی از رایانگری و پی‌آمدهای آن را بهتر کردن.

۸.۲. تنها به هنگام اجازه داشتن به منابع ارتباطات و رایانگری دست زدن.

  1. فرمان‌های مدیریت سازمانی؛ به عنوان یک عضو از مدیران انجمن:

۱.۳. مسئولیت‌های عضوهای یک واحد سازمانی را بیان کردن و عضوها را برای پذیرش کامل مسئولیت‌هایشان تقویت کردن.

۲.۳. کارکنان و منابع را برای طراحی و ساختن آن‌گونه سیستم‌های اطلاع‌رسانی‌ای سازمان‌دهی کردن که کیفیت، کارآمدی و شأن زندگی کاری را افزایش می‌دهند.

۳.۳. کاربرد مجاز و مناسب از منابع ارتباطات و رایانگری سازمان را تأیید و حمایت کردن.

۴.۳. اطمینان یافتن از این‌که کاربران و کسانی که به واسطهٔ دستگاه‌های رایانگر اثر می‌پذیرند، به روشنی خواسته‌هایشان را در خلال برآورد و طرح نیازمندی‌هایشان بیان کرده‌اند؛ زیرا دست آخر باید دستگاه در برآورد نیازمندی‌هایشان تأیید شود.

۵.۳. راه‌کارهایی که شأن کاربران و دیگرانی که از یک دستگاه رایانگر اثر می‌پذیرند را بیان و پشتیبانی کردن.

۶.۳. برای عضوهای سازمان فرصت ایجاد کردن با این هدف که اصل‌ها و حدّ و مرزهای دستگاه‌های رایانگر را بیاموزند.

  1. پیروی از فرمان‌ها؛ به عنوان یک عضو انجمن:

۱.۴. بندهای این فرمان‌ها را پاس داشتن و گستراندن.

۲.۴. زیر پا گذاشتن این فرمان‌ها را ناسازگار با عضو بودن در انجمن پنداشتن.

این فرمان‌ها نشان‌گر کوششی دقیق و مطالعه‌شده برای تعریف یک اخلاق حرفه‌ای است و می‌کوشد تا بدون در غلتیدن به بحث‌های فلسفی، روشن و رسا باشد. با این حال، روی سخن این فرمان‌ها با پژوهش‌گران، کارشناسان، سازندگان و کاربران دستگاه‌های هوشمند است و فرمانی را دربارهٔ چگونگی کردار آدمک‌ها با یک‌دیگر و انسان‌ها بیان نمی‌کند.

  1. در آغاز نیمهٔ دوم سدهٔ بیستم، نوآم چامسکی نگرهٔ دستور گشتاری-زایشی ۶۳ را در زبان‌شناسی بیان کرد. بنابر این نگره هر زبان طبیعی دارای یک ژرف‌ساخت ۶۴ و یک روساخت ۶۵ است. ژرف‌ساخت چیزی است که با توانش زبانی ۶۶ هر سخن‌گو ارتباط دارد، یعنی بخش غریزی زبان را نیز دربر می‌گیرد. و کم‌وبیش به هیچ زبان خاصی وابسته نیست و روساخت با کنش زبانی ۶۷ سخن‌گو نسبت دارد، یعنی با جمله‌هایی که سخن‌گوی زبان پس از به کار بردن همهٔ گشتارهای دستوری به هنگام گفتار یا نوشتار ادا می‌کند. جالب آن‌که دیری نپایید که عصب‌شناسان در پایان همه سده ژن زبان را یافتند و رمزگان آن را از روی DNA خوانند. از این رو، دکتر استورس هال ۶۸ با یاری گرفتن از استعارهٔ ژرف‌ساخت- روساخت بر این باور است که در قلمروی اخلاق نیز چنین دوگانگی‌ای وجود دارد. فرمان‌ها و دستورهای اخلاقی روساخت اخلاق را می‌سازند و حسّ اخلاقی ۶۹ یا وجدان اخلاقی ژرف‌ساخت اخلاق را، پس همان‌گونه که آموزش، پرورش، محیط و…در روساخت زبان اثر می‌گذارند، همهٔ این عامل‌های طبیعی، فرهنگی و اجتماعی نیز می‌توانند فرمان‌های اخلاقی را دست‌خوش دگرگونی سازند. با این حال، پیروی از قانون‌های اخلاقی خاستگاهی در ژرف‌ساخت اخلاق، یعنی حسّ اخلاقی دارد.
  1. از دوران عاصم‌اف، واینر ۷۰ و پارکر کوشش شد تا دسته‌بندی و عرضهٔ گروه‌هایی از قانون‌ها، قاعده‌ها، دستورها و فرمان‌های اخلاقی انجام پذیرد تا با کمک آن‌ها نه تنها سازندگان ماشین‌آلات هوشمند بلکه خود ماشین‌ها نیز اخلاقی برای بنیادگذاری این نظام‌های اخلاقی هنوز ناروشن مانده است؛ هرچند که برخی از پژوهش‌گران به نگره‌های اخلاقی این فیلسوفان پرداخته‌اند. شاید بتوان با پیروی از فیلسوف بزرگ اخلاق، ایمانوئل کانت، به نتیجه‌ای خرسندکننده دست یافت. کانت قصد آن داشت تا با گذر از اخلاق به فلسفهٔ اخلاق و سپس به متافیزیک اخلاق، بنیان‌های لازم برای هرگونه نظام اخلاقی را فراهم آورد.
  2. داوری‌های اخلاقی بر دو گونه هستند؛ یا تکلیف‌گرا ۷۱ یا نیک‌بختی‌گرا ۷۲ که کم‌وبیش می‌توان آن را نتیجه‌گرا ۷۳ نیز نامید.

در داوری اخلاقی تکلیف‌گرا بنیاد اخلاقی بر یک تکلیف ۷۴ یا تعهد ۷۵ قرار دارد، اما در داوری اخلاقی نیک‌بختی‌گرا بنیاد اخلاق بر کمال انسانی و ماهیت زندگی خوب متمرکز است و بر خوشی،۷۶ والایی ۷۷ و یا شاید شکوفایی ۷۸ نهاده می‌شود. مثلا خوشی نیازمند کردوکار است و نه فقط مصرف محض.

ارسطو می‌پرسید «زندگی خوب برای انسان چیست؟» اما کانت و جان استوارت میل می‌پرسیدند «انسان از چه تکلیفی باید پیروی کند؟»

برخی به سادگی فرق میان دیدگاه ارسطو با کانت را با واژه‌های عامل-محور ۷۹ و عمل-محور ۸۰ وصف می‌کنند که به نگر می‌آید نارسا است.

نزد برخی نیز اخلاق نیک‌بختی‌گرا همان اخلاق شخصیت ۸۱ است و اخلاق تکلیف‌گرا همان نفع شخصی روشنایی یافته ۸۲ است که گمان می‌رود ساده‌سازی نادرستی باشد.

بازگشت‌هایی به اخلاق فضیلت ۸۳‌(هنر اخلاقی یا اخلاق مهارت) از قبیل انکار فرااخلاق و توصیف دقیق تجربهٔ اخلاقی انضمامی در اندیشهٔ مارثانوسباوم،۸۴ گسترش اخلاق اشتراکی ۸۵ که حقوق فردی ۸۶ را به هنگام ستیز با خیر مشترک محدود می‌کند نزد چالز تیلور،۸۷ به پرسش کشیدن حوزه و اهمیت خواست‌های اخلاقی تکلیف‌گرا در بحث‌های برنارد ویلیامز،۸۸ و توجه به نگرپردازی تاریخی‌گرای اخلاقی، آن‌گونه که در برابر جهان‌روایی قرار می‌گیرد، در اندیشهٔ السدیر ۸۹ مک اینتایر جالب توجه است.

  1. در این نوشتار نگارنده قصد ندارد تا همهٔ این دیدگاه‌ها در متافیزیک اخلاق را برای گزینش مناسب بنیان‌های متافیزیک اخلاق ماشین‌آلات هوشمند بررسی کند. با این همه، بر این باور است که با همهٔ نقدهایی که بر متافیزیک اخلاق کانتی وارد است، به گمان نویسنده همان‌گونه که فیلسوفان و پژوهش‌گران اخلاق پیش‌تر گفته‌اند، متافیزیک اخلاق کانتی، یعنی اخلاق تکلیف‌گرا و متافیزیک اخلاق ارسطویی، یعنی اخلاق نیک‌بختی‌گرا، با هم جمع‌ناشدنی است. از این رو، گزینش یکی از این دو متافیزیک برای بنیادگذاری اخلاق در برنامه‌ریزی ماشین‌های هوشمند همچون دیگر قلمروهای مرتبط با ماشین‌آلات هوش مصنوعی، گریزناپذیر است و از آن جایی که این بخش مهم‌ترین بخش نگرانی‌های اخلاقی است، به نگر می‌آید که متافیزیک اخلاق کانتی مناسب‌تر و شایسته‌تر از متافیزیک اخلاق ارسطویی است.

به سخن دیگر برای به دست دادن قاعده‌های اخلاقی ‌ مناسب و شایسته در برنامه‌ریزی آدمک‌ها، شبکه‌های رایانه‌ای، دستگاه‌های پیشرفتهٔ تکنولوژی اطلاع‌رسانی و مخابراتی و هر گونه ماشین‌آلات هوشمند، بیش از همه می‌توان بر بنیان‌های متافیزیکی اخلاق کانتی تکیه کرد.

  1. هرچند ما آدمیان می‌توانیم نگرش‌ها و رویکردهای اخلاقی را به هنگام سخن گفتن دربارهٔ دستورهای اخلاقی‌ای که آدمیان به کار می‌بندند به بحث بگذاریم، ولی شاید روزی فرا رسد که ماشین‌آلات هوشمند خود دربارهٔ بنیان‌ها و فرمان‌های اخلاقی خویش به بحث بنشینند.
 

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.