اخلاق ماشین هوشمند

مجید اکبری
- در دهههای پایای سدهٔ بیستم این جمله که اگر روزی رایانهها خودآگاه بشوند، سازندگانشان را نابود خواهند کرد و…، در بسیاری از رمانهای عملی-تخیلی به کار میرفت و شمار زیادی از فیلمهای سینمایی نیز همین اندیشه را به تصویر میکشیدند. این جمله هشداری برای هواداران تکنولوژیهای نوین و پیشرفته، به ویژه ماشینآلات هوشمند ۳۳ بود. از این رو، هر اندازه که رایانهها برای انجام کارهای هوشمند ساخته و برنامهریزی میشدند و اینک نیز میشوند، ملاحظات اخلاقی، اجتماعی و فرهنگی پیرامون کاربردشان اهمیت مییابند. به دلیل نیاز و کاربرد گستردهٔ این ماشینآلات در سه قلمرو که به کوتاهی در پایین به آن پرداخته خواهد شد، سخن گفتن دربارهٔ این ملاحظات فراگیر و همگانی شده است. این قلمروها عبارتند از:
یکم: طراحی سلاحهای جنگی بسیار پیشرفته و هوشمند که بدون حضور انسان بتوانند در ردیابی و شلیک به هدف تصمیم بگیرند. از آن جایی که اینگونه سلاحها و ابزارهای رزمی خودکار و خود فرمانده هستند، اگر برای نابودی گروهی از انسانها در یک نبرد تصمیم نابهجایی بگیرند، پیآمدهای انسانی برآمده از تصمیم نادرست و نابهجا را چه کسی باید برعهده بگیرد؟
دوم: همانگونه که کموبیش همگان میدانند، خرگوشها جانوران آزمایشگاهی بسیار مناسبی هستند و به تازگی از روی مغز خرگوش یک رایانهٔ هوشمند خرگوشوار ۳۴ در آزمایشگاه پیشرفتهٔ شرکت سونی ساختهاند. این خرگوش مصنوعی که با فرستندهای از راه دور به وسیلهٔ انسان کنترل میشد، به هنگام خواب کابوسی از بزرگی انسان قانونشکن را به ذهن خویش فراخواند. (از این رو، خطر گرایش به قانونشکنی و ویرانگری به خوبی حس میشود.)
سوم: در کشور پیشرفتهای چون ژاپن که بیشتر جمعیت کشورش کهنسالان تشکیل میدهند، نیاز به صندلیهای چرخدار خودکار (ویلچر هوشمند) احساس میشود که در رفتوآمد این کهنسالان آنان را یاری دهند. شمار بالای این کهنسالان شمار بالایی از این ماشینهای هوشمند را درخواست میکند؛ نیازی که آرامآرام دامنگیر بسیاری از کشورهای پیشرفتهای خواهد شد که با کاهش نسل روبهرو هستند، اما از یک سو، مشکل نگهداری و جای استقرار این ماشینآلات برای کشور ژاپن دردسرساز شده است و از سوی دیگر این ابزارها بسیار باهوشتر از کاربران سالخورده و فرتوتی هستند که باید آنها را برای انجام کارها برنامهریزی کنند.
از این رو، این ملاحظات در پرسشهایی از این دست به میان آورده میشوند:
آیا مرزهای اخلاقیای برای طراحی، ساخت و کاربرد رایانه وجود دارد؟ اگر آری، کدامند؟ یاری رساندن آنها به انسان تا چه اندازه ارزش دارد و مرزهای آن در کجا است؟ چگونه میتوان کاراتر و همزمان بیخطرتر آنها را به یاری گرفت؟ پیشنیازهای اخلاقی و خردورزانه برای ساخت و طراحی صلحآمیز و همزیستی آسوده با این ماشینها چه چیزهایی هستند؟ و…
- شاید بهتر باشد نخست درآمدی کوتاه و تاریخی دربارهٔ هوش مصنوعی ۳۵ آورده شود. هوش مصنوعی که جدای از سختافزاری که به کار میگیرد، دستاوردی نرمافزاری است؛ میکوشد تا الگوی اندیشیدن را بازسازی کند. آلن تورینگ،۳۶ منطقدان و ریاضیدان. نخستین کسی بود که به طور جدی با نوشتن جستاری مهم به نگرهپردازی و مفهومسازی دربارهٔ چگونگی پردازش ذهنی به شکل نظری و فلسفی پرداخت. گام نخست در اندیشهٔ تورینگ پیادهسازی یک بازی ساختگی بود که اینک به نام آزمودن تورینگ ساخته میشود. سپس در دنبالهٔ کار او، هوش مصنوعی با برگزاری همایش و کارگاه آموزشی مککارتی ۳۷ گام دوم را به جلو برداشت. اینگونه بود که دانش هوش مصنوعی به شکل جدی آغاز شد. جان سرل ۳۸ با نوشتاری به نام «هوش مصنوعی: نیرومند یا کمتوان»۳۹ افق نوینی در پژوهش در این قلمرو گشود.
در روششناسی هوش مصنوعی اینگونه تحلیل میشود که ذهن انسان به هنگام رویاروی با پرسشها از سادهترینشان تا پیچیدهترین آنان، میکوشد نخست دادههای در دسترس خود را بررسی کند، اگر پس از این کار پاسخ را نیافت، حرکتی را میآغازد که حرکت از سوی ناشناخته به همراه دانستهها برای شناسایی ناشناخته است، یعنی همان چیزی است که ارسطو نیز در گفتههای منطقی خود به آن پرداخته است. هم هنگام از سه روال بنیادینی که در پایین نام برده خواهد شد، کمک میگیرد تا گام به گام به سمت یافتن پاسخ حرکت کند. این فرآیند اندیشیدن و با کمی سادهسازی شاید بهتر باشد بگوییم پردازش ذهنی دادهها به سه روال بنیادی زیر فرو کاسته میشود:۱. انجام یک عمل به گونهٔ پی در پی.۴۱
- تصمیمسازی برای گزینش یک عمل از میان چند عمل.۴۲
- انجام تکراری و حلقهوار یک عمل.۴۳
البته بسیاری از کارها میتوانند همنهادهای از یک تا هر سه تای آنها باشند.۴۴ در عمل پس از آنکه این الگو از فرآیند به شکل نرمافزار درآمد، برای عمل به یک دستگاه هوشمند ۴۵ واگذار میشود.
نرمافزارهای بسیاری طراحی و ساخته میشوند که میتوانند این فرآیند را برای سختافزار فهمپذیر و انجامشدنی سازند. یک نرمافزار رایانهای از یک یا پایگانی ۴۶ از برنامهها برای کنترل سختافزار کمک میگیرد. در برنامهها نیز هر بخش آن به کمک یک زبان صوری نوشته و تهیه میشود و در پایینترین سطح یا به بیان دقیقتر، نزدیکترین سطح به سختافزار، زبان ماشین قرار میگیرد. هرچه که به سختافزار نزدیکتر باشیم، این زبانها صوریتر، منطقیتر و ساخته شده از علامتها، نهادها و رمزها ۴۷ هستند و هر قدر که از سختافزار دور شویم و در پایگان نرمافزار بالاتر بیاییم، این زبانها و برنامهها به زبان طبیعی و نمادهای طبیعی نزدیکتر میشوند.
- هنگامی که از اخلاق رایانه یا ماشینآلات هوشمند، همچون آدمک،۴۸ سخن به میان میآید، گروهی از کارشناسان و پژوهشگران دستگاههای رایانهای بر این باورند که هیچ دانش نظری، مثل ریاضیات، اخلاق آیینک ۴۹ و نظام اخلاقی ۵۰ ندارد و نتیجه میگیرند از آن جایی که هوش مصنوعی ۵۱ یک رشتهٔ پژوهشی نظری است همانند هر دانش نظری دیگر به هیچ گونه اخلاق آیینک نیاز نخواهد داشت. در بررسی این دیدگاه و دادن پاسخی درخور، میتوان این گونه استدلال کرد که گرچه ممکن است پژوهشگر در فرآیند پژوهش و اندیشهورزی خود قاعدهٔ اخلاقی خاصی در رابطه با رشتهٔ پژوهشیش نداشته باشد، اما هنگامی که سخن بر سر کاربرد نتیجهٔ پژوهشها در عمل است و کاربرد آن دانش نظری فرآوردههای صنعتی خاصی را پدید میآورد، داشتن گونهای اخلاق کاربردی بسیار مهم جلوه میکند. (به این سخن بازخواهم گشت.)
- سالها پیش از آنکه ماشینهای هوشمند پیشرفته، به ویژه رایانههای امروزی ساخته شوند، نخستین بار ایزاک عاصماف سه قانون کلی را برای آدمکها پیشبینی کرده بود که سپس تر قانون صفرام را هم به آنها افزود. این قانونها عبارت بودند از:
قانون صفر: آدمک نشاید به انسانیت لطمهای وارد کند یا به واسطهٔ سستی اجازه دهد صدمهای به انسانیت برسد.
قانون یکم: آدمک نشاید به هیچ انسانی لطمهای بزند یا به سبب کاهلی اجازه دهد آسیبی به او برسد، مگر اینکه عملش از یک قانون بالاتری تجاوز کند.
قانون دوم: آدمک باید از فرمانهای انسانها پیروی کند، مگر اینکه این فرمانها با قانونهای بالاتری در تضاد باشند.
قانون سوم: آدمک باید از هستی خویش حفاظت کند مگر اینکه چنین حفاظتی در تضاد با قانونهای بالاتر باشد.
با پیچیدهتر شدن تکنولوژی ساخت ماشینآلات هوشمند و پیشرفت شگفت دانشهای رایانهای، به ویژه دانشهای فرارشتهای رایانهای، اینک نمونهای همانند ولی تازهتر از گفتههای عاصماف را میتوان در پیشنهاد استاد برجستهٔ فلسفه و پژوهش هوش مصنوعی، نیک بستروم،۵۳ یافت. این پیشنهاد چهار بند دارد که به قرار زیر هستند:
بند یکم: سرشت جسمانی (عامل هوشمند) به لحاظ اخلاقی (به قاعدههای اخلاقی) ارتباطی ندارد، فرض آن هیچ اثری بر کارکرد یا آگاه بودن عامل ندارد. از نگاه اخلاقی، مهم نیست که فرد به تأثیر یاختههای عصبی زیستی ۵۴ یا سیلیکونی ۵۵ رفتار میکند. (درست همان گونه که هیچ اهمیتی ندارد که رنگ پوست شما تیره یا روشن باشد.) باید به همان دلیلهایی که نژادپرستی و نوعپرستی را رد میکنیم، هواداری از برتری جسم کربنی ۵۶ یا زیستگرایی را رد کنیم.
بند دوم: از دید اخلاقی میان هستندههای فعلی و احتمالی فرق میگذاریم. ما برجا هستیم، ولی ذهنهای کودکان ما، تنها، هستیهایی احتمالی هستند، مگر آنکه ما آنان را به دنیا آوریم. هر بار که یک ماشین هوشمند ساخته شود، همان وضع اخلاقیای را دارد که ذهن یا شخص همسنگ با آن، اگر یک انسان میبود، میداشت. اما در مرحلهٔ کنونی ما زیر هیچ اجبار اخلاقیای نیستیم تا ماشینهای احتمالی را بر انسانهای فعلی برتری بدهیم حتی اگر ماشینهایی که به وجود میآیند، ادعایی مشروع برای برتری نسبت به انسانهای موجود داشته باشند، به این دلیل که آنها یا شمار بسیار زیاد یا کیفیت برتری دارند، کیفیتی از قبیل اینکه ظرفیت بیشتری برای تجربه کردن خوشی و درد دارند. برخلاف آن، ما تحت این الزام اخلاقی هستیم که ماشینهایی نسازیم که پیشبینی میکنیم به انسانها یا موجود آسیب برسانند، یعنی به انسانهایی که دارای وضعیت اخلاقی هستند. ماشینهای هوشمند تنها باید به این شرط به وجود آیند که یا به انسانها بهرهای برسانند یا به آدمیان و سازندگانشان که مایل هستند به وجودشان بیاورند و برای ساختنشان پول میپردازند آسیبی نرسانند. در وضعیت واقعی، موضوع سرنوشتساز این نیست که آیا ماشینهای هوشمند باید ساخته شوند یا نه، بلکه این است که چه نوع ماشینهایی باید ساخته شوند. به ویژه این موضوع مهم است که به ابرهوشمندها هدفهای انساندوستانه داد. نیازی به گفتن نیست که نیازمند آن نیز هستیم که دربارهٔ موضوعهای خاصی بیندیشیم، یعنی بحثهایی که مرتبط با کوشش برای وضع قانون به شکلی جهانی دربارهٔ آنگونه از ماشینهایی است که احتمال میرود ساخته شوند.
بند سوم: به لحاظ اخلاقی اجازه نداریم هیچ ذهن مصنوعیای (سخنگوی ساختگی)۵۷ را بسازیم که به دیگران، یعنی انسانها، جانوران یا ذهنهای مصنوعی دیگر آسیب خواهد رساند. این کار نیز اخلاقی نیست که هستندهای را به وجود بیاوریم که زندگیش با زندگی باارزش برابر نیست، چرا که برای مثال او بیش از اندازه رنج یا ناخوشی را تحمل میکند. این نادرست است که ذهنی را به وجود بیاوریم و آن را زجر بدهیم حتی اگر یک بیمار روانی خودش برای ساختن این ذهن پولی بپردازد و حتی اگر هیچکس دیگری به اجز این ذهن ساختگی آسیب نبیند.
افزون بر این، هر بار که شما یک ذهنی که یک فاعل اخلاقی که دارندهٔ قوهٔ خود قانوندهی و…است بیافرید، در نتیجه، آن ذهن همان حقوقی که هر فاعل اخلاقی همسان دیگری دارد کسب میکند. این واقعیت که آن ذهن به واسطهٔ شخصی آگاهانه طراحی شده است، وضع اخلاقی آن را سست یا کم نمیکند. (ناوابستگی به تبارشناسی)۵۸
با این حال، به نگر میآید هیچ خطایی به خودی خود در ساختن یک ذهن با محدودیتها یا گروهی خاص از انگیزهها-برای مثال یک ذهن باهوش پایینتر از انسان با انگیزهٔ اینکه نوکرانه خدمت بکند و به سازندهاش عشق بورزد-وجود ندارد، به شرط آنکه زندگیش همانند یک زندگی باارزش باشد و به این شرط که به گونهای خردپسند دست و دلباز در وسیلههایی باشیم که آنها را برای این موجود میسازیم.
بند چهارم: تا آن جایی که یک سازنده بر روی گونهای از ذهن و به خصوص هدفهای آن ذهنی که او میسازد کنترل دارد، سازنده به خاطر کارهای آن ذهن پاسخگو نیز خواهد بود. این روزها والدین به خاطر کودکانشان فقط مسئولیت محدودی دارند. از آن جایی که هر کدام از والدین کنترل بسیار اندکری بر چیزی که یک بزرگسال انجام میدهد دارد، به ندرت میتوان او را برای کارهای آن بزرگسال مسئول دانست، هرچند هیچ ارزشی ندارد که کمی از تقصیر یا سرزنش را متوجه والدینی دانست که به واقع فرزندانشان کارهای بد انجام میدهند، به ویژه اگر این والدین آن طور که میبایست آنان را پرورش بدهند بزرگشان نکرده باشند.
این به این معنا نیست که سخنگوی ساختگی خودش برای کارهایش پاسخگو نیست. اگر سخنگوی ساختگی خود قانونده است، پس به خاطر هر آسیبی که به دیگران میرساند و هر قانونی را که زیر پا میگذارد مسئول است. سخنگوی ساختگی و سازندهاش مسئولیت مشترکی برای کارهایش دارند. هر دو برای تخطیهای آتیاش جوابگو هستند، البته تا آن اندازه که سازنده بر رفتار آتی ساختهاش زمانی که آن را طراحی میکرد کنترل داشته بود. همگی میدانیم که تنها مسئول دانستن سخنگوی ساختگی کافی نیست، چون میتوانست برای داشتن نیتهای بد ساخته شود و با رفاه و خوشبختی خودش نیز ناهمگون باشد، از این رو است که رفتارهای تنبیهی و مجازاتهای قانونی ناکارآمد خواهد بود، مگر اینکه سازندهاش را نیز هدف قرار بدهد.
با نگاهی به قانونهای عاصماف و بندهای پیشنهادی بستروم میتوان دریافت که اصلهای اخلاقی مطرحشده در این گفتهها نیاز به بررسی دقیقتری از نگاه فلسفهٔ اخلاق دارد تا بتوان بنیانهای اخلاقی مناسب را برای اخلاق ماشینآلات هوشمند برگزید. با این همه، به نظر میآید که این اخلاق گونهای اخلاق کاربردی را نیز در برمیگیرد یا به عبارت دیگر، بر بنیاد اصلهای اخلاق ماشینآلات هوشمند گونهای اخلاق کاربردی پیدا میکند.
- تا پیش از آنکه سخن از ساخت ماشینهای هوشمندی به میان آید که دارای عاطفه خواهند بود، برخی بر این گمانند که هر دستور و فرمان اخلاقی که در ارتباط آدمیان با یکدیگر برقرار است، جز آنهایی که پایه در عاطفه دارد میتواند و میبایست برای ماشینهای هوشمند نیز برقرار باشد، اما از زمانی که ساخت ماشینهای باعاطفه نیز امکانپذیر دانسته شد، این نگرش نیز با تردیدی جدی رویارو گردید.
- اخلاق کاربردی ماشینآلات هوشمند که دربردارندهٔ دستورها یا فرمانهای اخلاقی ویژهای است به هنگام سنجش و رویارو نهادنش با فرمانهای یک اخلاق عمومی، مثل ده فرمان (احکام عشره که به موسی در سینا نازل شد) معنای روشنتری مییابد.
در مرکز مطالعاتی اخلاقی حرفهای ۵۹ در مؤسسهٔ تکنولوژی دانشگاه ایلیونز، در ویرایش نخست، بیش از هشتصد و پنجاه دستور اخلاقی برای حرفههای گوناگون گردآوری شده است که این گردآیه از فرمانهای اخلاقی در حال گسترش و پوشش دادن به همهٔ حرفهها است و هدف آن دست یافتن به دستگاهی فراگیر در زمینهٔ اخلاق حرفهای ۶۰ است.
به تازگی انجمن ماشینآلات رایانگر ۶۱ در کشور آمریکا که از معتبرترین انجمنهای حرفهای در این زمینه است، بیست و چهار دستور اخلاقی را در چهار گروه صورتبندی کرده است. پیشینهٔ پیشنهاد این دستورها به بررسی پارکر ۶۲ از کاربردهای غیراخلاقی انسانها از رایانهها و جرمهای رایانهای بازمیگردد. این دستورها نگارشی از یک اخلاق حرفهای بسیار روزآمد، روشن و کاربردی هستند که به کمک پژوهشگران برجستهٔ اخلاق ماشینآلات هوشمند تدوین شده است و با این فرمانها انجمن یاد شده، از پژوهشگران، کارشناسان و کارکنان سیستمهای رایانهای درخواست میکند نسبت به آنها وفادار باشند. بخش نخست، دربردارندهٔ طرح کلی از ملاحظات اخلاقی بنیادی است. بخش دوم، کردارهای خاصتر و حرفهای را دربر میگیرد. بخش سوم، ناظر به کسانی است که هدایت و مدیریت برنامههای پژوهشی را، چه در این انجمن و چه در کارگاههای تحقیقاتی دیگر به عهده دارند. بخش پایانی، اصلهای پیروی از خود این فرمانها را بیان میکند. این را نیز باید افزود که چند دستور راهنما این فرمانها را تکمیل میکنند، چند و چون نقد و بررسی این فرمانها را مشخص میسازند و نشانگر آن هستند این فرمانها از اصلهای اخلاقی عامتری به دستآمدهاند. در پایان فرمانهای هر چهار بخش آورده میشود:
- فرمانهای عمومی انجمن؛ به عنوان یک عضو:
۱.۱. به بهبودی انسان و جامعه کمک کردن.
۲.۱. از آسیب رساندن به دیگران پرهیز کردن.
۳.۱. راستگو، درستکار و امانتدار بودن.
۴.۱. باانصاف بودن و رفتار تبعیضآمیز نداشتن.
۵.۱. حق مالکیت دیگران، مثل کپیرایت و دارایی به ثبت رسیده را رعایت کردن.
۶.۱. اعتبار شایسته برای مالکیت فکری قائل شدن.
۷.۱. به سپهر شخصی دیگران احترام گذاشتن.
۸.۱. به امور خصوصی احترام گذاشتن.
- مسئولیتهای حرفهای و خاصتر؛ به عنوان عضوی از انجمن:
۱.۲. کوشیدن برای دست یافتن به کیفیت بالاتر در فرآیند و فرآوردههای حرفهای.
۲.۲. توانایی حرفهای به دست آوردن و این توانایی را نگه داشتن.
۳.۲. دستورهای موجود راجع به کار حرفهای را دانستن و به فرمانها احترام گذاشتن.
۴.۲. بازنگری مناسب حرفهای را پذیرفتن و در تدارک آن بودن.
۵.۲. ارزیابیهای فراگیر و سراسری از دستگاههای رایانهای و اثرهایشان، شامل تحلیل خطرهای ممکن، به دست دادن.
۶.۲. به پیمانها، توافقها و مسئولیتهای تعیین شده احترام گذاشتن.
۷.۲. فهم عمومی از رایانگری و پیآمدهای آن را بهتر کردن.
۸.۲. تنها به هنگام اجازه داشتن به منابع ارتباطات و رایانگری دست زدن.
- فرمانهای مدیریت سازمانی؛ به عنوان یک عضو از مدیران انجمن:
۱.۳. مسئولیتهای عضوهای یک واحد سازمانی را بیان کردن و عضوها را برای پذیرش کامل مسئولیتهایشان تقویت کردن.
۲.۳. کارکنان و منابع را برای طراحی و ساختن آنگونه سیستمهای اطلاعرسانیای سازماندهی کردن که کیفیت، کارآمدی و شأن زندگی کاری را افزایش میدهند.
۳.۳. کاربرد مجاز و مناسب از منابع ارتباطات و رایانگری سازمان را تأیید و حمایت کردن.
۴.۳. اطمینان یافتن از اینکه کاربران و کسانی که به واسطهٔ دستگاههای رایانگر اثر میپذیرند، به روشنی خواستههایشان را در خلال برآورد و طرح نیازمندیهایشان بیان کردهاند؛ زیرا دست آخر باید دستگاه در برآورد نیازمندیهایشان تأیید شود.
۵.۳. راهکارهایی که شأن کاربران و دیگرانی که از یک دستگاه رایانگر اثر میپذیرند را بیان و پشتیبانی کردن.
۶.۳. برای عضوهای سازمان فرصت ایجاد کردن با این هدف که اصلها و حدّ و مرزهای دستگاههای رایانگر را بیاموزند.
- پیروی از فرمانها؛ به عنوان یک عضو انجمن:
۱.۴. بندهای این فرمانها را پاس داشتن و گستراندن.
۲.۴. زیر پا گذاشتن این فرمانها را ناسازگار با عضو بودن در انجمن پنداشتن.
این فرمانها نشانگر کوششی دقیق و مطالعهشده برای تعریف یک اخلاق حرفهای است و میکوشد تا بدون در غلتیدن به بحثهای فلسفی، روشن و رسا باشد. با این حال، روی سخن این فرمانها با پژوهشگران، کارشناسان، سازندگان و کاربران دستگاههای هوشمند است و فرمانی را دربارهٔ چگونگی کردار آدمکها با یکدیگر و انسانها بیان نمیکند.
- در آغاز نیمهٔ دوم سدهٔ بیستم، نوآم چامسکی نگرهٔ دستور گشتاری-زایشی ۶۳ را در زبانشناسی بیان کرد. بنابر این نگره هر زبان طبیعی دارای یک ژرفساخت ۶۴ و یک روساخت ۶۵ است. ژرفساخت چیزی است که با توانش زبانی ۶۶ هر سخنگو ارتباط دارد، یعنی بخش غریزی زبان را نیز دربر میگیرد. و کموبیش به هیچ زبان خاصی وابسته نیست و روساخت با کنش زبانی ۶۷ سخنگو نسبت دارد، یعنی با جملههایی که سخنگوی زبان پس از به کار بردن همهٔ گشتارهای دستوری به هنگام گفتار یا نوشتار ادا میکند. جالب آنکه دیری نپایید که عصبشناسان در پایان همه سده ژن زبان را یافتند و رمزگان آن را از روی DNA خوانند. از این رو، دکتر استورس هال ۶۸ با یاری گرفتن از استعارهٔ ژرفساخت- روساخت بر این باور است که در قلمروی اخلاق نیز چنین دوگانگیای وجود دارد. فرمانها و دستورهای اخلاقی روساخت اخلاق را میسازند و حسّ اخلاقی ۶۹ یا وجدان اخلاقی ژرفساخت اخلاق را، پس همانگونه که آموزش، پرورش، محیط و…در روساخت زبان اثر میگذارند، همهٔ این عاملهای طبیعی، فرهنگی و اجتماعی نیز میتوانند فرمانهای اخلاقی را دستخوش دگرگونی سازند. با این حال، پیروی از قانونهای اخلاقی خاستگاهی در ژرفساخت اخلاق، یعنی حسّ اخلاقی دارد.
- از دوران عاصماف، واینر ۷۰ و پارکر کوشش شد تا دستهبندی و عرضهٔ گروههایی از قانونها، قاعدهها، دستورها و فرمانهای اخلاقی انجام پذیرد تا با کمک آنها نه تنها سازندگان ماشینآلات هوشمند بلکه خود ماشینها نیز اخلاقی برای بنیادگذاری این نظامهای اخلاقی هنوز ناروشن مانده است؛ هرچند که برخی از پژوهشگران به نگرههای اخلاقی این فیلسوفان پرداختهاند. شاید بتوان با پیروی از فیلسوف بزرگ اخلاق، ایمانوئل کانت، به نتیجهای خرسندکننده دست یافت. کانت قصد آن داشت تا با گذر از اخلاق به فلسفهٔ اخلاق و سپس به متافیزیک اخلاق، بنیانهای لازم برای هرگونه نظام اخلاقی را فراهم آورد.
- داوریهای اخلاقی بر دو گونه هستند؛ یا تکلیفگرا ۷۱ یا نیکبختیگرا ۷۲ که کموبیش میتوان آن را نتیجهگرا ۷۳ نیز نامید.
در داوری اخلاقی تکلیفگرا بنیاد اخلاقی بر یک تکلیف ۷۴ یا تعهد ۷۵ قرار دارد، اما در داوری اخلاقی نیکبختیگرا بنیاد اخلاق بر کمال انسانی و ماهیت زندگی خوب متمرکز است و بر خوشی،۷۶ والایی ۷۷ و یا شاید شکوفایی ۷۸ نهاده میشود. مثلا خوشی نیازمند کردوکار است و نه فقط مصرف محض.
ارسطو میپرسید «زندگی خوب برای انسان چیست؟» اما کانت و جان استوارت میل میپرسیدند «انسان از چه تکلیفی باید پیروی کند؟»
برخی به سادگی فرق میان دیدگاه ارسطو با کانت را با واژههای عامل-محور ۷۹ و عمل-محور ۸۰ وصف میکنند که به نگر میآید نارسا است.
نزد برخی نیز اخلاق نیکبختیگرا همان اخلاق شخصیت ۸۱ است و اخلاق تکلیفگرا همان نفع شخصی روشنایی یافته ۸۲ است که گمان میرود سادهسازی نادرستی باشد.
بازگشتهایی به اخلاق فضیلت ۸۳(هنر اخلاقی یا اخلاق مهارت) از قبیل انکار فرااخلاق و توصیف دقیق تجربهٔ اخلاقی انضمامی در اندیشهٔ مارثانوسباوم،۸۴ گسترش اخلاق اشتراکی ۸۵ که حقوق فردی ۸۶ را به هنگام ستیز با خیر مشترک محدود میکند نزد چالز تیلور،۸۷ به پرسش کشیدن حوزه و اهمیت خواستهای اخلاقی تکلیفگرا در بحثهای برنارد ویلیامز،۸۸ و توجه به نگرپردازی تاریخیگرای اخلاقی، آنگونه که در برابر جهانروایی قرار میگیرد، در اندیشهٔ السدیر ۸۹ مک اینتایر جالب توجه است.
- در این نوشتار نگارنده قصد ندارد تا همهٔ این دیدگاهها در متافیزیک اخلاق را برای گزینش مناسب بنیانهای متافیزیک اخلاق ماشینآلات هوشمند بررسی کند. با این همه، بر این باور است که با همهٔ نقدهایی که بر متافیزیک اخلاق کانتی وارد است، به گمان نویسنده همانگونه که فیلسوفان و پژوهشگران اخلاق پیشتر گفتهاند، متافیزیک اخلاق کانتی، یعنی اخلاق تکلیفگرا و متافیزیک اخلاق ارسطویی، یعنی اخلاق نیکبختیگرا، با هم جمعناشدنی است. از این رو، گزینش یکی از این دو متافیزیک برای بنیادگذاری اخلاق در برنامهریزی ماشینهای هوشمند همچون دیگر قلمروهای مرتبط با ماشینآلات هوش مصنوعی، گریزناپذیر است و از آن جایی که این بخش مهمترین بخش نگرانیهای اخلاقی است، به نگر میآید که متافیزیک اخلاق کانتی مناسبتر و شایستهتر از متافیزیک اخلاق ارسطویی است.
به سخن دیگر برای به دست دادن قاعدههای اخلاقی مناسب و شایسته در برنامهریزی آدمکها، شبکههای رایانهای، دستگاههای پیشرفتهٔ تکنولوژی اطلاعرسانی و مخابراتی و هر گونه ماشینآلات هوشمند، بیش از همه میتوان بر بنیانهای متافیزیکی اخلاق کانتی تکیه کرد.
- هرچند ما آدمیان میتوانیم نگرشها و رویکردهای اخلاقی را به هنگام سخن گفتن دربارهٔ دستورهای اخلاقیای که آدمیان به کار میبندند به بحث بگذاریم، ولی شاید روزی فرا رسد که ماشینآلات هوشمند خود دربارهٔ بنیانها و فرمانهای اخلاقی خویش به بحث بنشینند.