ربات‌های «تسلی‌دهنده» هوش مصنوعی: اخلاق‌گرایان هوش مصنوعی سه سناریوی وحشتناک را مطرح کرده‌اند

صحبت کردن با مردگان اکنون یک واقعیت است، نوعی از فناوری هوش مصنوعی (AI) موسوم به «دد»بات‌ها و «ربات‌های تسلی» آن را ممکن کرده‌اند. این ربات‌های گفتگو، می‌توانند زبان و شخصیت نزدیک‌ترین و عزیزترین فرد درگذشته ما را شبیه‌سازی کنند، و برای کسانی که سوگوار هستند، آرامش ایجاد کنند، اما دانشمندان دانشگاه کمبریج هشدار می‌دهند که ربات‌های تسلی می‌توانند بیش از آنکه فایده داشته باشند، آسیب‌رسانی کنند و «تجاوز» دیجیتالی ایجاد کنند و فاقد استاندارد‌های ایمنی باشند.

اخلاق فن‌آوری غم و اندوه با تجربه شخصی فردی با ابزاری به نام پروژه دسامبر مطرح شد. به عنوان نسخه اولیه فناوری هوش مصنوعی ChatGPT-3، پروژه دسامبر به کاربران پولی این فرصت را داد که با کاراکتر‌های چت بات به صورت از پیش تعیین شده صحبت کنند یا از فناوری یادگیری ماشینی برای ایجاد شخصیت خود استفاده کنند. نویسنده‌ای به نام جاشوا باربو کاربری بود که با دانش خود از پروژه دسامبر صحبت کرد تا با بات تقلیدکننده از نامزدش که 8 سال پیش مرده بود، صحبت کند.

پروژه دسامبر با استفاده از نمونه‌هایی از متون و توصیفات به جا مانده از شخصی که دیگر پیش ما نیست، به کمک هوش مصنوعی می‌تواند پاسخ‌های واقعی را با استفاده از مدل‌های زبانی برای تقلید گفتار او در حین مکالمه‌های متنی ایجاد کند.

اما نویسندگان یک مطالعه جدید استدلال می‌کنند که این خلاقیت‌های هوش مصنوعی، بر اساس ردپای دیجیتالی افراد درگذشته، نگرانی‌هایی را در مورد سوء استفاده احتمالی ایجاد می‌کند.

آن‌ها همچنین پیشنهاد می‌کنند که چنین فناوری‌هایی ممکن است کودکانی را که با مرگ یکی از عزیزانشان دست و پنجه نرم می‌کنند، با حفظ این توهم که والدینشان هنوز زنده هستند، آزار دهند. نگرانی آن‌ها این است که با انجام این کار، داغ‌دیدگان به شأن و منزلت متوفی ارج نگذارند.

این افکار توسط روانشناسی به نام  پروفسور اینس تستونی از دانشگاه پادووا برجسته شده که می‌گوید، بزرگترین چیزی که پس از مرگ یکی از عزیزان باید بر آن غلبه کنیم مواجهه با این واقعیت است که آن‌ها دیگر با ما نیستند.

تستونی می‌گوید: “بزرگترین مشکل مربوط به ناتوانی در جدا شدن از کسانی است که ما را ترک کرده‌اند، و این به این دلیل است که هر چه بیشتر یک نفر را دوست داشته باشید، بیشتر دوست دارید با او زندگی کنید.

«هر چه فرد عادت‌های شخص درگذشته را بیشتر دوست داشته باشد، بیشتر می‌خواهد مطمئن شود که آن‌ها تغییر نمی‌کنند. این دو عامل باعث می‌شود که کار پذیرش جدایی و تنظیم مجدد زندگی، بسیار زمان بر شود.»

از نظر مفهومی پذیرش جدایی مبهم است و ما در تلاش برای آن، به وسوسه جستجوی شواهد به جا مانده از فرد درگذشته  و یافتن آن‌ها در هر کجا که باشند، می‌افتیم.

تستونی توضیح داد: «ادبیات گسترده پدیده پیوند‌های مستمر را توصیف می‌کند، یعنی راهبرد‌های روان‌شناختی افراد داغدار برای زنده نگه داشتن رابطه با متوفی». آموزش پذیرش مرگ می‌تواند به ما امکان می‌دهد از این فرآیند‌ها آگاه شویم.»

برای نشان دادن نگرانی‌های خود، اخلاق‌شناسان هوش مصنوعی کمبریج سه سناریو را ترسیم می‌کنند که در آن ربات‌های تسلی‌دهنده می‌توانند برای افراد زنده مضر باشند:

MaNana – یک سرویس هوش مصنوعی مکالمه که مردگانی مانند مادربزرگ مسلما بدون رضایت آنها در حین زندگی، با نام مستعار مادربزرگ، شبیه‌سازی می‌کند. اما در ضمن تبلیغات هم دارد و این مادربزرگ شبیه‌سازی شده به افراد داغدار پیشنهاد می‌کند از یک سرویس تحویل خاص غذا سفارش دهند!

پدر و مادر – یک زن مبتلا به بیماری بدون درمان ممکن است در آخرین ماه‌های زندگی رباتی را آموزش دهند تا به کودکش در پذیرش مرگش کمک کند. ربات تسلی‌دهنده ممکن است در ابتدا باعث آرامش شود، اما اگر شروع به ایجاد پاسخ‌های گیج‌کننده کند، مانند پیشنهاد ملاقات حضوری، می‌تواند بهبودی کودک را به تاخیر بیندازد.

حضور مستمر و جاودانگی – یک پدر یامادر ممکن است بخواهد اثری ماندگار و جاودان از خودش بسازد، اما همه بچه‌ها این را نمی‌خواهند. یکی از بچه‌ها،ممکن است بخواهد با این فناوری ارتباط برقرار کند، اما در عوض با ایمیل‌های از قبل تنظیم‌شده پدر و مادر مرده‌اش به رگبار بسته می‌شود. از طرفی اگر با ربات قطع رابطه کند ممکن است احساس کند که خواسته‌های متوفی را نقض کرده و در نتیجه احساس گناه و ناراحتی می‌کند.

چندین نوع از ربات‌های مربوط به درگذشتگان را نشان داده‌اند که چنین فناوری‌ای تا کنون از نظر فناوری امکان‌پذیر و از نظر قانونی قابل تحقق هستند. گرچه سناریو‌های اخلاق‌شناسان در حد حدس و گمان هستند، اما تاثیر اجتماعی منفی خدمات بازآفرینی شخصیت درگذشتگان فقط یک مسئله بالقوه نیست که ممکن است در آینده با آن دست و پنجه نرم کنیم. برعکس، پروژه دسامبر و سایر محصولات و شرکت‌های ذکر شده دردر این مقاله نشان می‌دهد که استفاده از هوش مصنوعی در «صنعت زندگی پس از مرگـ به صورت دیجیتال، امروزه یک چالش قانونی و اخلاقی را سبب شده.

این ربات‌ها موسوم به ربات تسلی‌دهنده یا griefbots باید فرایندهای کسب رضایت چه از فرد در آستانه فوت یا بازماندگان آنها را داشته باشند و پروتکل‌های انصراف و محدودیت‌های سنی را برای کاربران داشته باشند. بعلاوه، تاثیر آنها در طی کردن فرایند طبیعی داغ‌دیدگی و جدایی از عزیزان باید بررسی شود.

این حوزه هوش مصنوعی یک «میدان مین» اخلاقی است. مهم است که شأن و منزلت متوفی را در اولویت قرار دهید، و اطمینان حاصل کنید که برای مثال، انگیزه‌های مالی خدمات پس از مرگ دیجیتال به این موضوع تجاوز نمی‌کند. در عین حال، یک فرد ممکن است یک شبیه‌سازی هوش مصنوعی را به عنوان هدیه خداحافظی برای عزیزانی که آماده پردازش غم و اندوه خود به این روش نیستند، تقدیم آنها کند. حقوق اهداکنندگان داده و کسانی که با خدمات پس از مرگ هوش مصنوعی در تعامل هستند باید به یک اندازه محافظت شود.

این تحقیق در Philosophy & Technology منتشر شده.


  این نوشته‌ها را هم بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
[wpcode id="260079"]