رباتهای «تسلیدهنده» هوش مصنوعی: اخلاقگرایان هوش مصنوعی سه سناریوی وحشتناک را مطرح کردهاند
صحبت کردن با مردگان اکنون یک واقعیت است، نوعی از فناوری هوش مصنوعی (AI) موسوم به «دد»باتها و «رباتهای تسلی» آن را ممکن کردهاند. این رباتهای گفتگو، میتوانند زبان و شخصیت نزدیکترین و عزیزترین فرد درگذشته ما را شبیهسازی کنند، و برای کسانی که سوگوار هستند، آرامش ایجاد کنند، اما دانشمندان دانشگاه کمبریج هشدار میدهند که رباتهای تسلی میتوانند بیش از آنکه فایده داشته باشند، آسیبرسانی کنند و «تجاوز» دیجیتالی ایجاد کنند و فاقد استانداردهای ایمنی باشند.
اخلاق فنآوری غم و اندوه با تجربه شخصی فردی با ابزاری به نام پروژه دسامبر مطرح شد. به عنوان نسخه اولیه فناوری هوش مصنوعی ChatGPT-3، پروژه دسامبر به کاربران پولی این فرصت را داد که با کاراکترهای چت بات به صورت از پیش تعیین شده صحبت کنند یا از فناوری یادگیری ماشینی برای ایجاد شخصیت خود استفاده کنند. نویسندهای به نام جاشوا باربو کاربری بود که با دانش خود از پروژه دسامبر صحبت کرد تا با بات تقلیدکننده از نامزدش که 8 سال پیش مرده بود، صحبت کند.
پروژه دسامبر با استفاده از نمونههایی از متون و توصیفات به جا مانده از شخصی که دیگر پیش ما نیست، به کمک هوش مصنوعی میتواند پاسخهای واقعی را با استفاده از مدلهای زبانی برای تقلید گفتار او در حین مکالمههای متنی ایجاد کند.
اما نویسندگان یک مطالعه جدید استدلال میکنند که این خلاقیتهای هوش مصنوعی، بر اساس ردپای دیجیتالی افراد درگذشته، نگرانیهایی را در مورد سوء استفاده احتمالی ایجاد میکند.
آنها همچنین پیشنهاد میکنند که چنین فناوریهایی ممکن است کودکانی را که با مرگ یکی از عزیزانشان دست و پنجه نرم میکنند، با حفظ این توهم که والدینشان هنوز زنده هستند، آزار دهند. نگرانی آنها این است که با انجام این کار، داغدیدگان به شأن و منزلت متوفی ارج نگذارند.
این افکار توسط روانشناسی به نام پروفسور اینس تستونی از دانشگاه پادووا برجسته شده که میگوید، بزرگترین چیزی که پس از مرگ یکی از عزیزان باید بر آن غلبه کنیم مواجهه با این واقعیت است که آنها دیگر با ما نیستند.
تستونی میگوید: “بزرگترین مشکل مربوط به ناتوانی در جدا شدن از کسانی است که ما را ترک کردهاند، و این به این دلیل است که هر چه بیشتر یک نفر را دوست داشته باشید، بیشتر دوست دارید با او زندگی کنید.
«هر چه فرد عادتهای شخص درگذشته را بیشتر دوست داشته باشد، بیشتر میخواهد مطمئن شود که آنها تغییر نمیکنند. این دو عامل باعث میشود که کار پذیرش جدایی و تنظیم مجدد زندگی، بسیار زمان بر شود.»
از نظر مفهومی پذیرش جدایی مبهم است و ما در تلاش برای آن، به وسوسه جستجوی شواهد به جا مانده از فرد درگذشته و یافتن آنها در هر کجا که باشند، میافتیم.
تستونی توضیح داد: «ادبیات گسترده پدیده پیوندهای مستمر را توصیف میکند، یعنی راهبردهای روانشناختی افراد داغدار برای زنده نگه داشتن رابطه با متوفی». آموزش پذیرش مرگ میتواند به ما امکان میدهد از این فرآیندها آگاه شویم.»
برای نشان دادن نگرانیهای خود، اخلاقشناسان هوش مصنوعی کمبریج سه سناریو را ترسیم میکنند که در آن رباتهای تسلیدهنده میتوانند برای افراد زنده مضر باشند:
MaNana – یک سرویس هوش مصنوعی مکالمه که مردگانی مانند مادربزرگ مسلما بدون رضایت آنها در حین زندگی، با نام مستعار مادربزرگ، شبیهسازی میکند. اما در ضمن تبلیغات هم دارد و این مادربزرگ شبیهسازی شده به افراد داغدار پیشنهاد میکند از یک سرویس تحویل خاص غذا سفارش دهند!
پدر و مادر – یک زن مبتلا به بیماری بدون درمان ممکن است در آخرین ماههای زندگی رباتی را آموزش دهند تا به کودکش در پذیرش مرگش کمک کند. ربات تسلیدهنده ممکن است در ابتدا باعث آرامش شود، اما اگر شروع به ایجاد پاسخهای گیجکننده کند، مانند پیشنهاد ملاقات حضوری، میتواند بهبودی کودک را به تاخیر بیندازد.
حضور مستمر و جاودانگی – یک پدر یامادر ممکن است بخواهد اثری ماندگار و جاودان از خودش بسازد، اما همه بچهها این را نمیخواهند. یکی از بچهها،ممکن است بخواهد با این فناوری ارتباط برقرار کند، اما در عوض با ایمیلهای از قبل تنظیمشده پدر و مادر مردهاش به رگبار بسته میشود. از طرفی اگر با ربات قطع رابطه کند ممکن است احساس کند که خواستههای متوفی را نقض کرده و در نتیجه احساس گناه و ناراحتی میکند.
چندین نوع از رباتهای مربوط به درگذشتگان را نشان دادهاند که چنین فناوریای تا کنون از نظر فناوری امکانپذیر و از نظر قانونی قابل تحقق هستند. گرچه سناریوهای اخلاقشناسان در حد حدس و گمان هستند، اما تاثیر اجتماعی منفی خدمات بازآفرینی شخصیت درگذشتگان فقط یک مسئله بالقوه نیست که ممکن است در آینده با آن دست و پنجه نرم کنیم. برعکس، پروژه دسامبر و سایر محصولات و شرکتهای ذکر شده دردر این مقاله نشان میدهد که استفاده از هوش مصنوعی در «صنعت زندگی پس از مرگـ به صورت دیجیتال، امروزه یک چالش قانونی و اخلاقی را سبب شده.
این رباتها موسوم به ربات تسلیدهنده یا griefbots باید فرایندهای کسب رضایت چه از فرد در آستانه فوت یا بازماندگان آنها را داشته باشند و پروتکلهای انصراف و محدودیتهای سنی را برای کاربران داشته باشند. بعلاوه، تاثیر آنها در طی کردن فرایند طبیعی داغدیدگی و جدایی از عزیزان باید بررسی شود.
این حوزه هوش مصنوعی یک «میدان مین» اخلاقی است. مهم است که شأن و منزلت متوفی را در اولویت قرار دهید، و اطمینان حاصل کنید که برای مثال، انگیزههای مالی خدمات پس از مرگ دیجیتال به این موضوع تجاوز نمیکند. در عین حال، یک فرد ممکن است یک شبیهسازی هوش مصنوعی را به عنوان هدیه خداحافظی برای عزیزانی که آماده پردازش غم و اندوه خود به این روش نیستند، تقدیم آنها کند. حقوق اهداکنندگان داده و کسانی که با خدمات پس از مرگ هوش مصنوعی در تعامل هستند باید به یک اندازه محافظت شود.
این تحقیق در Philosophy & Technology منتشر شده.
این نوشتهها را هم بخوانید