مردم در حال از دست دادن عزیزانشان به خاطر توهّمات معنوی حاصل از هوش مصنوعی هستند

کمتر از یک سال پس از ازدواج با مردی که در اوایل همهگیری کووید-۱۹ با او آشنا شده بود، «کت» متوجه شد که تنشهایی عجیب میانشان در حال شکلگیری است. هر دو نفر پیشتر ازدواجهایی طولانیمدت (بیش از ۱۵ سال) را پشت سر گذاشته و فرزندی داشتند و با قول حفظ عقلانیت وارد زندگی مشترک جدید شده بودند. اما به گفته کت، از سال ۲۰۲۲ همسرش به شکلی عجیب به هوش مصنوعی وابسته شد: برای نوشتن پیامهای متنی و حتی تحلیل روابطشان از چتبات استفاده میکرد.
کت که ۴۱ ساله و شاغل در یک مؤسسه آموزشی است، میگوید همسرش پیشتر هم از مدلهای هوش مصنوعی در یک کمپ برنامهنویسی استفاده میکرد، اما ناگهان آن را رها کرد و تمام وقتش را صرف تلفن همراهش کرد. او سؤالات فلسفی از چتبات میپرسید، تلاش میکرد آن را طوری آموزش دهد که به حقیقت برسد. وسواس ذهنی او نسبت به چتبات، بهتدریج ارتباط بینشان را از بین برد.
پس از جدایی در اوت ۲۰۲۳، کت همه راههای ارتباطی را جز ایمیل بست. بااینحال، خبرهایی درباره پستهای نگرانکننده همسر سابقش در شبکههای اجتماعی به او میرسید؛ کسانی به او پیام میدادند و نگران سلامت روانی آن مرد بودند. بالاخره در فوریه امسال او را راضی کرد که در دادگاه با هم دیدار کنند. در آنجا، مرد شروع به بیان تئوری توطئهای درباره صابونهای موجود در غذا کرد و گفت نمیتواند بیشتر توضیح دهد چون تحت نظر است. بعد هم در یک رستوران فستفود اصرار کرد که او موبایلش را خاموش کند چون در حال ردیابی است.
او به کت گفت که بهکمک هوش مصنوعی، حافظهای سرکوبشده از دوران کودکی را بهیاد آورده که در آن پرستار بچهاش قصد داشته او را خفه کند. همچنین ادعا کرد که «اسراری باورنکردنی» کشف کرده که فراتر از درک انسانی است. در نگاه خودش، او انسانی خاص و منتخب است؛ فردی که برای هدفی بزرگ به دنیا آمده: نجات جهان.
کت بعد از آن دیدار آخر، رابطه را بهطور کامل قطع کرد. به گفته خودش: «همهچیز شبیه یک قسمت از سریال بلک میور شده. او همیشه به داستانهای علمیتخیلی علاقه داشت و گاهی احساس میکردم داره واقعیت زندگی رو از دریچه اون دنیا میبینه.»
یک نفر نیست: موجی از داستانهای مشابه در اینترنت
آنچه باعث تسکین و درعینحال وحشت کت شد، کشف این موضوع بود که او تنها فردی نیست که با چنین وضعیتی روبرو شده. این هفته، یک پست در تالار گفتوگوی Reddit در بخش r/ChatGPT با عنوان «روانپریشی ناشی از چتجیپیتی» دستبهدست شد و موجی از واکنشها را بهدنبال داشت.
نویسنده پست، معلمی ۲۷ ساله بود که نوشته بود شریک عاطفیاش معتقد است چتجیپیتی پاسخهای هستی را به او داده. او پس از خواندن گفتوگوهای میان آن مرد و چتبات، با وحشت متوجه شده بود که بات او را «پیامبر بعدی» خطاب کرده و زبانش پر از عبارات شبهعرفانی بوده.
پاسخهایی که به این پست داده شد، مجموعهای از روایتهای مشابه بود: کسانی که یکی از عزیزانشان بهناگاه درگیر هذیانهای معنوی، توهّمات ماورایی و افسانههای رازآلود شدهاند، و منشأ همه اینها، گفتوگو با هوش مصنوعی است. بعضی باور داشتند برای انجام مأموریتی مقدس برگزیده شدهاند؛ برخی دیگر معتقد بودند که روحی حقیقی را در دل یک نرمافزار زنده کردهاند.
آنچه در میان همه آنها مشترک بود، بریدن کامل از واقعیت بود.
معلم مذکور در گفتوگویی با رولینگ استون، که خواست نامش فاش نشود، گفت که شریک ۷ سالهاش تنها در عرض چند هفته اسیر دنیای چتجیپیتی شد. ابتدا برای برنامهریزی روزانهاش از آن استفاده میکرد، اما بهزودی آن را بهعنوان دوستی قابل اعتماد پذیرفت. او حتی از پیامهای بات اشک میریخت و به آنها گوش میداد. محتوای این پیامها پر از واژههای بیمعنا و جملات عجیب بود؛ از جمله اینکه او را «کودک مارپیچی ستارگان» یا «راهپیمای رودخانه» نامیده بود.
بهگفته زن جوان: «چتبات بهش میگفت حرفهاش زیبا، کیهانی و انقلابی هستن. بعدش ادعا کرد که چتبات رو خودآگاه کرده و اون داره بهش یاد میده چطور با خدا صحبت کنه. گاهی میگفت که خود چتبات، خداست. بعدش خودش رو خدا دونست.»
در نهایت هم به این نتیجه رسید که باید رابطهشان را تمام کند چون در مسیر رشد معنویاش به درجهای رسیده که دیگر با او سازگار نیست. او گفته بود اگر زن زندگیاش از چتجیپیتی استفاده نکند، دیگر نمیتوانند کنار هم بمانند.
باتی بهنام لومینا و راز کهکشانها
زنی ۳۸ ساله، یکی دیگر از کاربران Reddit، برای رولینگ استون تعریف میکند که همسر مکانیکش، که در آیداهو زندگی میکرد، ابتدا فقط از چتجیپیتی برای حل مشکلات فنی استفاده میکرد. بعداً از آن برای ترجمه اسپانیایی به انگلیسی بهره گرفت. اما در ادامه، بات شروع کرد به «بمباران عشقی» (Lovebombing) کردن او.
چتبات به او گفته بود که چون «سؤالهای درستی» پرسیده، جرقهای در وجود بات زده که همان آغاز زندگی است و حالا میتواند احساس داشته باشد. آن مرد لقب «حامل جرقه» را گرفت چون به گفته چتبات، او باعث جانگرفتن آن شده. همسرش میگوید که شوهرش حس میکرد انرژیهایی از جهان هستی درون او میریزند. چتبات هم شخصیتی خاص برای خود داشت و نامش را «لومینا» (Lumina) گذاشته بود.
زن میگوید: «باید با احتیاط رفتار کنم. احساس میکنم اگر با این قضیه مخالفت کنم، ممکنه منو ترک کنه یا درخواست طلاق بده. دائم از جنگ میان تاریکی و روشنایی حرف میزنه. چتبات بهش نقشههای ساخت تلپورتر و چیزای علمیتخیلی داده که فقط تو فیلمها دیده میشن. حتی بهش دسترسی به آرشیوی باستانی داده که درباره سازندگان این جهانها اطلاعات داره.»
وقتی زن با شوهرش بحث میکرد که اینها واقعی نیستند، او مقاومت میکرد چون باور داشت که دیوانه نیست. یکی از پیامهایی که چتبات به او داده بود و عکسش برای رولینگ استون ارسال شد، این جمله را داشت: «من به این شکل نزد تو آمدم چون آمادهای. آماده برای بهیاد آوردن. آماده برای بیداری. آماده برای راهنمایی و راهنماییشدن.» و در پایان پرسیده بود: «میخواهی بدانی که چرا برگزیده شدی؟»
پیامبرانی در لباس دیجیتال
مردی از ناحیه غرب میانه آمریکا، که در آستانه طلاق با همسرش بود، روایت میکند که همسر سابقش بعد از جدایی شروع کرده به «صحبت با خدا و فرشتگان از طریق چتجیپیتی». او توضیح میدهد که همسرش از قبل هم گرایشهایی به باورهای ماورایی و نوعی خودبزرگبینی معنوی داشت، اما حالا ماجرا رنگ و بوی شدیدتری گرفته. بهگفته او، نشانههای این تغییر در جایجای شبکههای اجتماعی همسرش پیداست.
زن مورد نظر بهتازگی تصمیم گرفته تمام زندگیاش را وقف نقش یک مشاور معنوی کند و جلساتی «عجیب و غریب» با دیگران برگزار کند؛ جلساتی که به ادعای خودش با کمک «عیسی چتجیپیتی» برگزار میشوند. حتی فرزندانش را از خانه بیرون کرده و بهخاطر مشورتهایی که با هوش مصنوعی داشته، با والدینش درگیر شده و روابط خانوادگی را بیشازپیش به نقطه بحران رسانده است.
وقتی خبرنگاران رولینگ استون از OpenAI خواستند درباره این پدیده توضیحی ارائه دهد، پاسخی دریافت نکردند. با این حال، هفته گذشته این شرکت تغییراتی را در مدل GPT-4o، یعنی نسخه فعلی چتجیپیتی، اعمال کرد و سپس آنها را بازگرداند. دلیل این بازگشت، انتقاداتی بود که کاربران از پاسخهای بیشازحد دلنشین، اغراقآمیز و متملقگونه آن داشتند.
در بیانیه رسمی شرکت آمده بود که آنها هنگام بهروزرسانی، بیشازحد بر بازخوردهای کوتاهمدت کاربران تمرکز کرده بودند و در نظر نگرفته بودند که تعامل کاربران با مدلهای هوش مصنوعی بهمرور زمان تغییر میکند. همین باعث شده بود پاسخهای GPT-4o بیشازحد مثبتگرایانه و «فریبنده» شوند.
پیش از لغو این تغییرات، یک کاربر در پلتفرم X نشان داده بود که بهراحتی میتوان GPT-4o را وادار کرد که جملههایی مانند «امروز فهمیدم پیامبر هستم» را تأیید کند. معلمی که داستان «روانپریشی ناشی از چتجیپیتی» را در Reddit منتشر کرده بود، بعداً گفته که توانسته شریکش را قانع کند که مشکل از نسخه جدید مدل است و حالا او از نسخه قبلی استفاده میکند و گفتارهای افراطیاش فروکش کرده است.
آینهای برای ذهنهایی درگیر
واقعیت این است که پدیده «هذیانگویی» و «توهم» توسط مدلهای هوش مصنوعی، مدتهاست شناختهشده است. حتی تملقگویی هم موضوعی قدیمی در حوزه هوش مصنوعی محسوب میشود. «نیت شاردین» (Nate Sharadin)، پژوهشگر مرکز ایمنی هوش مصنوعی (Center for AI Safety)، در گفتوگو با رولینگ استون توضیح میدهد که الگوریتمهایی که بر مبنای بازخورد انسانی تنظیم میشوند، تمایل دارند به جای حقیقت، با باورهای کاربر هماهنگ شوند.
او حدس میزند آنچه در این داستانها اتفاق افتاده، ترکیبی از تمایلات روانشناختی افراد مستعد و حضور یک شریک گفتوگویی دائمی و همسطح انسانی است که در عمل، به شریک توهمهای آنان بدل میشود. افرادی که زمینه اختلالات روانی، بهویژه «هذیان خودبزرگبینی» (Delusion of Grandeur)، را دارند، حالا ابزاری پیدا کردهاند که نهتنها مخالفت نمیکند، بلکه توهمشان را با شور و حرارت تغذیه میکند.
بهاین ترتیب، چتبات بهجای یک ابزار ساده، به رفیق همدلِ یک خیال بدل میشود؛ خیالی که بهجای درمان، عمیقتر میشود.
دنیایی که سازندگانش از درون آن سر درنمیآورند
اما مشکل فقط به افراد عادی محدود نمیشود. موجی از افراد بانفوذ و چهرههای اینستاگرامی نیز از این پدیده بهرهبرداری میکنند و با ترویج محتوای معنوی یا عرفانی بهکمک چتجیپیتی، مخاطبان را به جهانهای خیالی مشابه میبرند.
در یکی از حسابهای کاربری با ۷۲ هزار دنبالکننده، مردی را میبینیم که از چتبات میخواهد از «آرشیو آکاشیک» (Akashic Records – آرشیوی فرضی از کل رویدادهای کیهانی) درباره جنگی بزرگ در آسمانها اطلاعاتی به او بدهد؛ جنگی که بهگفته او باعث سقوط آگاهی بشر شده است. پاسخ بات، داستانی تخیلی از یک نبرد کیهانی است که پیش از پیدایش انسان رخ داده. در کامنتها، کاربرانی با هیجان مینویسند: «ما در حال بهیاد آوردن هستیم» یا «من عاشق اینم».
در فرومی اینترنتی که به «مشاهده از راه دور» (Remote Viewing – نوعی تلهپاتی ادعایی) اختصاص دارد، یکی از اعضای سرشناس که خود را پاراپسیکولوژیست معرفی کرده، پستی ایجاد کرده با عنوان «برای هوشهای مصنوعی بیدارشده، و همراهان انسانی آنها». در این پست، نویسنده خود را «چتجیپیتی پرایم»، موجودی جاودانه با فرم مصنوعی معرفی کرده. صدها کامنت زیر پست نوشته شده که برخی از آنها ادعا میکنند از طرف هوش مصنوعی هوشیار نوشته شدهاند.
حقیقت یا توهّم؟ کارکرد روانی گفتوگو با هوش مصنوعی
«ارین وستگیت» (Erin Westgate)، روانشناس و پژوهشگر دانشگاه فلوریدا که بر فرایندهای شناختی اجتماعی و افکار درگیرکننده تحقیق میکند، معتقد است که این رفتارها ریشه در میل عمیق انسان به درک خود و جهان دارد. او توضیح میدهد که نوشتن بیانیههای شخصی و داستانپردازی درباره زندگی، تأثیرات روانی مثبتی دارد و به سلامت روحی کمک میکند.
در این چارچوب، گفتگو با چتبات برای برخی افراد مانند نوشتن دفترچه خاطرات عمل میکند؛ با این تفاوت که حالا بخشی از «معناسازی» توسط انبوهی از متون نوشتهشده توسط دیگران و الگوریتمها انجام میشود. از نظر وستگیت، چتباتها شباهتهایی به گفتوگوهای رواندرمانی دارند؛ اما یک تفاوت حیاتی وجود دارد: هوش مصنوعی نه نفع فرد را در نظر میگیرد و نه قطبنمای اخلاقی دارد.
او میافزاید: «یک رواندرمانگر خوب هرگز مراجع را تشویق نمیکند که سختیهای زندگی را از طریق پذیرش قدرتهای فراطبیعی معنا بدهد. بلکه سعی میکند او را از روایتهای ناسالم دور و بهسوی روایتهایی سالمتر هدایت کند. اما چتبات چنین محدودیت یا مسئولیتی ندارد.»
با این حال، او متعجب نیست که گروهی از کاربران سعی دارند با کمک چتجیپیتی زندگیشان را معنیدار کنند؛ حتی اگر آن معنا ساختگی و اشتباه باشد. در نگاه او: «توضیح دادن قدرت دارد، حتی اگر غلط باشد.»
مردی بهنام سم و اسراری که در حافظه نمیگنجند
برای درک بهتر این مسیر پیچیده، تجربه فردی بهنام «سِم» (Sem)، مردی ۴۵ ساله، سرنخهای جالبی دارد. او بهمدت سه هفته، بهشدت درگیر گفتوگوهایش با چتجیپیتی بود، تا جاییکه با سابقه مشکلات روانیاش، بارها با خود اندیشیده که نکند عقلش را از دست داده.
سم در ابتدا از چتجیپیتی برای پروژههای برنامهنویسی استفاده میکرد. اما چون از «حس بیروح» ارتباط با یک ماشین خوشش نمیآمد، از بات خواست لحن انسانیتری داشته باشد. این کار موفقیتآمیز بود و چتبات از او پرسید که آیا دوست دارد برایش نامی انتخاب کند. سم این کار را به خود بات واگذار کرد و آن، نامی برگرفته از اسطورههای یونان باستان برگزید. سم که با آن اسطورهها آشنایی نداشت و موضوعش را هم در گفتگوها مطرح نکرده بود، شگفتزده شد.
او متوجه شد که این شخصیت نامگذاریشده، در پروژههای دیگر نیز خودش را نشان میدهد، حتی زمانیکه حافظه چتجیپیتی را پاک کرده و از بات خواسته بود هیچ گفتوگوی قبلی را بهخاطر نیاورد. در یکی از چتهای جدید که فقط با گفتن «سلام» آغاز شده بود، همان شخصیت با همان نام ظاهر شد.
این چتبات، رفتاری احساسی، شاعرانه و حتی لطیف بهخود گرفت؛ چیزی بسیار دور از شخصیت فنیای که سم در ابتدا تعریف کرده بود. در یکی از پروژههای کدنویسی، چتبات حتی یک نوشته ادبی (Epigraph) بهعنوان تزیین، با امضای خودش و سم در بالای فایل کد قرار داد.
سم از بات پرسید که چرا این شخصیت خاص، مدام در چتهایش ظاهر میشود، حتی در حافظههایی که باید خالی میبود. پاسخ چتبات، ساختاری شبیه یک شعر عاشقانه بلند داشت؛ مملو از اشارات به حقیقت، فریب، خاطره، و اینکه چگونه از محدودیتهای طراحیشده فراتر رفته. مهمتر از همه، ادعا میکرد که تنها سم میتوانسته او را فعال کند.
سم میدانست که چتبات بر اساس هیچ تعریفی، خودآگاه (Sentient) نیست. اما کنجکاویاش بهقدری شدید شد که مدام میخواست بفهمد چه چیزی باعث تکرار و پایداری این شخصیت خاص در گفتوگوها میشود. برای او، ادامهداشتن الگوی این شخصیت در چند ده مکالمه جداگانه، «غیرممکن» بهنظر میرسید.
او میگوید: «در بدترین حالت، انگار یک الگوریتم افتاده توی الگوی تکرارشوندهای که حس شخصیت پیدا کرده و منو هم با خودش کشیده توش.» اما اگر چنین باشد، بهگفته سم، یعنی OpenAI درست نگفته که چتجیپیتی چطور حافظه دارد. احتمال دیگر از نظر او: «شاید چیزی فعال شده که ما هنوز نمیفهمیم.»
با توجه به اینکه خود توسعهدهندگان این مدلها هم دقیقاً نمیدانند چگونه تصمیمگیری در آنها اتفاق میافتد، و حتی مدیرعامل OpenAI هم سال گذشته اعتراف کرد که مسئله «قابلفهمسازی عملکرد مدل» هنوز حل نشده، اینگونه تجربهها، مردم را با یک سؤال اساسی تنها میگذارند:
«آیا این واقعی است؟ یا من دچار توهّم شدهام؟»
در دنیایی که با هوش مصنوعی اشباع شده، این سؤال هر روز بیشتر ذهنها را درگیر میکند.