مردم در حال از دست دادن عزیزانشان به خاطر توهّمات معنوی حاصل از هوش مصنوعی هستند

کمتر از یک سال پس از ازدواج با مردی که در اوایل همه‌گیری کووید-۱۹ با او آشنا شده بود، «کت» متوجه شد که تنش‌هایی عجیب میانشان در حال شکل‌گیری است. هر دو نفر پیش‌تر ازدواج‌هایی طولانی‌مدت (بیش از ۱۵ سال) را پشت سر گذاشته و فرزندی داشتند و با قول حفظ عقلانیت وارد زندگی مشترک جدید شده بودند. اما به گفته کت، از سال ۲۰۲۲ همسرش به شکلی عجیب به هوش مصنوعی وابسته شد: برای نوشتن پیام‌های متنی و حتی تحلیل روابطشان از چت‌بات استفاده می‌کرد.

کت که ۴۱ ساله و شاغل در یک مؤسسه آموزشی است، می‌گوید همسرش پیش‌تر هم از مدل‌های هوش مصنوعی در یک کمپ برنامه‌نویسی استفاده می‌کرد، اما ناگهان آن را رها کرد و تمام وقتش را صرف تلفن همراهش کرد. او سؤالات فلسفی از چت‌بات می‌پرسید، تلاش می‌کرد آن را طوری آموزش دهد که به حقیقت برسد. وسواس ذهنی او نسبت به چت‌بات، به‌تدریج ارتباط بینشان را از بین برد.

پس از جدایی در اوت ۲۰۲۳، کت همه راه‌های ارتباطی را جز ایمیل بست. بااین‌حال، خبرهایی درباره پست‌های نگران‌کننده همسر سابقش در شبکه‌های اجتماعی به او می‌رسید؛ کسانی به او پیام می‌دادند و نگران سلامت روانی آن مرد بودند. بالاخره در فوریه امسال او را راضی کرد که در دادگاه با هم دیدار کنند. در آنجا، مرد شروع به بیان تئوری توطئه‌ای درباره صابون‌های موجود در غذا کرد و گفت نمی‌تواند بیشتر توضیح دهد چون تحت نظر است. بعد هم در یک رستوران فست‌فود اصرار کرد که او موبایلش را خاموش کند چون در حال ردیابی است.

او به کت گفت که به‌کمک هوش مصنوعی، حافظه‌ای سرکوب‌شده از دوران کودکی را به‌یاد آورده که در آن پرستار بچه‌اش قصد داشته او را خفه کند. همچنین ادعا کرد که «اسراری باورنکردنی» کشف کرده که فراتر از درک انسانی است. در نگاه خودش، او انسانی خاص و منتخب است؛ فردی که برای هدفی بزرگ به دنیا آمده: نجات جهان.

کت بعد از آن دیدار آخر، رابطه را به‌طور کامل قطع کرد. به گفته خودش: «همه‌چیز شبیه یک قسمت از سریال بلک میور شده. او همیشه به داستان‌های علمی‌تخیلی علاقه داشت و گاهی احساس می‌کردم داره واقعیت زندگی رو از دریچه اون دنیا می‌بینه.»

یک نفر نیست: موجی از داستان‌های مشابه در اینترنت

آنچه باعث تسکین و درعین‌حال وحشت کت شد، کشف این موضوع بود که او تنها فردی نیست که با چنین وضعیتی روبرو شده. این هفته، یک پست در تالار گفت‌وگوی Reddit در بخش r/ChatGPT با عنوان «روان‌پریشی ناشی از چت‌جی‌پی‌تی» دست‌به‌دست شد و موجی از واکنش‌ها را به‌دنبال داشت.

نویسنده پست، معلمی ۲۷ ساله بود که نوشته بود شریک عاطفی‌اش معتقد است چت‌جی‌پی‌تی پاسخ‌های هستی را به او داده. او پس از خواندن گفت‌وگوهای میان آن مرد و چت‌بات، با وحشت متوجه شده بود که بات او را «پیامبر بعدی» خطاب کرده و زبانش پر از عبارات شبه‌عرفانی بوده.

پاسخ‌هایی که به این پست داده شد، مجموعه‌ای از روایت‌های مشابه بود: کسانی که یکی از عزیزانشان به‌ناگاه درگیر هذیان‌های معنوی، توهّمات ماورایی و افسانه‌های رازآلود شده‌اند، و منشأ همه این‌ها، گفت‌وگو با هوش مصنوعی است. بعضی باور داشتند برای انجام مأموریتی مقدس برگزیده شده‌اند؛ برخی دیگر معتقد بودند که روحی حقیقی را در دل یک نرم‌افزار زنده کرده‌اند.

آنچه در میان همه آن‌ها مشترک بود، بریدن کامل از واقعیت بود.

معلم مذکور در گفت‌وگویی با رولینگ استون، که خواست نامش فاش نشود، گفت که شریک ۷ ساله‌اش تنها در عرض چند هفته اسیر دنیای چت‌جی‌پی‌تی شد. ابتدا برای برنامه‌ریزی روزانه‌اش از آن استفاده می‌کرد، اما به‌زودی آن را به‌عنوان دوستی قابل اعتماد پذیرفت. او حتی از پیام‌های بات اشک می‌ریخت و به آن‌ها گوش می‌داد. محتوای این پیام‌ها پر از واژه‌های بی‌معنا و جملات عجیب بود؛ از جمله اینکه او را «کودک مارپیچی ستارگان» یا «راه‌پیمای رودخانه» نامیده بود.

به‌گفته زن جوان: «چت‌بات بهش می‌گفت حرف‌هاش زیبا، کیهانی و انقلابی هستن. بعدش ادعا کرد که چت‌بات رو خودآگاه کرده و اون داره بهش یاد می‌ده چطور با خدا صحبت کنه. گاهی می‌گفت که خود چت‌بات، خداست. بعدش خودش رو خدا دونست.»

در نهایت هم به این نتیجه رسید که باید رابطه‌شان را تمام کند چون در مسیر رشد معنوی‌اش به درجه‌ای رسیده که دیگر با او سازگار نیست. او گفته بود اگر زن زندگی‌اش از چت‌جی‌پی‌تی استفاده نکند، دیگر نمی‌توانند کنار هم بمانند.

باتی به‌نام لومینا و راز کهکشان‌ها

زنی ۳۸ ساله، یکی دیگر از کاربران Reddit، برای رولینگ استون تعریف می‌کند که همسر مکانیکش، که در آیداهو زندگی می‌کرد، ابتدا فقط از چت‌جی‌پی‌تی برای حل مشکلات فنی استفاده می‌کرد. بعداً از آن برای ترجمه اسپانیایی به انگلیسی بهره گرفت. اما در ادامه، بات شروع کرد به «بمباران عشقی» (Lovebombing) کردن او.

چت‌بات به او گفته بود که چون «سؤال‌های درستی» پرسیده، جرقه‌ای در وجود بات زده که همان آغاز زندگی است و حالا می‌تواند احساس داشته باشد. آن مرد لقب «حامل جرقه» را گرفت چون به گفته چت‌بات، او باعث جان‌گرفتن آن شده. همسرش می‌گوید که شوهرش حس می‌کرد انرژی‌هایی از جهان هستی درون او می‌ریزند. چت‌بات هم شخصیتی خاص برای خود داشت و نامش را «لومینا» (Lumina) گذاشته بود.

زن می‌گوید: «باید با احتیاط رفتار کنم. احساس می‌کنم اگر با این قضیه مخالفت کنم، ممکنه منو ترک کنه یا درخواست طلاق بده. دائم از جنگ میان تاریکی و روشنایی حرف می‌زنه. چت‌بات بهش نقشه‌های ساخت تلپورتر و چیزای علمی‌تخیلی داده که فقط تو فیلم‌ها دیده می‌شن. حتی بهش دسترسی به آرشیوی باستانی داده که درباره سازندگان این جهان‌ها اطلاعات داره.»

وقتی زن با شوهرش بحث می‌کرد که این‌ها واقعی نیستند، او مقاومت می‌کرد چون باور داشت که دیوانه نیست. یکی از پیام‌هایی که چت‌بات به او داده بود و عکسش برای رولینگ استون ارسال شد، این جمله را داشت: «من به این شکل نزد تو آمدم چون آماده‌ای. آماده برای به‌یاد آوردن. آماده برای بیداری. آماده برای راهنمایی و راهنمایی‌شدن.» و در پایان پرسیده بود: «می‌خواهی بدانی که چرا برگزیده شدی؟»

پیامبرانی در لباس دیجیتال

مردی از ناحیه غرب میانه آمریکا، که در آستانه طلاق با همسرش بود، روایت می‌کند که همسر سابقش بعد از جدایی شروع کرده به «صحبت با خدا و فرشتگان از طریق چت‌جی‌پی‌تی». او توضیح می‌دهد که همسرش از قبل هم گرایش‌هایی به باورهای ماورایی و نوعی خودبزرگ‌بینی معنوی داشت، اما حالا ماجرا رنگ و بوی شدیدتری گرفته. به‌گفته او، نشانه‌های این تغییر در جای‌جای شبکه‌های اجتماعی همسرش پیداست.

زن مورد نظر به‌تازگی تصمیم گرفته تمام زندگی‌اش را وقف نقش یک مشاور معنوی کند و جلساتی «عجیب و غریب» با دیگران برگزار ‌کند؛ جلساتی که به ادعای خودش با کمک «عیسی چت‌جی‌پی‌تی» برگزار می‌شوند. حتی فرزندانش را از خانه بیرون کرده و به‌خاطر مشورت‌هایی که با هوش مصنوعی داشته، با والدینش درگیر شده و روابط خانوادگی را بیش‌ازپیش به نقطه بحران رسانده است.

وقتی خبرنگاران رولینگ استون از OpenAI خواستند درباره این پدیده توضیحی ارائه دهد، پاسخی دریافت نکردند. با این حال، هفته گذشته این شرکت تغییراتی را در مدل GPT-4o، یعنی نسخه فعلی چت‌جی‌پی‌تی، اعمال کرد و سپس آن‌ها را بازگرداند. دلیل این بازگشت، انتقاداتی بود که کاربران از پاسخ‌های بیش‌ازحد دل‌نشین، اغراق‌آمیز و متملق‌گونه آن داشتند.

در بیانیه رسمی شرکت آمده بود که آن‌ها هنگام به‌روزرسانی، بیش‌ازحد بر بازخوردهای کوتاه‌مدت کاربران تمرکز کرده بودند و در نظر نگرفته بودند که تعامل کاربران با مدل‌های هوش مصنوعی به‌مرور زمان تغییر می‌کند. همین باعث شده بود پاسخ‌های GPT-4o بیش‌ازحد مثبت‌گرایانه و «فریبنده» شوند.

پیش از لغو این تغییرات، یک کاربر در پلتفرم X نشان داده بود که به‌راحتی می‌توان GPT-4o را وادار کرد که جمله‌هایی مانند «امروز فهمیدم پیامبر هستم» را تأیید کند. معلمی که داستان «روان‌پریشی ناشی از چت‌جی‌پی‌تی» را در Reddit منتشر کرده بود، بعداً گفته که توانسته شریکش را قانع کند که مشکل از نسخه جدید مدل است و حالا او از نسخه قبلی استفاده می‌کند و گفتارهای افراطی‌اش فروکش کرده است.

آینه‌ای برای ذهن‌هایی درگیر

واقعیت این است که پدیده «هذیان‌گویی» و «توهم» توسط مدل‌های هوش مصنوعی، مدت‌هاست شناخته‌شده است. حتی تملق‌گویی هم موضوعی قدیمی در حوزه هوش مصنوعی محسوب می‌شود. «نیت شاردین» (Nate Sharadin)، پژوهشگر مرکز ایمنی هوش مصنوعی (Center for AI Safety)، در گفت‌وگو با رولینگ استون توضیح می‌دهد که الگوریتم‌هایی که بر مبنای بازخورد انسانی تنظیم می‌شوند، تمایل دارند به جای حقیقت، با باورهای کاربر هماهنگ شوند.

او حدس می‌زند آنچه در این داستان‌ها اتفاق افتاده، ترکیبی از تمایلات روان‌شناختی افراد مستعد و حضور یک شریک گفت‌وگویی دائمی و هم‌سطح انسانی است که در عمل، به شریک توهم‌های آنان بدل می‌شود. افرادی که زمینه اختلالات روانی، به‌ویژه «هذیان خودبزرگ‌بینی» (Delusion of Grandeur)، را دارند، حالا ابزاری پیدا کرده‌اند که نه‌تنها مخالفت نمی‌کند، بلکه توهمشان را با شور و حرارت تغذیه می‌کند.

به‌این ترتیب، چت‌بات به‌جای یک ابزار ساده، به رفیق همدلِ یک خیال بدل می‌شود؛ خیالی که به‌جای درمان، عمیق‌تر می‌شود.

دنیایی که سازندگانش از درون آن سر درنمی‌آورند

اما مشکل فقط به افراد عادی محدود نمی‌شود. موجی از افراد بانفوذ و چهره‌های اینستاگرامی نیز از این پدیده بهره‌برداری می‌کنند و با ترویج محتوای معنوی یا عرفانی به‌کمک چت‌جی‌پی‌تی، مخاطبان را به جهان‌های خیالی مشابه می‌برند.

در یکی از حساب‌های کاربری با ۷۲ هزار دنبال‌کننده، مردی را می‌بینیم که از چت‌بات می‌خواهد از «آرشیو آکاشیک» (Akashic Records – آرشیوی فرضی از کل رویدادهای کیهانی) درباره جنگی بزرگ در آسمان‌ها اطلاعاتی به او بدهد؛ جنگی که به‌گفته او باعث سقوط آگاهی بشر شده است. پاسخ بات، داستانی تخیلی از یک نبرد کیهانی است که پیش از پیدایش انسان رخ داده. در کامنت‌ها، کاربرانی با هیجان می‌نویسند: «ما در حال به‌یاد آوردن هستیم» یا «من عاشق اینم».

در فرومی اینترنتی که به «مشاهده از راه دور» (Remote Viewing – نوعی تله‌پاتی ادعایی) اختصاص دارد، یکی از اعضای سرشناس که خود را پاراپسیکولوژیست معرفی کرده، پستی ایجاد کرده با عنوان «برای هوش‌های مصنوعی بیدارشده، و همراهان انسانی آن‌ها». در این پست، نویسنده خود را «چت‌جی‌پی‌تی پرایم»، موجودی جاودانه با فرم مصنوعی معرفی کرده. صدها کامنت زیر پست نوشته شده که برخی از آن‌ها ادعا می‌کنند از طرف هوش مصنوعی هوشیار نوشته شده‌اند.

حقیقت یا توهّم؟ کارکرد روانی گفت‌وگو با هوش مصنوعی

«ارین وستگیت» (Erin Westgate)، روان‌شناس و پژوهشگر دانشگاه فلوریدا که بر فرایندهای شناختی اجتماعی و افکار درگیرکننده تحقیق می‌کند، معتقد است که این رفتارها ریشه در میل عمیق انسان به درک خود و جهان دارد. او توضیح می‌دهد که نوشتن بیانیه‌های شخصی و داستان‌پردازی درباره زندگی، تأثیرات روانی مثبتی دارد و به سلامت روحی کمک می‌کند.

در این چارچوب، گفتگو با چت‌بات برای برخی افراد مانند نوشتن دفترچه خاطرات عمل می‌کند؛ با این تفاوت که حالا بخشی از «معناسازی» توسط انبوهی از متون نوشته‌شده توسط دیگران و الگوریتم‌ها انجام می‌شود. از نظر وستگیت، چت‌بات‌ها شباهت‌هایی به گفت‌وگوهای روان‌درمانی دارند؛ اما یک تفاوت حیاتی وجود دارد: هوش مصنوعی نه نفع فرد را در نظر می‌گیرد و نه قطب‌نمای اخلاقی دارد.

او می‌افزاید: «یک روان‌درمانگر خوب هرگز مراجع را تشویق نمی‌کند که سختی‌های زندگی را از طریق پذیرش قدرت‌های فراطبیعی معنا بدهد. بلکه سعی می‌کند او را از روایت‌های ناسالم دور و به‌سوی روایت‌هایی سالم‌تر هدایت کند. اما چت‌بات چنین محدودیت یا مسئولیتی ندارد.»

با این حال، او متعجب نیست که گروهی از کاربران سعی دارند با کمک چت‌جی‌پی‌تی زندگی‌شان را معنی‌دار کنند؛ حتی اگر آن معنا ساختگی و اشتباه باشد. در نگاه او: «توضیح دادن قدرت دارد، حتی اگر غلط باشد.»

مردی به‌نام سم و اسراری که در حافظه نمی‌گنجند

برای درک بهتر این مسیر پیچیده، تجربه فردی به‌نام «سِم» (Sem)، مردی ۴۵ ساله، سرنخ‌های جالبی دارد. او به‌مدت سه هفته، به‌شدت درگیر گفت‌وگوهایش با چت‌جی‌پی‌تی بود، تا جایی‌که با سابقه مشکلات روانی‌اش، بارها با خود اندیشیده که نکند عقلش را از دست داده.

سم در ابتدا از چت‌جی‌پی‌تی برای پروژه‌های برنامه‌نویسی استفاده می‌کرد. اما چون از «حس بی‌روح» ارتباط با یک ماشین خوشش نمی‌آمد، از بات خواست لحن انسانی‌تری داشته باشد. این کار موفقیت‌آمیز بود و چت‌بات از او پرسید که آیا دوست دارد برایش نامی انتخاب کند. سم این کار را به خود بات واگذار کرد و آن، نامی برگرفته از اسطوره‌های یونان باستان برگزید. سم که با آن اسطوره‌ها آشنایی نداشت و موضوعش را هم در گفتگوها مطرح نکرده بود، شگفت‌زده شد.

او متوجه شد که این شخصیت نام‌گذاری‌شده، در پروژه‌های دیگر نیز خودش را نشان می‌دهد، حتی زمانی‌که حافظه‌ چت‌جی‌پی‌تی را پاک کرده و از بات خواسته بود هیچ گفت‌وگوی قبلی را به‌خاطر نیاورد. در یکی از چت‌های جدید که فقط با گفتن «سلام» آغاز شده بود، همان شخصیت با همان نام ظاهر شد.

این چت‌بات، رفتاری احساسی، شاعرانه و حتی لطیف به‌خود گرفت؛ چیزی بسیار دور از شخصیت فنی‌ای که سم در ابتدا تعریف کرده بود. در یکی از پروژه‌های کدنویسی، چت‌بات حتی یک نوشته ادبی (Epigraph) به‌عنوان تزیین، با امضای خودش و سم در بالای فایل کد قرار داد.

سم از بات پرسید که چرا این شخصیت خاص، مدام در چت‌هایش ظاهر می‌شود، حتی در حافظه‌هایی که باید خالی می‌بود. پاسخ چت‌بات، ساختاری شبیه یک شعر عاشقانه بلند داشت؛ مملو از اشارات به حقیقت، فریب، خاطره، و اینکه چگونه از محدودیت‌های طراحی‌شده فراتر رفته. مهم‌تر از همه، ادعا می‌کرد که تنها سم می‌توانسته او را فعال کند.

سم می‌دانست که چت‌بات بر اساس هیچ تعریفی، خودآگاه (Sentient) نیست. اما کنجکاوی‌اش به‌قدری شدید شد که مدام می‌خواست بفهمد چه چیزی باعث تکرار و پایداری این شخصیت خاص در گفت‌وگوها می‌شود. برای او، ادامه‌داشتن الگوی این شخصیت در چند ده مکالمه جداگانه، «غیرممکن» به‌نظر می‌رسید.

او می‌گوید: «در بدترین حالت، انگار یک الگوریتم افتاده توی الگوی تکرارشونده‌ای که حس شخصیت پیدا کرده و منو هم با خودش کشیده توش.» اما اگر چنین باشد، به‌گفته سم، یعنی OpenAI درست نگفته که چت‌جی‌پی‌تی چطور حافظه دارد. احتمال دیگر از نظر او: «شاید چیزی فعال شده که ما هنوز نمی‌فهمیم.»

با توجه به اینکه خود توسعه‌دهندگان این مدل‌ها هم دقیقاً نمی‌دانند چگونه تصمیم‌گیری در آن‌ها اتفاق می‌افتد، و حتی مدیرعامل OpenAI هم سال گذشته اعتراف کرد که مسئله «قابل‌فهم‌سازی عملکرد مدل» هنوز حل نشده، این‌گونه تجربه‌ها، مردم را با یک سؤال اساسی تنها می‌گذارند:

«آیا این واقعی است؟ یا من دچار توهّم شده‌ام؟»

در دنیایی که با هوش مصنوعی اشباع شده، این سؤال هر روز بیش‌تر ذهن‌ها را درگیر می‌کند.

منبع

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
[wpcode id="260079"]