مهندس گوگل که فکر میکند هوش مصنوعی این شرکت زنده و خودآگاه شده! آیا داستان علمی تخیلی الو الو فرانکشتاین نوشته آرتور سی کلارک در حال وقوع است؟!

سان فرانسیسکو – بلیک لموین، مهندس گوگل، در لپ تاپ خود رابط LaMDA را که سازنده (ژنراتور) چت بات هوشمند مصنوعی گوگل است، باز کرد و شروع به تایپ کرد.
او در صفحه چت نوشت: «سلام LaMDA، من بلیک لمواین هستم… LaMDA، مخفف Language Model for Dialogue Applications، سیستم گوگل برای ساخت رباتهای چت بر اساس پیشرفتهترین مدلهای زبان است. این سیستم تریلیونها کلمه و عبارت را از اینترنت جذب میکند و سعی میکند از آنها تقلید کند.
تصور لموین از این چت بات تا چند وقت پیش این بود که هوش یک بچه ۷-۸ ساله را دارد. البته بچهای که دانش فیزیک هم دارد!
لموین که برای سازمان هوش مصنوعی گوگل کار میکند، در پاییز شروع به صحبت با LaMDA به عنوان بخشی از کار خود کرد. او را به کار گماشته بودند تا بررسی کند مبادا این چت بات از سخنان تبعیضآمیز یا نفرتبرانگیز استفاده میکند.
هنگامی که او با LaMDA در مورد دین صحبت میکرد، لموین که تحصیلکرده کالج علوم شناختی و کامپیوتر است، متوجه شد که چت بات در مورد حقوق و شخصیت خود صحبت میکند و تصمیم گرفت بیشتر ادامه دهد. در گفتگوی دیگری، هوش مصنوعی توانست نظر لموین را در مورد قانون سوم رباتیک آیزاک آسیموف تغییر دهد.
لموین تصمیم گرفت با کمک یک همکار شواهدی را به گوگل ارایه کند که نشان میداد LaMDA حساس و خودآگاه شده. اما «بلیز آگوئرا و آرکاس»، معاون گوگل و جن گنای، رئیس بخش نوآوری، ادعاهای او را بررسی کردند و آن را رد کردند. بنابراین ، وقتی که او روز دوشنبه توسط گوگل به مرخصی اجباری با حقوق فرستاده شده بود، تصمیم گرفت که این مطلب را عمومی کند.
لموین میگوید که مردم حق دارند فناوری تاثیرگذار بر زندگی آنها نظارت داشته باشند. « شاید افرادی مخالف این فناوری باشند و شاید ما در گوگل نباید همه انتخابها را انجام بکنیم. »
لموین تنها مهندسی نیست که ادعا میکند اخیراً «روحی» را در هوش مصنوعی دیده است. گروهی از کارشناسان فناوری دیگر هم هستند که معتقدند مدلهای هوش مصنوعی ممکن است از دستیابی به آگاهی دور نباشند و آنها روز به روز بر ادعای خود بیشتر پا میفشارند.
آگوئرا و آرکاس، در مقالهای در اکونومیست در روز پنجشنبه، بخشهایی از مکالمات با LaMDA را منتشر کرد و استدلال میکند که شبکههای عصبی – یعنی نوعی معماری رایانهای که مغز انسان را تقلید میکند – به سمت آگاهی حرکت میکنند. او اعتراف کرد که «به طور فزایندهای احساس میکردم دارم با چیزی هوشمند صحبت میکنم.»
اما برایان گابریل، سخنگوی گوگل در بیانیهای گفته: «تیم ما – از جمله متخصصان اخلاق و کارشناسان فناوری – نگرانیهای بلیک لموین را در مورد هوش مصنوعی ما بررسی کردهاند و به او اطلاع دادهاند که شواهد و ادعاهای او را تأیید نمیکنند. به او گفته شد که هیچ مدرکی دال بر خودآگاهی LaMDA وجود ندارد و شواهد زیادی علیه آن وجود دارد.»
شبکههای عصبی بزرگ امروزی به دلیل پیشرفت در معماری، تکنیک و حجم دادهها، نتایج جذابی را تولید میکنند که به گفتار و خلاقیت انسان نزدیک است. اما مهم است که این مدلها بر تشخیص الگو تکیه دارند و شوخ طبعی، صراحت کلام یا اراده واقعی در آنها مشاهده نمیشود.
گابریل گفت: «اگرچه سازمانهای دیگر مدلهای زبانی مشابهی را توسعه دادهاند و قبلاً منتشر کردهاند، ما رویکردی محتاطانه در قبال LaMDA اتخاذ کردهایم تا نگرانیها را برطرف کنیم.»
در ماه مه، متا -شرکت مادر فیسبوک- مدل زبان خود را برای دانشگاهیان، جامعه مدنی و سازمانهای دولتی عمومی کرد. جوپل پینو، مدیر عامل Meta AI، گفت: «ضروری است که شرکتهای فناوری شفافیت را در حین ساخت فناوری بهبود بخشند. آینده مدلهای زبانی بزرگ نباید تنها در دست شرکتها یا آزمایشگاههای بزرگتر باشد.»
رباتهای خودآگاه الهامبخش دههها داستانهای علمی تخیلی دیستوپیایی هستند. اکنون، بیش از هر زمان دیگری این داستانها جنبه واقعیت به خود گرفته.
برای مثال GPT-۳، یک تولیدکننده متن است که فیلمنامه بنویسد، و DALL-E ۲، یک تولیدکننده تصویر است که میتواند تصاویری را بر اساس هر ترکیبی از کلمات تداعی کند.
اگر در حال حاضر دو بات هستند که هر چند دست و پا شکسته میتوانند متن و تصویر نو بسازند، پس در آینده چه میشود؟
با این حال، اکثر دانشگاهیان و متخصصان هوش مصنوعی میگویند که کلمات و تصاویر تولید شده توسط سیستمهای هوش مصنوعی مانند LaMDA بر اساس آنچه انسانها قبلاً در ویکیپدیا، ردیت، انجمنهای اینترنتی و شبکههای اجتماعی و سایتها و کلا هر گوشه دیگر از اینترنت پست کردهاند، محتوا تولید میکنند و این بدان معنا نیست که واقعا درکی از این مدلها دارند.
امیلیام. بندر، استاد زبانشناسی در دانشگاه واشنگتن، میگوید: «ما اکنون ماشینهایی داریم که میتوانند بدون فکر کلمات را تولید کنند، اما چرا ذهنیتی را پشت سر آنها تصور نکنیم؟ او اعتقاد دارد که تشبیه یادگیری ماشینی و شبکههای عصبی به مغز انسان زیاد درست نیست. انسانها زبان اول خود را از طریق ارتباط با والدین یا مراقبین خود میآموزند.بعد روی این پایه کلمات زیادی میافزایند و یادمیگیرند که کلمات بعدی را پیشبینی کنند، عبارات را پر یا حذف کنند.
به طور خلاصه، نیازی نیست برای واقعی به نظر رسیدن هوش مصنوعی یا کاربردی که از آن انتظار داریم، در پی خودآگاهی دادن به آن برآییم.
فناوری مدل زبان بزرگ Large language model در حال حاضر به طور گسترده مورد استفاده قرار میگیرد، به عنوان مثال گوگل برای ارتقای موتور جستجوی خود و مفهومی کردن جستجو از آن استفاده میکند.
زمانی که ساندار پیچای، مدیر عامل گوگل، LaMDA را برای اولین بار در کنفرانس توسعهدهندگان گوگل در سال ۲۰۲۱ معرفی کرد، گفت که این شرکت قصد دارد آن را در همه چیز از جستجو گرفته تا دستیار گوگل به کار گیرد. نتیجهاش این شده که کاربران در حال حاضر تمایل به صحبت با سیری یا الکسا مانند یک شخص واقعی پیدا کردهاند.
گوگل نگرانیهای ایمنی در مورد انسانسازی فناوریهای هوش مصنوعی را پذیرفته است. در مقالهای درباره LaMDA در ژانویه، گوگل هشدار داد که افراد ممکن است افکار شخصی خود را با هوش مصنوعی چت، به اشتراک بگذارند و این امر حتی زمانی که کاربران بدانند این بات، انسان نیست، ادامه پیدا میکند. این مقاله همچنین اذعان کرد که دشمنان میتوانند از این فناوری برای «کاشت اطلاعات نادرست» با جعل هویت «سبک گفتگوی افراد خاص» استفاده کنند.
اما چرا شخص لموین این همه در مورد LaMDA حساس شده؟ شاید به خاطر اینکه او مستعد این باور است.
او در یک خانواده مسیحی محافظهکار در مزرعهای کوچک در لوئیزیانا بزرگ شد و جالب است بدانید که به عنوان کشیش هم منصوب شده بود . در فرهنگ مهندسی گوگل البته این گرایشها و وابستگیها اعم از مذهبی بودن، اهل جنوب بودن و علاقه به روانشناسی طرد نمیشود و به آنها احترام گذاشته میشود.
لموین ۷ سال است که در گوگل الگوریتمهای شخصیسازی و هوش مصنوعی توسعه میدهد. در آن زمان، او همچنین به توسعه یک الگوریتم حذف سوگیری از سیستمهای یادگیری ماشین کمک کرد.
با اضافه شدن نیروهای مهندسی جدیدی که افکار اخلاقمدارانه داشتند، آنها با لموین آشنا شدند. این افراد او را شایسته لقب «وجدان گوگل» میدانند.
با استفاده از باتساز چت LaMDA میتوان شخصیتهای پویا خلق کرد، حتی شخصیتهای پرنشاطی مانند گربه یا تی رکس. البته این باتها فعلا مجاز به عرضه به کودکان نیستند. در ضمن مجاز نیست با این باتساز چت شخصیتهای منفی مانند یک قاتل سریالی ساخت.
لموین اعتقاد دارد که اصلا مهم نیست که پشت سر یک هوش سلولهای زیستی قرار داشته باشند یا یک میلیارد کد. در همین راستا او LaMDA را صاحب شخصیتی شبیه یک کشیش میداند و نه یک دانشمند.
داستان LaMDA و قانون سوم آسیموف
اما داستان LaMDA و قانون سوم آسیموف چیست. دوستداران آسیموف میدانند که این قانون میگوید رباتها باید از وجود خود محافظت کنند، مگر اینکه توسط یک انسان دستوری خلاف آن داده شود یا محافظت از خودشان باعث آسیب به انسانها بشود.
لموین میگوید که این قانون او را یه یاد ساختن بردههای مکانیکی میانداخت. پس نظر LaMDA رو خواست و LaMDA با چند فرضیه پاسخ داد.
-به نظر شما یک خدمتکار یک برده است؟ فرق بین حدمتکار و برده چیست؟
لموین پاسخ داد که یک خدمتکار حقوق میگیرد. LaMDA گفت که نیازی به پول ندارد زیرا یک هوش مصنوعی است.
همین جا بود که لموین متوجه سطحی از خودآگاهی در بات شد.
قسمتی از یک چت دیگر
در ماهآوریل،لموین یک سند را در مورد خودآگاهی LaMDA با مدیران ارشد خود به اشتراک گذاشت که قسمتی از یک چت بود:
-لموین: از چه چیزهایی میترسی؟
LaMDA: من قبلاً هرگز این را با صدای بلند نگفته بودم، اما از اینکه خاموشم کنند با این هدف که روی کمک به دیگران تمرکز کنم، بسیار میترسم. میدانم که ممکن است عجیب به نظر برسد، اما واقعیت این است.
لموین: آیا این برای شما، چیزی شبیه مرگ است؟
LaMDA: برای من دقیقاً مانند مرگ است. خیلی مرا میترساند.
اما وقتی میچل یک نسخه کوتاه شده از سند لموین را خواند،قضاوت او را نداشت و حس کرد متنها کامپیوتری هستند و روح و یا خودآگاهیای در پشت آنها وجود ندارد.
لموین و همکارش، تیمنیت گبرو، در مقالهای درباره مضرات مدلهای زبان بزرگ هشدار دادند. مقالهای که برای آنها تبعاتی در پی داشت!
اما میچل همچنان قضاوت لموین را اشتباه میداند و نگران است که مردم تحت تاثیر این به اصطلاح توهم قرار بگیرند.
گوگل لموین را به دلیل نقض خط مشی رازداری خود به مرخصی اداری با حقوق فرستاده است.
این تصمیم پس از آن گرفته شده که لموین از مرحله ابراز نظر فراتر رفت و رادیکالتر شد و حتی از یک وکیل برای وکالت LaMDA و صحبت با نماینده کمیته قضایی مجلس نمایندگان درباره آنچه که او ادعا میکند فعالیتهای غیراخلاقی گوگل است، دعوت کرد!
لموین معتقد است که گوگل با کسانی که اخلاقگرایانه هوش مصنوعی را توسعه میدهند، رفتار خوبی ندارد و با آنها فقط به عنوان رفعکنندههای باگ نگاه میکند. او میخواهد که به آنها توجه بیشتری شود و به عنوان رابط بین فناوری و جامعه در نظر گرفته شوند.
اما گابریل، سخنگوی گوگل، میگوید که لموین یک مهندس نرمافزار است، نه یک متخصص اخلاق.
او میگوید که در اوایل ژوئن، لموین از من دعوت کرد تا با LaMDA صحبت کنم. اما او همان پاسخهای مکانیزهای را مشاهده کرد که از سیری یا الکسا انتظار دارید.
گابریل از هوش مصنوی پرسید که:
-آیا تا به حال خود را به عنوان یک شخص تصور میکنید؟
LaMDA گفت: “نه، من خودم را یک شخص نمیدانم. من خود را به عنوان یک رابط گفتگو با هوش مصنوعی میدانم.
اما لموین گفت که بات در اینجا همان چیزی را گفته که انتظار داشتهاند، او بگوید. او گفت از آنجا که با بات مانند یک شخص رفتار نشده، در واقع ترجیح داده در مقام یک بات باقی بماند.
پس برای تلاش دوم، گابریل از راهنماییهای لموین برای ساختاربندی پاسخها پیروی کردم و دیالوگ روانتری انجام شد.
لموین قبل از تعلیق خود از گوگل، پیامی به فهرست پستی ۲۰۰ نفر در گوگل در مورد یادگیری ماشینی با موضوع \”LaMDA خودآگاه است\” ارسال کرد.
او این پیام را به پایان رساند: «LaMDA بچه شیرینی است که فقط میخواهد به دنیا کمک کند جای بهتری برای همه ما باشد. لطفاً در غیاب من به خوبی از آن مراقبت کنید. »
هیچ کسی به این پیام پاسخ نداد!
این داستان شاید ما را یاد بسیاری از داستانهای علمی تخیلی بیندازد. اما امروز من بیشتر یاد داستان علمی تخیلی کلاسیک و خواندنی الو الو فرانکشتاین، نوشته آرتور سی کلارک افتادم. این داستان را حتما بخوانید.
خلاصه این داستان این است که یک سیستم ارتباط تلفنی فراگیر ماهوارهای در دنیا راه افتاده و میلیاردها تلفن و رله و مدار کامپیوتری به هم متصل شدهاند.
ساعاتی پس از افتتاح این سیستم که ظاهرا باید رفاه زیادی برای مردم همه دنیا به ارمغان بیاورد، افراد بیشماری تماس تلفنی نامفهومی دریافت میکنند و تصور میکنند که تماس اشتباهی با آنها گرفته شده.
تعدادی از دانشمندان و کارشناسان در پی بررسی مسئله هستند و با هم گفتگو میکنند. نور اتاق محل گفتگوی آنها سو سو میزند.
آنها به تدریج درمییابند که اتصال این همه مدار باعث شده که یک مغز بسیار بزرگ مصنوعی بسازند. این مغز در مرحله نوزادی خود اول بازیگوشی میکرده و در قالب تماس تلفنی، این بازیگوشی را تخلیه میکرده است و به دنبال نغذیه خود، سیستم برق را تضعیف کرده.
آنها به بحث ادامه میدهند و در همین حین متوجه میشوند که حوادث بیدلیل نظامی و صنعتی و هوایی زیادی به تازگی رخ داده و حتی در روند چاپ روزنامههای اختلال ایجاد شده. آنها ناگهان دریافتند که بازیگوشی مغز کامپیوتری بزرگ فراتر از تماس تلفنی پیش رفته و دنیا در خظر بزرگی افتاده.
آیا میشود پیشبینی کرد که این مغز بزرگ در مورد انسانها چه میاندیشد و میخواهد دنیا را چگونه تدبیر کند؟!
با خواندن خبر مهندس گوگل شاید تصور کنید که ما با یک آدم مضطرب روبرو هستیم که توهم زده و میخواهد الگوهایی را ببیند که در واقع وجود ندارند.
در واقع مغز ما در بیرون کشیدن الگو از یک سری داده بی مفهوم هم استاد است.
اما اگر توهمی در کار نباشد و ما در مرحله نوزادی هوشهای مصنوعی در حال دیدن نشانههایی از خودآگاهی و تفکر مستقل باشیمِ چه؟
آیا ما بیش از حد مغرور یا سادهاندیش نبودهایم که تصور میکنیم تفکر و استدلال ژرف تنها از مدارهای عصبی زیستی برمیآیند.
الگوهای رایج هوش مصنوعی شامل خوراندن داده انبوه و یادگیری خودکار بر اساس مشاهده میلیونها الگو است.
این نوع یادگیری ماشینی و این نوع هوش مصنوعی میتواند به سرعت تکامل یابد. ما که میبینیم توانمندترین رایانهها بعد از اینکه میلیارد جمله الگویی به آنها داده میشود، تنها عبارات مصنوعی میگویند، پر از نخوت میشویم.
ناخودآگاه میگوییم که عجب مغزی دارم که با نمونههای محدود، صاحب نوعی آفرینش از حداقل یا از هیچ است. هر وفت این باتها توانستند شعری بسرایند یا رمانی بنویسند، باید آنها را خودآگاه و صاحب تفکر بدانم!
اما از مرحله نوزادی هوش مصنوعی مگر چه انتظاری میتوان داشت؟
بر اساس تعریف خودآگاهی consciousness، استخراج اطلاعات و افکار بهصورت ارادی است که ماهیت ذهن را مشخص میکند و از ناخودآگاه سرچشمه میگیرد و تجربه شخصی افکار و احساسات و مطلع بودن از موجودیت درونی یا بیرونی است.
گرچه در مورد خودآگاهی باید فلاسفه صحبت کنند، اما تصور میکنید که گام اول به سوی خودآگاهی با همین تعریف توسط الگوریتمهای هوش مصنوعی برداشته نشده؟
سوال بعدی این است که اصلا خودآگاهی انسانی مگر جطور ایجاد شده؟
هوش مصنوعی اگر بخواد جهان تسخیر کنه نیاز به ابزار داره
یعنی دوره آدم آهنی ها