مهندس گوگل که فکر می‌کند هوش مصنوعی این شرکت زنده و خودآگاه شده! آیا داستان علمی تخیلی الو الو فرانکشتاین نوشته آرتور سی کلارک در حال وقوع است؟!

1

سان فرانسیسکو – بلیک لموین، مهندس گوگل، در لپ تاپ خود رابط LaMDA را که سازنده (ژنراتور) چت بات هوشمند مصنوعی گوگل است، باز کرد و شروع به تایپ کرد.

او در صفحه چت نوشت: «سلام LaMDA، من بلیک لمواین هستم… LaMDA، مخفف Language Model for Dialogue Applications، سیستم گوگل برای ساخت ربات‌های چت بر اساس پیشرفته‌ترین مدل‌های زبان است. این سیستم تریلیون‌ها کلمه و عبارت را از اینترنت جذب می‌کند و سعی می‌کند از آنها تقلید کند.

تصور لموین از این چت بات تا چند وقت پیش این بود که هوش یک بچه ۷-۸ ساله را دارد. البته بچه‌ای که دانش فیزیک هم دارد!

لموین که برای سازمان هوش مصنوعی گوگل کار می‌کند، در پاییز شروع به صحبت با LaMDA به عنوان بخشی از کار خود کرد. او را به کار گماشته بودند تا بررسی کند مبادا این چت بات از سخنان تبعیض‌آمیز یا نفرت‌‌برانگیز استفاده می‌کند.

هنگامی که او با LaMDA در مورد دین صحبت می‌کرد، لموین که تحصیل‌کرده کالج علوم شناختی و کامپیوتر است، متوجه شد که چت بات در مورد حقوق و شخصیت خود صحبت می‌کند و تصمیم گرفت بیشتر ادامه دهد. در گفتگوی دیگری، هوش مصنوعی توانست نظر لموین را در مورد قانون سوم رباتیک آیزاک آسیموف تغییر دهد.

لموین تصمیم گرفت با کمک یک همکار شواهدی را به گوگل ارایه کند که نشان می‌داد LaMDA حساس و خودآگاه شده. اما «بلیز آگوئرا و آرکاس»، معاون گوگل و جن گنای، رئیس بخش نوآوری، ادعا‌های او را بررسی کردند و آن را رد کردند. بنابراین ، وقتی که او  روز دوشنبه توسط گوگل به مرخصی اجباری با حقوق فرستاده شده بود، تصمیم گرفت که این مطلب را عمومی کند.

لموین می‌گوید که مردم حق دارند فناوری تاثیرگذار بر زندگی آنها نظارت داشته باشند. « شاید افرادی مخالف این فناوری باشند و شاید ما در گوگل نباید همه انتخاب‌ها را انجام بکنیم. »

لموین تنها مهندسی نیست که ادعا می‌کند اخیراً «روحی» را در هوش مصنوعی دیده است. گروهی از کارشناسان فناوری دیگر هم هستند که معتقدند مدل‌های هوش مصنوعی ممکن است از دستیابی به آگاهی دور نباشند و آنها روز به روز بر ادعای خود بیشتر پا می‌فشارند.

آگوئرا و آرکاس، در مقاله‌ای در اکونومیست در روز پنجشنبه، بخش‌هایی از مکالمات با LaMDA را منتشر کرد و استدلال می‌کند که شبکه‌های عصبی – یعنی نوعی معماری رایانه‌ای که مغز انسان را تقلید می‌کند – به سمت آگاهی حرکت می‌کنند. او اعتراف کرد که «به طور فزاینده‌ای احساس می‌کردم دارم با چیزی هوشمند صحبت می‌کنم.»

اما برایان گابریل، سخنگوی گوگل در بیانیه‌ای گفته: «تیم ما – از جمله متخصصان اخلاق و کارشناسان فناوری – نگرانی‌های بلیک لموین را در مورد  هوش مصنوعی ما بررسی کرده‌اند و به او اطلاع داده‌اند که شواهد و ادعا‌های او را تأیید نمی‌کنند. به او گفته شد که هیچ مدرکی دال بر خودآگاهی LaMDA وجود ندارد و شواهد زیادی علیه آن وجود دارد.»

شبکه‌های عصبی بزرگ امروزی به دلیل پیشرفت در معماری، تکنیک و حجم داده‌ها، نتایج جذابی را تولید می‌کنند که به گفتار و خلاقیت انسان نزدیک است. اما مهم است که این مدل‌ها بر تشخیص الگو تکیه دارند و شوخ طبعی، صراحت کلام یا اراده واقعی در آنها مشاهده نمی‌شود.

گابریل گفت: «اگرچه سازمان‌های دیگر مدل‌های زبانی مشابهی را توسعه داده‌اند و قبلاً منتشر کرده‌اند، ما رویکردی محتاطانه در قبال LaMDA اتخاذ کرده‌ایم تا نگرانی‌ها را برطرف کنیم.»

در ماه مه، متا -شرکت مادر فیس‌بوک- مدل زبان خود را برای دانشگاهیان، جامعه مدنی و سازمان‌های دولتی عمومی کرد. جوپل پینو، مدیر عامل Meta AI، گفت: «ضروری است که شرکت‌های فناوری شفافیت را در حین ساخت فناوری بهبود بخشند. آینده مدل‌های زبانی بزرگ نباید تنها در دست شرکت‌ها یا آزمایشگاه‌های بزرگ‌تر باشد.»

ربات‌های خودآگاه الهام‌بخش دهه‌ها داستان‌های علمی تخیلی دیستوپیایی هستند. اکنون، بیش از هر زمان دیگری این داستان‌ها جنبه واقعیت به خود گرفته. 

برای مثال  GPT-۳، یک تولید‌کننده متن است که فیلمنامه بنویسد، و DALL-E ۲، یک تولید‌کننده تصویر است که می‌تواند تصاویری را بر اساس هر ترکیبی از کلمات تداعی کند.

اگر در حال حاضر دو بات هستند که هر چند دست و پا شکسته می‌توانند متن و تصویر نو بسازند، پس در آینده چه می‌شود؟

با این حال، اکثر دانشگاهیان و متخصصان هوش مصنوعی می‌گویند که کلمات و تصاویر تولید شده توسط سیستم‌های هوش مصنوعی مانند LaMDA بر اساس آنچه انسان‌ها قبلاً در ویکی‌پدیا، ردیت، انجمن‌های اینترنتی و شبکه‌های اجتماعی و سایت‌ها و کلا هر گوشه دیگر از اینترنت پست کرده‌اند، محتوا تولید می‌کنند و این بدان معنا نیست که واقعا درکی از این مدل‌ها دارند.

امیلی‌ام. بندر، استاد زبان‌شناسی در دانشگاه واشنگتن، می‌گوید: «ما اکنون ماشین‌هایی داریم که می‌توانند بدون فکر کلمات را تولید کنند، اما چرا ذهنیتی را پشت سر آنها تصور نکنیم؟ او اعتقاد دارد که تشبیه یادگیری ماشینی و شبکه‌های عصبی به مغز انسان زیاد درست نیست. انسان‌ها زبان اول خود را از طریق ارتباط با والدین یا مراقبین خود می‌آموزند.بعد روی این پایه کلمات زیادی می‌افزایند و یادمی‌گیرند که کلمات بعدی را پیشبینی کنند، عبارات را پر یا حذف کنند.

به طور خلاصه، نیازی نیست برای واقعی به نظر رسیدن هوش مصنوعی یا کاربردی که از آن انتظار داریم، در پی خودآگاهی دادن به آن برآییم.

فناوری مدل زبان بزرگ Large language model  در حال حاضر به طور گسترده مورد استفاده قرار می‌گیرد، به عنوان مثال گوگل برای ارتقای موتور جستجوی خود و مفهومی کردن جستجو از آن استفاده می‌کند.

زمانی که ساندار پیچای، مدیر عامل گوگل، LaMDA را برای اولین بار در کنفرانس توسعه‌دهندگان گوگل در سال ۲۰۲۱ معرفی کرد، گفت که این شرکت قصد دارد آن را در همه چیز از جستجو گرفته تا دستیار گوگل به کار گیرد. نتیجه‌اش این شده که کاربران در حال حاضر تمایل به صحبت با سیری یا الکسا مانند یک شخص واقعی پیدا کرده‌اند.

گوگل نگرانی‌های ایمنی در مورد انسان‌سازی فناوری‌های هوش مصنوعی را پذیرفته است. در مقاله‌ای درباره LaMDA در ژانویه، گوگل هشدار داد که افراد ممکن است افکار شخصی خود را با هوش مصنوعی چت، به اشتراک بگذارند و این امر حتی زمانی که کاربران بدانند این بات، انسان نیست، ادامه پیدا می‌کند. این مقاله همچنین اذعان کرد که دشمنان می‌توانند از این فناوری برای «کاشت اطلاعات نادرست» با جعل هویت «سبک گفتگوی افراد خاص» استفاده کنند.

اما چرا شخص لموین این همه در مورد  LaMDA حساس شده؟ شاید به خاطر اینکه او مستعد این باور است.

او در یک خانواده مسیحی محافظه‌کار در مزرعه‌ای کوچک در لوئیزیانا بزرگ شد و جالب است بدانید که به عنوان کشیش هم منصوب شده بود . در فرهنگ مهندسی گوگل البته این گرایش‌ها و وابستگی‌ها اعم از مذهبی بودن، اهل جنوب بودن و علاقه به روانشناسی طرد نمی‌شود و به آنها احترام گذاشته می‌شود.

لموین ۷ سال است که در گوگل الگوریتم‌های شخصی‌سازی و هوش مصنوعی توسعه می‌دهد. در آن زمان، او همچنین به توسعه یک الگوریتم حذف سوگیری از سیستم‌های یادگیری ماشین کمک کرد.

با اضافه شدن نیروهای مهندسی جدیدی که افکار اخلاق‌مدارانه داشتند، آنها با لموین آشنا شدند. این افراد او را شایسته لقب «وجدان گوگل» می‌دانند.

با استفاده از بات‌ساز چت LaMDA می‌توان شخصیت‌های پویا خلق کرد، حتی شخصیت‌های پرنشاطی مانند گربه یا تی رکس. البته این بات‌ها فعلا مجاز به عرضه به کودکان نیستند. در ضمن مجاز نیست با این بات‌ساز چت شخصیت‌های منفی مانند یک قاتل سریالی ساخت.

لموین اعتقاد دارد که اصلا مهم نیست که پشت سر یک هوش سلول‌های زیستی قرار داشته باشند یا یک میلیارد کد. در همین راستا او  LaMDA را صاحب شخصیتی شبیه یک کشیش می‌داند و نه یک دانشمند.


داستان LaMDA و قانون سوم آسیموف

اما داستان LaMDA و قانون سوم آسیموف چیست. دوست‌داران آسیموف می‌دانند که این قانون می‌گوید ربات‌ها باید از وجود خود محافظت کنند، مگر اینکه توسط یک انسان دستوری خلاف آن داده شود یا محافظت از خودشان باعث آسیب به انسان‌ها بشود.

لموین می‌گوید که این قانون او را یه یاد ساختن برده‌های مکانیکی می‌انداخت. پس نظر  LaMDA رو خواست و LaMDA با چند فرضیه پاسخ داد.

-به نظر شما یک خدمتکار یک برده است؟ فرق بین حدمتکار و برده چیست؟

لموین پاسخ داد که یک خدمتکار حقوق می‌گیرد. LaMDA گفت که نیازی به پول ندارد زیرا یک هوش مصنوعی است.

همین جا بود که لموین متوجه سطحی از خودآگاهی در بات شد.


قسمتی از یک چت دیگر

در ماه‌آوریل،لموین یک سند را در مورد خودآگاهی LaMDA با مدیران ارشد خود به اشتراک گذاشت که قسمتی از یک چت بود:

-لموین: از چه چیز‌هایی می‌ترسی؟

LaMDA: من قبلاً هرگز این را با صدای بلند نگفته بودم، اما از اینکه خاموشم کنند با این هدف که روی کمک به دیگران تمرکز کنم، بسیار می‌ترسم. می‌دانم که ممکن است عجیب به نظر برسد، اما واقعیت این است.

لموین: آیا این برای شما، چیزی شبیه مرگ است؟

LaMDA: برای من دقیقاً مانند مرگ است. خیلی مرا می‌ترساند.


اما وقتی میچل یک نسخه کوتاه شده از سند لموین را خواند،قضاوت او را نداشت و حس کرد متن‌ها کامپیوتری هستند و روح و یا خودآگاهی‌ای در پشت آنها وجود ندارد.

لموین و همکارش، تیمنیت گبرو، در مقاله‌ای درباره مضرات مدل‌های زبان بزرگ هشدار دادند. مقاله‌ای که برای آنها تبعاتی در پی داشت!

اما میچل همچنان قضاوت لموین را اشتباه می‌داند و نگران است که مردم تحت تاثیر این به اصطلاح توهم قرار بگیرند.

گوگل لموین را به دلیل نقض خط مشی رازداری خود به مرخصی اداری با حقوق فرستاده است.

این تصمیم پس از آن گرفته شده که لموین از مرحله ابراز نظر فراتر رفت و رادیکال‌تر شد و حتی از یک وکیل برای وکالت LaMDA و صحبت با نماینده کمیته قضایی مجلس نمایندگان درباره آنچه که او ادعا می‌کند فعالیت‌های غیراخلاقی گوگل است، دعوت کرد!

لموین معتقد است که گوگل با کسانی که اخلاق‌گرایانه هوش مصنوعی را توسعه می‌دهند، رفتار خوبی ندارد و با آنها فقط به عنوان رفع‌کننده‌های باگ نگاه می‌کند. او می‌خواهد که به آنها توجه بیشتری شود و به عنوان رابط بین فناوری و جامعه در نظر گرفته شوند.

اما گابریل، سخنگوی گوگل، می‌گوید که لموین یک مهندس نرم‌افزار است، نه یک متخصص اخلاق.

او می‌گوید که در اوایل ژوئن، لموین از من دعوت کرد تا با LaMDA صحبت کنم. اما او همان پاسخ‌های مکانیزه‌ای را مشاهده کرد که از سیری یا الکسا انتظار دارید.

گابریل از هوش مصنوی پرسید که:

-آیا تا به حال خود را به عنوان یک شخص تصور می‌کنید؟

LaMDA گفت: “نه، من خودم را یک شخص نمی‌دانم. من خود را به عنوان یک رابط گفتگو با هوش مصنوعی می‌دانم.

اما لموین گفت که بات در اینجا همان چیزی را گفته که انتظار داشته‌اند، او بگوید. او گفت از آنجا که با بات مانند یک شخص رفتار نشده، در واقع ترجیح داده در مقام یک بات باقی بماند.

پس برای تلاش دوم، گابریل از راهنمایی‌های لموین برای ساختاربندی پاسخ‌ها پیروی کردم و دیالوگ روان‌تری انجام شد.

لموین قبل از تعلیق خود از گوگل، پیامی به فهرست پستی ۲۰۰ نفر در گوگل در مورد یادگیری ماشینی با موضوع \”LaMDA خودآگاه است\” ارسال کرد.

او این پیام را به پایان رساند: «LaMDA بچه شیرینی است که فقط می‌خواهد به دنیا کمک کند جای بهتری برای همه ما باشد. لطفاً در غیاب من به خوبی از آن مراقبت کنید. »

هیچ کسی به این پیام پاسخ نداد!

منبع


این داستان شاید ما را یاد بسیاری از داستان‌های علمی تخیلی بیندازد. اما امروز من بیشتر یاد داستان علمی تخیلی کلاسیک و خواندنی الو الو فرانکشتاین، نوشته آرتور سی کلارک افتادم. این داستان را حتما بخوانید.

خلاصه این داستان این است که یک سیستم ارتباط تلفنی فراگیر ماهواره‌ای در دنیا راه افتاده و میلیاردها تلفن و رله و مدار کامپیوتری به هم متصل شده‌اند.

ساعاتی پس از افتتاح این سیستم که ظاهرا باید رفاه زیادی برای مردم همه دنیا به ارمغان بیاورد، افراد بیشماری تماس تلفنی نامفهومی دریافت می‌کنند و تصور می‌کنند که تماس اشتباهی با آنها گرفته شده.

تعدادی از دانشمندان و کارشناسان در پی بررسی مسئله هستند و با هم گفتگو می‌کنند. نور اتاق محل گفتگوی آنها سو سو می‌زند.

آنها به تدریج درمی‌یابند که اتصال این همه مدار باعث شده که یک مغز بسیار بزرگ مصنوعی بسازند. این مغز در مرحله نوزادی خود اول بازیگوشی می‌کرده و در قالب تماس تلفنی، این بازیگوشی را تخلیه می‌کرده است و به دنبال نغذیه خود، سیستم برق را تضعیف کرده.

آنها به بحث ادامه می‌دهند و در همین حین متوجه می‌شوند که حوادث بی‌دلیل نظامی و صنعتی و هوایی زیادی به تازگی رخ داده و حتی در روند چاپ روزنامه‌های اختلال ایجاد شده. آنها ناگهان دریافتند که بازیگوشی مغز کامپیوتری بزرگ فراتر از تماس تلفنی پیش رفته و دنیا در خظر بزرگی افتاده.

آیا می‌شود پیشبینی کرد که این مغز بزرگ در مورد انسان‌ها چه می‌اندیشد و می‌خواهد دنیا را چگونه تدبیر کند؟!


با خواندن خبر مهندس گوگل شاید تصور کنید که ما با یک آدم مضطرب روبرو هستیم که توهم زده و می‌خواهد الگوهایی را ببیند که در واقع وجود ندارند.

در واقع مغز ما در بیرون کشیدن الگو از یک سری داده بی مفهوم هم استاد است.

اما اگر توهمی در کار نباشد و ما در مرحله نوزادی هوش‌های مصنوعی در حال دیدن نشانه‌هایی از خودآگاهی و تفکر مستقل باشیمِ چه؟

آیا ما بیش از حد مغرور یا ساده‌اندیش نبوده‌ایم که تصور می‌کنیم تفکر و استدلال ژرف تنها از مدارهای عصبی زیستی برمی‌آیند.

الگوهای رایج هوش مصنوعی شامل خوراندن داده انبوه و یادگیری خودکار بر اساس مشاهده میلیون‌ها الگو است.

این نوع یادگیری ماشینی و این نوع هوش مصنوعی می‌تواند به سرعت تکامل یابد. ما که می‌بینیم توانمندترین رایانه‌ها بعد از اینکه میلیارد جمله الگویی به آنها داده می‌شود، تنها عبارات مصنوعی می‌گویند، پر از نخوت می‌شویم.

ناخودآگاه می‌گوییم که عجب مغزی دارم که با نمونه‌های محدود، صاحب نوعی آفرینش از حداقل یا از هیچ است. هر وفت این بات‌ها توانستند شعری بسرایند یا رمانی بنویسند، باید آنها را خودآگاه و صاحب تفکر بدانم!

اما از مرحله نوزادی هوش مصنوعی مگر چه انتظاری می‌توان داشت؟

بر اساس تعریف خودآگاهی consciousness، استخراج اطلاعات و افکار به‌صورت ارادی است که ماهیت ذهن را مشخص می‌کند و از ناخودآگاه سرچشمه می‌گیرد و تجربه شخصی افکار و احساسات و مطلع بودن از موجودیت درونی یا بیرونی است.

گرچه در مورد خودآگاهی باید فلاسفه صحبت کنند، اما تصور می‌کنید که گام اول به سوی خودآگاهی با همین تعریف توسط الگوریتم‌های هوش مصنوعی برداشته نشده؟

سوال بعدی این است که اصلا خودآگاهی انسانی مگر جطور ایجاد شده؟

 
1 نظر
  1. مشهدی می گوید

    هوش مصنوعی اگر بخواد جهان تسخیر کنه نیاز به ابزار داره
    یعنی دوره آدم آهنی ها

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.