آیا حباب هوش مصنوعی در آستانه ترکیدن است؟ نگاهی واقعبینانه به مدلهای زبانی بزرگ

این روزها خبرهایی از گوشه و کنار میرسد که آینده مدلهای زبانی بزرگ مثل چتباتها چندان روشن نیست. «گَری مارکِس» (Gary Marcus)، یکی از منتقدان مشهور حوزه هوش مصنوعی، بار دیگر به این موضوع پرداخته و هشدار داده که ارزشگذاریهای فوقالعاده بالای این فناوریها ممکن است بیشتر یک حباب باشد که بهزودی میترکد. شرکتهایی مثل اوپنایآی (OpenAI) و مایکروسافت به دلیل انتظاراتی که از مدلهای زبانی بزرگ دارند، ارزشگذاریهای بالایی دارند. تصور میشود که این مدلها با گسترش و توسعه به «هوش مصنوعی عمومی» (AGI) تبدیل خواهند شد؛ اما مارکِس معتقد است این تصور خیلی خوشبینانه است و پایهای در واقعیت ندارد.
مارکِس توضیح میدهد که مدلهای زبانی بزرگ در اصل فقط بر اساس آمار زبان کار میکنند و نمیتوانند واقعیت را درک کنند. این باعث میشود که گاهی اوقات اطلاعات نادرست یا حتی عجیبی ارائه دهند، که اصطلاحاً به آن «توهم» (Hallucination) گفته میشود. این مشکل صرفاً با افزایش قدرت پردازشی و توسعه سختافزار حل نمیشود؛ چراکه ریشه در نحوه عملکرد این مدلها دارد، و آنها اساساً نمیتوانند فرایندهای فکری و منطقی انسانی را شبیهسازی کنند.
اقتصاد دشوار مدلهای زبانی بزرگ
از سوی دیگر، مارکِس به مسائل اقتصادی این مدلها نیز اشاره میکند. هزینههای آموزش و توسعه این مدلها به حدی بالاست که برای بسیاری از شرکتها صرفه اقتصادی ندارد. با افزایش مقیاس، هزینهها هم افزایش مییابد، و ممکن است در نهایت این مدلها به سطحی برسند که دیگر سودآور نباشند. به همین دلیل، احتمال دارد که این فناوری بهزودی به یک محصول عمومی تبدیل شود که شرکتها مجبور شوند با کاهش قیمت، مشتری جذب کنند، و همین مسئله میتواند سوددهی را کاهش دهد.
مارکِس حتی پیشبینی میکند که شرکتهایی مثل انویدیا (NVidia)، که تولیدکننده تراشههای قدرتمند برای هوش مصنوعی هستند، هم ممکن است با کاهش ارزش مواجه شوند، زیرا ارزش فعلیشان بر اساس انتظاراتی است که ممکن است واقعی نباشند.
آیا ماشینها میتوانند شبیه انسان فکر کنند؟
سؤال اساسی اینجاست: شاید دلیل اینکه نمیتوانیم مشکل «توهمات» را در مدلهای هوش مصنوعی حل کنیم این باشد که اساساً امکان شبیهسازی ذهن انسان وجود ندارد. مارکِس و دیگر منتقدان بر این باورند که مدلهای زبانی بزرگ، به دلیل روش ساختار و پردازش اطلاعات، هرگز نمیتوانند به سطحی از فهم و درک واقعی برسند و تنها قادر به بازتولید جملاتی هستند که آماری درست به نظر میرسند.
پیامدهای این چالش در دنیای واقعی
در عمل، بسیاری از شرکتها که برای کاهش هزینهها به هوش مصنوعی روی آوردهاند و نویسندگان و ویراستاران انسانی را کنار گذاشتهاند، اکنون با مشکلات جدی روبرو هستند. این شرکتها دریافتهاند که خلاقیت، منطق و قضاوت انسانی را نمیتوان در ماشینها بهسادگی جایگزین کرد. بدون ورودی مداوم از سوی انسانها، کیفیت خروجی مدلهای زبانی بزرگ به مرور زمان کاهش مییابد؛ اتفاقی که به «فروپاشی مدل» معروف است. این چالشها نشان میدهند که اگرچه هوش مصنوعی میتواند ابزاری قدرتمند باشد، اما هنوز به تعامل و همکاری انسانی وابسته است.
شاید اکنون زمان آن باشد که نگاه واقعبینانهتری به هوش مصنوعی داشته باشیم و انتظاراتمان را منطقیتر کنیم. به نظر میرسد که برای حفظ کیفیت و توسعه بیشتر، به ترکیب هوش مصنوعی و خلاقیت انسانی نیازمندیم، نه جایگزینی کامل.
این نوشتهها را هم بخوانید