.

آیا حباب هوش مصنوعی در آستانه ترکیدن است؟ نگاهی واقع‌بینانه به مدل‌های زبانی بزرگ

این روزها خبرهایی از گوشه و کنار می‌رسد که آینده مدل‌های زبانی بزرگ مثل چت‌بات‌ها چندان روشن نیست. «گَری مارکِس» (Gary Marcus)، یکی از منتقدان مشهور حوزه هوش مصنوعی، بار دیگر به این موضوع پرداخته و هشدار داده که ارزش‌گذاری‌های فوق‌العاده بالای این فناوری‌ها ممکن است بیشتر یک حباب باشد که به‌زودی می‌ترکد. شرکت‌هایی مثل اوپن‌ای‌آی (OpenAI) و مایکروسافت به دلیل انتظاراتی که از مدل‌های زبانی بزرگ دارند، ارزش‌گذاری‌های بالایی دارند. تصور می‌شود که این مدل‌ها با گسترش و توسعه به «هوش مصنوعی عمومی» (AGI) تبدیل خواهند شد؛ اما مارکِس معتقد است این تصور خیلی خوش‌بینانه است و پایه‌ای در واقعیت ندارد.

مارکِس توضیح می‌دهد که مدل‌های زبانی بزرگ در اصل فقط بر اساس آمار زبان کار می‌کنند و نمی‌توانند واقعیت را درک کنند. این باعث می‌شود که گاهی اوقات اطلاعات نادرست یا حتی عجیبی ارائه دهند، که اصطلاحاً به آن «توهم» (Hallucination) گفته می‌شود. این مشکل صرفاً با افزایش قدرت پردازشی و توسعه سخت‌افزار حل نمی‌شود؛ چراکه ریشه در نحوه عملکرد این مدل‌ها دارد، و آن‌ها اساساً نمی‌توانند فرایندهای فکری و منطقی انسانی را شبیه‌سازی کنند.

اقتصاد دشوار مدل‌های زبانی بزرگ

از سوی دیگر، مارکِس به مسائل اقتصادی این مدل‌ها نیز اشاره می‌کند. هزینه‌های آموزش و توسعه این مدل‌ها به حدی بالاست که برای بسیاری از شرکت‌ها صرفه اقتصادی ندارد. با افزایش مقیاس، هزینه‌ها هم افزایش می‌یابد، و ممکن است در نهایت این مدل‌ها به سطحی برسند که دیگر سودآور نباشند. به همین دلیل، احتمال دارد که این فناوری به‌زودی به یک محصول عمومی تبدیل شود که شرکت‌ها مجبور شوند با کاهش قیمت، مشتری جذب کنند، و همین مسئله می‌تواند سوددهی را کاهش دهد.

مارکِس حتی پیش‌بینی می‌کند که شرکت‌هایی مثل ان‌ویدیا (NVidia)، که تولیدکننده تراشه‌های قدرتمند برای هوش مصنوعی هستند، هم ممکن است با کاهش ارزش مواجه شوند، زیرا ارزش فعلی‌شان بر اساس انتظاراتی است که ممکن است واقعی نباشند.

آیا ماشین‌ها می‌توانند شبیه انسان فکر کنند؟

سؤال اساسی اینجاست: شاید دلیل این‌که نمی‌توانیم مشکل «توهمات» را در مدل‌های هوش مصنوعی حل کنیم این باشد که اساساً امکان شبیه‌سازی ذهن انسان وجود ندارد. مارکِس و دیگر منتقدان بر این باورند که مدل‌های زبانی بزرگ، به دلیل روش ساختار و پردازش اطلاعات، هرگز نمی‌توانند به سطحی از فهم و درک واقعی برسند و تنها قادر به بازتولید جملاتی هستند که آماری درست به نظر می‌رسند.

پیامدهای این چالش در دنیای واقعی

در عمل، بسیاری از شرکت‌ها که برای کاهش هزینه‌ها به هوش مصنوعی روی آورده‌اند و نویسندگان و ویراستاران انسانی را کنار گذاشته‌اند، اکنون با مشکلات جدی روبرو هستند. این شرکت‌ها دریافته‌اند که خلاقیت، منطق و قضاوت انسانی را نمی‌توان در ماشین‌ها به‌سادگی جایگزین کرد. بدون ورودی مداوم از سوی انسان‌ها، کیفیت خروجی مدل‌های زبانی بزرگ به مرور زمان کاهش می‌یابد؛ اتفاقی که به «فروپاشی مدل» معروف است. این چالش‌ها نشان می‌دهند که اگرچه هوش مصنوعی می‌تواند ابزاری قدرتمند باشد، اما هنوز به تعامل و همکاری انسانی وابسته است.

شاید اکنون زمان آن باشد که نگاه واقع‌بینانه‌تری به هوش مصنوعی داشته باشیم و انتظاراتمان را منطقی‌تر کنیم. به نظر می‌رسد که برای حفظ کیفیت و توسعه بیشتر، به ترکیب هوش مصنوعی و خلاقیت انسانی نیازمندیم، نه جایگزینی کامل.


  این نوشته‌ها را هم بخوانید

منبع
mindmatters

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
[wpcode id="260079"]