هوش مصنوعی جدید گوگل می‌خواهد فراتر از جستجوی متنی برود

2

گوگل در کنفرانس توسعه‌دهندگان خود Google IO در ماه مه یک مدل هوش مصنوعی جدید برای جستجوی چند حالته به نام مدل یکپارچه چندکاره MUM (Multitask Unified Model) اعلام کرد. شب گذشته، این شرکت مجموعه‌ای از ویژگی‌های کاربردی برای کاربران انتهایی، از جمله جستجوی بصری را اعلام کرد که در ماه‌های آینده کم کم در دسترس قرار می‌گیرند.

در حال حاضر بر اساس عبارت جستجو، اطلاعات متنی مانند قطعات اطلاعاتی (اسنیپت) ویکی پدیا، متن ترانه‌ها یا فیلم دستور غذا در اختیار کاربران قرار می‌گیرد.

برای گام نهادن به مرحله بعدی فناوری جستجو، هدف آن است که با درک زمینه جستجو ، فراتر از عبارتی که استفاده کرده‌اید، نتایج جستجو در اختیار شما قرار داده شود.

اولین ویژگی که دیشب اعلام شد، جستجوی بصری است .وقتی به عکس یک پیراهن در تلفن خود نگاه می‌کنید، می‌توانید نماد لنز (علامت ذره‌بین) را برای جستجو کلیک کرده و از گوگل بخواهید الگوی یا طرح آن پیراهن را جستجو کند، اما روی یک جوراب یا کیف.

شما همچنین می‌توانید از لنز برای گرفتن عکس از قسمت شکسته دوچرخه یا قطعه لوله کشی در خانه خود  می‌توانید استفاده کنید و به سادگی “نحوه تعمیر” را جستجو کنید تا راهنما‌های ویدیویی در مورد این موضوعات را دریافت کنید. این ویژگی زمانی مفید است که حتی نام قسمت آسیب دیده را ندانید که می‌تواند جستجوی متنی را بسیار دشوار کند.

سفارش طراحی سایت در کارلنسر با قیمت توافقی
خرید ساعت سونتو و لوازم جانبی ساعت Suunto

گوگل همچنین سعی می‌کند چیزهای مرتبط بیشتری برای عباراتی که جستجو می‌کنید با بخش “چیز‌هایی که باید بدانید” نشان دهد. به عنوان مثال، هنگامی که “نقاشی اکریلیک” را جستجو می‌کنید، در صفحه نتیجه مواردی مانند “چگونه با نقاشی اکریلیک شروع کنیم” و “چه وسایل خانه را استفاده کنیم” برای این مورد نشان داده می‌شود. این قمار گوگل برای خواندن فراتر از عبارت جستجو است.

هوش مصنوعی جدید گوگل همچنین به شما کمک می‌کند تا در ماه‌های آینده نتایج جستجو را گسترش بدهید یا محدود و متمرکز کنید.

گوگل حتی در نظر دارد با MUM وقتی چیزی را جستجو می‌کنید، ویدئوهای سودمندی به شما نشان بدهد که ممکن است در عنوان و توضیح ویدئو، هیچ عبارتی مشابه کلیدواژه‌های مورد جستجوی شما نباشد.

در راه‌اندازی ویژگی‌های جدید چند موضوع برجسته است: استفاده گسترده از گوگل لنز، استفاده از یادگیری ماشینی برای یافتن ارتباط بین کلمات و یاری رساندن به شما در یافتن اطلاعات زمینه‌ای و مرتبط بیشتر در مورد یک موضوع.

با این حال، همانطور که دیتر بان از سایت The Verge اشاره کرده، گوگل باید به مشکلات مربوط به سوگیری در داده‌های یادگیری ماشین را حل کند.

منبع

   
2 نظرات
  1. سعید مهریاری می گوید

    این قسمت از ترجمه به نظرم ایراد اساسی دارد: (آنطوری که متوجه شدم اصلاح کردم ولی مطمئن نیستم کاملا درست باشد.)
    اولین ویژگی که دیشب اعلام شد، جستجوی بصری است. وقتی به عکس پیراهن [در] تلفن خود نگاه می‌کنید، می‌توانید نماد لنز [علامت ذره‌بین] را [برای] جستجو [کلیک] کرده و از گوگل بخواهید الگوی[طرح] آن [پیراهن] را جستجو کند، اما روی یک جوراب یا کیف.

    1. علیرضا مجیدی می گوید

      ممنون. بله مبهم نوشته بودم. ویرایش شد.

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.