فناوری EarCommand به کاربران این امکان را میدهد که با «لب زدن» و بدون نیاز به بلند بر زبان آوردن دستورها به دستگاههای هوشمند فرمان بدهند!
خیلی خوب است که روز به روز بیشتر میتوانیم به دستگاههای هوشمندمان فرمان صوتی بدهیم، اما بیان این دستورات با صدای بلند میتواند مشکلساز باشد.
سیستم EarCommand راه حلی خلاقانه است که به کمک آن میتوانید فقط با لب زدن فرمان بدهید.
ممکن است همان اول کار بپرسید که،صحبت کردن با تلفنهای هوشمند یا ساعتهای هوشمند چه ایرادی دارد؟ خوب، فرمانهای گفتاری میتوانند توسط افراد دیگر شنیده شوند (که نگرانیهای مربوط به حفظ حریم خصوصی را افزایش میدهند)، ممکن است توسط صداهای بلند پسزمینه محو شود، بهعلاوه تشخیص طیف گستردهای از صدای کاربران مختلف برای دستگاهها ممکن است دشوار باشد.
اینجاست که EarCommand وارد میشود.
این فناوری توسط تیمی از دانشگاه نیویورک در بوفالو به رهبری Yincheng Jin در حال توسعه است.
وقتی ما بیصدا کلمات مختلف را به زبان میآوریم یغنی مثلا لب میزنیم، فعالیتهای عضلانی و استخوانی رخ داده باعث تغییر شکل کانال گوش به شکلهای متفاوت میشود. الگوی تغییر شکل کانال گوش را با کلمات میتوان تطابق داد.
از نظر سختافزاری، EarCommand از یک دستگاه هدفون مانند تشکیل شده است که از یک بلندگوی رو به داخل استفاده میکند تا سیگنالهای نزدیک به فراصوت را به کانال گوش کاربر ارسال کند. به موازات بازتاب این سیگنالها از سطح داخلی کانال، پژواک آنها توسط یک میکروفون داخل گوش دریافت میشود. یک کامپیوتر متصل آن پژواکها را تجزیه و تحلیل میکند و از یک الگوریتم سفارشی برای تعیین تغییر شکل کانال گوش و در نتیجه رسیدن به کلمه گفته شده استفاده میکند.
در آزمایشهایی که تاکنون انجام شده است، کاربران ۳۲ دستور مختلف در سطح کلمه و ۲۵ دستور مختلف در سطح جمله را به زبان آوردهاند. سیستم بیشتر این موارد را درک کرد، با میزان خطای درک کلمه حدود ۱۰ درصد و میزان خطای جمله حدود ۱۲ درصد مشخص است که هنوز باید کارهای بیشتری انجام شود.
اما خوب است که حتی زمانی که کاربران از ماسک استفاده میکردند یا در محیطهای پر سر و صدا بودند، این سیستم کار میکرد، بهعلاوه، برخلاف برخی دیگر از سیستمهای خوانش گفتار بیصدا، نیازی به دوربیننداشت.
منبع: New Scientist