رابط‌های مغز و کامپیوتر و هوش مصنوعی، صدای از دست رفته دو زن را باز گرداندند

از دست دادن توانایی نکلم پس از آسیب مغزی یا به دلیل بیماری‌های دیگر باعث می‌شود که فرد نتواند افکار، احساسات و‌ ایده‌های خود را بیان کند و باعث انزوا می‌شود. در دو تحقیق که اخیراً منتشر شده‌اند، محققان نشان داده‌اند که چگونه ترکیب ایمپلنت‌های مغزی و هوش مصنوعی به دو زن – که یکی پس از سکته مغزی فلج شده بود و دیگری مبتلا به یک اختلال عصبی پیشرونده  شده بود- قدرت تکلم دوباره می‌دهند.

سکته مغزی می‌تواند به مناطقی از مغز که زبان و گفتار را کنترل می‌کنند آسیب برساند.
اسکلروز جانبی آمیوتروفیک (ALS)، هم یک بیماری عصبی پیشرونده است که به سلول‌های عصبی کنترل‌کننده عضلات حمله می‌کند و زمانی که ماهیچه‌هایی که لب‌ها، زبان، کام نرم، فک را تحت تاثیر قرار دهد، می‌تواند باعث مشکلات گفتاری شود.

اما محققان راهی برای بازگرداندن صدای افراد بی‌صدا پیدا کرده‌اند. رابط‌های مغز و کامپیوتر (BCI) برای این کار ابداع شده‌اند و در حال ارتقا هستند.

دو مطالعه منتشر شده در ۲۳ آگوست در ژورنال Nature نشان کرده‌اند که ما تا چه حد در توانایی خود برای ترجمه افکار به گفتار پیشرفت کرده‌ایم.

اولین مورد، توسط محققان UC San Francisco (UCSF) و UC Berkeley، به زنی که دچار سکته مغزی شده بود، این امکان را داد تا از طریق یک آواتار دیجیتال صحبت کند و احساسات خود را ابراز کند.

دومین تحقیق که توسط Stanford Medicine انجام شد، فعالیت مغز زنی را که به دلیل ALS توانایی صحبت کردن را از دست داده بود به متن نمایش داده شده روی صفحه کامپیوتر تبدیل کرد.

داستان آن

«آن» در ۳۰ سالگی دچار سکته مغزی شدیدی شد که باعث ضعف شدید در عضلات صورت و صدای او شد. قبل از سکته مغزی، او معلم ریاضی دبیرستان در کانادا بود.

پس از سال‌ها توانبخشی، آن تایپ کردن حروف بر روی صفحه کامپیوتر یاد گرفت تا ارتباط برقرار کند. سپس، در سال ۲۰۲۱، او از طریق خواندن نوشته‌ای از اینکه چگونه محققان UCSF به یک مرد فلج به نام پانچو، که دچار سکته مغزی نیز شده بود، اجازه دادند تا سیگنال‌های مغز خود را در حین صحبت کردن به متن ترجمه کند، مطلع شد.

اکنون او ۴۷ ساله است و آن سراغ همان تیمی رفت که در موردش خوانده بود، با همکاری محققان دانشگاه کالیفرنیا برکلی، راهی برای برقراری ارتباط طبیعی‌تر، با استفاده از یک آواتار دیجیتالی که از هوش مصنوعی برای تبدیل سیگنال‌های مغز به گفتار و حالات چهره استفاده می‌کند، توسعه دهند.

محققان می‌خواستند نسبت به کار قبلی گام‌های بیشتری بردارند. آن‌ها یک مستطیل نازک کاغذی متشکل از ۲۵۳ الکترود را روی سطح مغز او در نواحی مهم مربوط به گفتار کاشته‌اند، که اگر او دچار سکته مغزی نمی‌شد، ماهیچه‌های لب، زبان، فک و جعبه صدای آن را متحرک می‌کرد. الکترود‌ها توسط یک کابل به مجموعه‌ای از کامپیوتر‌ها متصل شدند.

آن با کمک الگوریتم‌های هوش مصنوعی سیستم را برای تشخیص سیگنال‌های منحصر به فرد مغز خود آموزش داد. او هفته‌ها عبارات مختلفی را از یک مجموعه واژگان ۱۰۲۴ کلمه‌ای مکالمه تکرار می‌کرد. به جای آموزش هوش مصنوعی برای تشخیص کلمات کامل، محققان سیستمی ایجاد کردند که کلمات را از اجزای کوچکتر یا واج‌ها تشخیص می‌دادند و رمزگشایی می‌کند. به این ترتیب، هوش مصنوعی تنها به یادگیری ۳۹ واج برای رمزگشایی هر کلمه انگلیسی نیاز داشت.

سپس، محققان الگوریتمی برای ترکیب گفتار ابداع کردند که با استفاده از صدای ضبط شده آن در حال صحبت کردن در مراسم عروسی‌اش شخصی‌سازی شده بود و از نرم‌افزاری برای ایجاد آواتار استفاده کردند. این تیم فرآیند‌های یادگیری ماشینی سفارشی‌سازی شده‌ای را ایجاد کردند که به نرم‌افزار آواتار اجازه می‌داد با سیگنال‌هایی که مغز آن هنگام تلاش برای صحبت کردن ارسال می‌کرد، ادغام شود، چهره آواتار را حرکت دهد و احساساتی مانند شادی، غم و شگفتی را نشان دهد.

سیستم BCI قادر به رمزگشایی واژگان بزرگ و تبدیل آن به متن با سرعت متوسط ۷۸ کلمه در دقیقه با میانگین ضریب خطای کلمه ۲۵٪ بود. سرعت مکالمه طبیعی در بین انگلیسی زبانان حدود ۱۶۰ کلمه در دقیقه است.

آن در مورد تجربه‌اش می‌گوید: « اینکه بخشی از این تحقیق باشم که به من احساس هدفمندی و کمک به جامعه بدهد، شگفت‌انگیز است. این مطالعه به من اجازه داد تا زمانی که هنوز زنده هستم واقعاً زندگی کنم!»

محققان در حال کار بر روی ایجاد یک نسخه بی‌سیم از سیستم هستند که نیازی به اتصال فیزیکی آن به BCI نداشته باشد. آنها‌ امیدوارند که مطالعه آن‌ها به سیستم مورد تأیید FDA منجر شود که ارتباط سیگنال به گفتار مغز را در آینده نزدیک امکان‌پذیر می‌کند.

داستان پت

پت ۶۸ ساله در سال ۲۰۱۲ به ALS مبتلا شد. برخلاف تظاهرات معمول ALS، که در آن بدتر شدن از نخاع شروع می‌شود و اندام‌ها را تحت تأثیر قرار می‌دهد، بیماری او از ساقه مغزش شروع شد. یعنی هنوز می‌تواند حرکت کند، خودش لباس بپوشد و از انگشتانش برای تایپ کردن استفاده کند، اما نمی‌تواند از عضلات مرتبط با گفتار برای تلفظ واضح واج‌ها استفاده کند.

خوشبختانه، مغز پت هنوز هم می‌تواند دستورالعمل‌هایی را برای تولید واج بسازد،  محققان در پزشکی استنفورد از همین توانایی باقیمانده او استفاده کردند. در مارس ۲۰۲۲، یک جراح مغز و اعصاب دو آرایه حسگر کوچک را در سطح مغز پت در دو ناحیه تولید گفتار جداگانه کاشت. هر آرایه شامل ۶۴ الکترود بود که در قشر مغز در عمق ۳.۵ میلیمتری کاشته شد.

همانند آن، هوش مصنوعی برای تشخیص فعالیت مغزی پت برای فرمول‌بندی هر یک از ۳۹ واج گفتار انگلیسی، آموزش دید. پت حدود ۲۵ جلسه آموزشی داشت که در هر جلسه، سعی می‌کرد ۲۶۰ تا ۴۸۰ جمله به طور تصادفی انتخاب شده از مجموعه داده‌های بزرگی از نمونه‌های مکالمات تلفنی را تکرار کند.

این سیستم برای دانستن اینکه چه کلماتی باید قبل از کلمات دیگر قرار گیرند و کدام واج‌ها چه کلماتی را می‌سازند آموزش دیده است.

در این مورد BCI به ۹.۱ درصد خطای نرخ کلمه در واژگان ۵۰ کلمه‌ای دست یافت، البته میزان خطا در مجموعه واژگان ۱۲۵۰۰۰ کلمه‌ای بیش از ۲۳ درصد است و پت باید با سرعت ۶۲ کلمه در دقیقه صحبت کند.

این سیستم اگرچه هنوز به صورت تجاری در دسترس نیست، اما محققان پتانسیل گسترده دستگاه خود را می‌بینند.

هر دو مطالعه در مجله Nature منتشر شده‌اند. مطالعه UCSF را می‌توان در اینجا بخوانید. مطالعه پزشکی استنفورد را می‌توانید در اینجا مطالعه کنید.


  این نوشته‌ها را هم بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
[wpcode id="260079"]