رابطهای مغز و کامپیوتر و هوش مصنوعی، صدای از دست رفته دو زن را باز گرداندند
از دست دادن توانایی نکلم پس از آسیب مغزی یا به دلیل بیماریهای دیگر باعث میشود که فرد نتواند افکار، احساسات و ایدههای خود را بیان کند و باعث انزوا میشود. در دو تحقیق که اخیراً منتشر شدهاند، محققان نشان دادهاند که چگونه ترکیب ایمپلنتهای مغزی و هوش مصنوعی به دو زن – که یکی پس از سکته مغزی فلج شده بود و دیگری مبتلا به یک اختلال عصبی پیشرونده شده بود- قدرت تکلم دوباره میدهند.
سکته مغزی میتواند به مناطقی از مغز که زبان و گفتار را کنترل میکنند آسیب برساند.
اسکلروز جانبی آمیوتروفیک (ALS)، هم یک بیماری عصبی پیشرونده است که به سلولهای عصبی کنترلکننده عضلات حمله میکند و زمانی که ماهیچههایی که لبها، زبان، کام نرم، فک را تحت تاثیر قرار دهد، میتواند باعث مشکلات گفتاری شود.
اما محققان راهی برای بازگرداندن صدای افراد بیصدا پیدا کردهاند. رابطهای مغز و کامپیوتر (BCI) برای این کار ابداع شدهاند و در حال ارتقا هستند.
دو مطالعه منتشر شده در ۲۳ آگوست در ژورنال Nature نشان کردهاند که ما تا چه حد در توانایی خود برای ترجمه افکار به گفتار پیشرفت کردهایم.
اولین مورد، توسط محققان UC San Francisco (UCSF) و UC Berkeley، به زنی که دچار سکته مغزی شده بود، این امکان را داد تا از طریق یک آواتار دیجیتال صحبت کند و احساسات خود را ابراز کند.
دومین تحقیق که توسط Stanford Medicine انجام شد، فعالیت مغز زنی را که به دلیل ALS توانایی صحبت کردن را از دست داده بود به متن نمایش داده شده روی صفحه کامپیوتر تبدیل کرد.
داستان آن
«آن» در ۳۰ سالگی دچار سکته مغزی شدیدی شد که باعث ضعف شدید در عضلات صورت و صدای او شد. قبل از سکته مغزی، او معلم ریاضی دبیرستان در کانادا بود.
پس از سالها توانبخشی، آن تایپ کردن حروف بر روی صفحه کامپیوتر یاد گرفت تا ارتباط برقرار کند. سپس، در سال ۲۰۲۱، او از طریق خواندن نوشتهای از اینکه چگونه محققان UCSF به یک مرد فلج به نام پانچو، که دچار سکته مغزی نیز شده بود، اجازه دادند تا سیگنالهای مغز خود را در حین صحبت کردن به متن ترجمه کند، مطلع شد.
اکنون او ۴۷ ساله است و آن سراغ همان تیمی رفت که در موردش خوانده بود، با همکاری محققان دانشگاه کالیفرنیا برکلی، راهی برای برقراری ارتباط طبیعیتر، با استفاده از یک آواتار دیجیتالی که از هوش مصنوعی برای تبدیل سیگنالهای مغز به گفتار و حالات چهره استفاده میکند، توسعه دهند.
محققان میخواستند نسبت به کار قبلی گامهای بیشتری بردارند. آنها یک مستطیل نازک کاغذی متشکل از ۲۵۳ الکترود را روی سطح مغز او در نواحی مهم مربوط به گفتار کاشتهاند، که اگر او دچار سکته مغزی نمیشد، ماهیچههای لب، زبان، فک و جعبه صدای آن را متحرک میکرد. الکترودها توسط یک کابل به مجموعهای از کامپیوترها متصل شدند.
آن با کمک الگوریتمهای هوش مصنوعی سیستم را برای تشخیص سیگنالهای منحصر به فرد مغز خود آموزش داد. او هفتهها عبارات مختلفی را از یک مجموعه واژگان ۱۰۲۴ کلمهای مکالمه تکرار میکرد. به جای آموزش هوش مصنوعی برای تشخیص کلمات کامل، محققان سیستمی ایجاد کردند که کلمات را از اجزای کوچکتر یا واجها تشخیص میدادند و رمزگشایی میکند. به این ترتیب، هوش مصنوعی تنها به یادگیری ۳۹ واج برای رمزگشایی هر کلمه انگلیسی نیاز داشت.
سپس، محققان الگوریتمی برای ترکیب گفتار ابداع کردند که با استفاده از صدای ضبط شده آن در حال صحبت کردن در مراسم عروسیاش شخصیسازی شده بود و از نرمافزاری برای ایجاد آواتار استفاده کردند. این تیم فرآیندهای یادگیری ماشینی سفارشیسازی شدهای را ایجاد کردند که به نرمافزار آواتار اجازه میداد با سیگنالهایی که مغز آن هنگام تلاش برای صحبت کردن ارسال میکرد، ادغام شود، چهره آواتار را حرکت دهد و احساساتی مانند شادی، غم و شگفتی را نشان دهد.
سیستم BCI قادر به رمزگشایی واژگان بزرگ و تبدیل آن به متن با سرعت متوسط ۷۸ کلمه در دقیقه با میانگین ضریب خطای کلمه ۲۵٪ بود. سرعت مکالمه طبیعی در بین انگلیسی زبانان حدود ۱۶۰ کلمه در دقیقه است.
آن در مورد تجربهاش میگوید: « اینکه بخشی از این تحقیق باشم که به من احساس هدفمندی و کمک به جامعه بدهد، شگفتانگیز است. این مطالعه به من اجازه داد تا زمانی که هنوز زنده هستم واقعاً زندگی کنم!»
محققان در حال کار بر روی ایجاد یک نسخه بیسیم از سیستم هستند که نیازی به اتصال فیزیکی آن به BCI نداشته باشد. آنها امیدوارند که مطالعه آنها به سیستم مورد تأیید FDA منجر شود که ارتباط سیگنال به گفتار مغز را در آینده نزدیک امکانپذیر میکند.
داستان پت
پت ۶۸ ساله در سال ۲۰۱۲ به ALS مبتلا شد. برخلاف تظاهرات معمول ALS، که در آن بدتر شدن از نخاع شروع میشود و اندامها را تحت تأثیر قرار میدهد، بیماری او از ساقه مغزش شروع شد. یعنی هنوز میتواند حرکت کند، خودش لباس بپوشد و از انگشتانش برای تایپ کردن استفاده کند، اما نمیتواند از عضلات مرتبط با گفتار برای تلفظ واضح واجها استفاده کند.
خوشبختانه، مغز پت هنوز هم میتواند دستورالعملهایی را برای تولید واج بسازد، محققان در پزشکی استنفورد از همین توانایی باقیمانده او استفاده کردند. در مارس ۲۰۲۲، یک جراح مغز و اعصاب دو آرایه حسگر کوچک را در سطح مغز پت در دو ناحیه تولید گفتار جداگانه کاشت. هر آرایه شامل ۶۴ الکترود بود که در قشر مغز در عمق ۳.۵ میلیمتری کاشته شد.
همانند آن، هوش مصنوعی برای تشخیص فعالیت مغزی پت برای فرمولبندی هر یک از ۳۹ واج گفتار انگلیسی، آموزش دید. پت حدود ۲۵ جلسه آموزشی داشت که در هر جلسه، سعی میکرد ۲۶۰ تا ۴۸۰ جمله به طور تصادفی انتخاب شده از مجموعه دادههای بزرگی از نمونههای مکالمات تلفنی را تکرار کند.
این سیستم برای دانستن اینکه چه کلماتی باید قبل از کلمات دیگر قرار گیرند و کدام واجها چه کلماتی را میسازند آموزش دیده است.
در این مورد BCI به ۹.۱ درصد خطای نرخ کلمه در واژگان ۵۰ کلمهای دست یافت، البته میزان خطا در مجموعه واژگان ۱۲۵۰۰۰ کلمهای بیش از ۲۳ درصد است و پت باید با سرعت ۶۲ کلمه در دقیقه صحبت کند.
این سیستم اگرچه هنوز به صورت تجاری در دسترس نیست، اما محققان پتانسیل گسترده دستگاه خود را میبینند.
هر دو مطالعه در مجله Nature منتشر شدهاند. مطالعه UCSF را میتوان در اینجا بخوانید. مطالعه پزشکی استنفورد را میتوانید در اینجا مطالعه کنید.
این نوشتهها را هم بخوانید