ایمپلنت مغزی به مرد مبتلا به ALS کمک کرد تا دوباره صحبت کند و آواز بخواند
به گزارش گروه دانشگاه خبرگزاری دانشجو، در پیشرفت دیگری در زمینه رابطهای مغز و کامپیوتر (BCI)، یک سیستم جدید مبتنی بر ایمپلنت، فرد فلج را قادر ساخته است که نه تنها صحبت کند، بلکه ملودیهای ساده را نیز از طریق کامپیوتر - عملاً بدون هیچ تأخیری - «بخواند».
این فناوری که توسط محققان دانشگاه کالیفرنیا، دیویس (UC Davis) توسعه داده شده است، با یک شرکتکننده در مطالعه که از بیماری اسکلروز جانبی آمیوتروفیک (ALS) رنج میبرد، آزمایش شد. این فناوری اساساً سیگنالهای عصبی خام را از طریق چهار آرایه میکروالکترود که با جراحی در ناحیهای از مغز که مسئول تولید گفتار فیزیکی است، کاشته شده بودند، دریافت میکرد. در ترکیب با پردازش با تأخیر کم و یک مدل رمزگشایی مبتنی بر هوش مصنوعی، گفتار شرکتکننده به صورت بلادرنگ از طریق یک بلندگو سنتز شد.
برای روشن شدن موضوع، این بدان معناست که سیستم سعی در خواندن افکار شرکتکننده ندارد، بلکه سیگنالهای مغزی تولید شده هنگام تلاش او برای استفاده از عضلاتش برای صحبت کردن را ترجمه میکند.
این سیستم همچنین به لطف یک الگوریتم شبیهسازی صدا که بر اساس نمونههای صوتی ضبط شده قبل از ابتلا به ALS آموزش دیده است، صدای خود شرکتکننده را تقلید میکند.
کل فرآیند، از دریافت سیگنالهای عصبی خام تا تولید نمونههای گفتاری، در عرض ۱۰ میلیثانیه رخ میدهد و امکان گفتار تقریباً آنی را فراهم میکند.
BCI همچنین تشخیص داد که چه زمانی شرکتکننده در حال تلاش برای آواز خواندن است، یکی از سه زیر و بمی مورد نظر را شناسایی کرد و صدای او را برای ترکیب ملودیهای صوتی تنظیم کرد.
سیگنالهای عصبی شرکتکنندگان در مطالعه از خواندن متن روی صفحه نمایش به آموزش مدل رمزگشای هوش مصنوعی کمک کرد.
این بخش که در ویدئویی که توسط محققان ارائه شده است، نشان داده شده است، ابتدایی به نظر میرسد، اما استفاده از این کلمه برای توصیف چنین پیشرفت چشمگیری در ایجاد ارتباط ظریف بین افراد فلج که ممکن است احساس کنند دیگر هرگز نمیتوانند خود را به طور طبیعی ابراز کنند، اشتباه به نظر میرسد.
سرگئی استاویسکی، نویسنده ارشد مقاله مربوط به این فناوری که قرار است در مجله نیچر منتشر شود، توضیح داد که این یک گام بزرگ در این مسیر است. او گفت: «با سنتز صدای آنی، کاربران پروتز عصبی میتوانند بیشتر در یک مکالمه مشارکت داشته باشند. به عنوان مثال، آنها میتوانند صحبتهای آنها را قطع کنند و احتمال اینکه افراد به طور تصادفی صحبت آنها را قطع کنند، کمتر است.»
اگر این کار برایتان آشنا به نظر میرسد، به این دلیل است که شبیه به فناوریای است که در ماه آوریل از دانشگاه کالیفرنیا برکلی و دانشگاه کالیفرنیا سانفرانسیسکو دیدیم. هر دو سیستم سیگنالهای عصبی را با استفاده از ایمپلنتهای مغزی از قشر حرکتی جمعآوری میکنند و از سیستمهای مبتنی بر هوش مصنوعی که بر اساس دادههای جمعآوریشده از شرکتکنندگانی که سعی در بیان کلمات نمایش دادهشده روی صفحه دارند، آموزش دیدهاند، بهره میبرند.
نکته جالب دیگر در مورد فناوری دانشگاه کالیفرنیا، دیویس این است که تلاشهای شرکتکننده برای قطع کردن کلام با صداهایی مانند «آه»، «اوه» و «هممم» را بازتولید کرد. این فناوری حتی توانست تشخیص دهد که آیا او جملهای را به عنوان سوال یا بیانیه میگوید و چه زمانی روی کلمات خاصی تأکید میکند. این تیم اعلام کرد که این فناوری همچنین با موفقیت کلمات ساختگی را خارج از دادههای آموزشی رمزگشای هوش مصنوعی بازتولید کرده است. همه اینها باعث میشود گفتار سنتز شده بسیار رساتر از سیستمهای قبلی باشد.
فناوریهایی از این دست میتوانند زندگی افراد فلج را متحول کنند، و دیدن این پیشرفتهای تدریجی از نزدیک باورنکردنی است.
محققان دانشگاه کالیفرنیا، دیویس خاطرنشان میکنند که مطالعهی آنها تنها شامل یک شرکتکننده بوده است و در کارهای بعدی خود، تلاش خواهند کرد تا این نتایج را با افراد بیشتری که دچار از دست دادن گفتار ناشی از سایر بیماریها هستند، تکرار کنند.
کریستین هرف، دانشمند علوم اعصاب محاسباتی در دانشگاه ماستریخت هلند که در این مطالعه مشارکتی نداشته است، در نشریه نیچر اظهار داشت: این جام مقدس در رابطهای مغز و رایانه گفتاری است. این اکنون گفتار واقعی، خودجوش و مداوم است.