Ciència

Pròtesis neuronals que fan 'parlar' de nou malalts d'ELA o que han patit un ictus

Dos dispositius són capaços de traduir en paraules els pensaments de pacients que pateixen paràlisi des de fa una dècada

BarcelonaUn ictus va arrabassar-li a l'Ann la capacitat de la parla fa 17 anys i, durant tot aquest temps, no només ha estat incapaç de pronunciar una sola paraula, sinó que tampoc ha pogut expressar clarament emocions com l'alegria o la tristesa amb la gestualitat de la cara. L'ELA –les sigles d’esclerosi lateral amiotròfica– que van diagnosticar a Pat Bennet l'any 2012 no va començar a la medul·la espinal, com és habitual, sinó al tronc cerebral, i va deteriorar-li els músculs associats al moviment facial fins que va perdre la parla. Tot i que els cervells d'aquestes dues dones encara recorden com s'emeten les ordres per comunicar-se, les instruccions es perden abans d'arribar als llavis, la llengua, la laringe o la cara. Però, ¿què passaria si s'aconseguís arribar a la font primària, l'activitat cerebral, captar els senyals amb un ordinador i traduir els pensaments en missatges? ¿Podrien persones amb paràlisi, com l'Ann i la Pat, recuperar la veu?

Aquesta és la proposta de dos equips d'investigadors de la Universitat de Califòrnia a San Francisco (UCSF) i de la Universitat de Stanford. En dos estudis independents però complementaris els científics han desenvolupat dues interfícies cervell-ordinador (BCI, en anglès) amb l'objectiu de desxifrar els missatges a partir de l'activitat cerebral de persones amb paràlisi i descodificar-los en format text o veu. Liderats pel president de cirurgia neurològica de la UCSF, Edward Chang, i l'investigador del Laboratori Translacional de Pròtesis Neurals de Stanford Francis Willett, els dos projectes s'han publicat aquest dimecres en la mateixa edició de la revista Nature.

Cargando
No hay anuncios

La pèrdua de la parla és devastadora, no només per la incapacitat de comunicar paraules i frases, sinó per l'aïllament social que comporta. Fins ara, cap tecnologia que ha intentat restablir la comunicació per a aquests pacients ha estat prou bona: els missatges no acaben de ser nítids, precisos i comprensibles. "Els dos articles són apassionants perquè, des de dos enfocaments independents, demostren un gran salt endavant en el restabliment de la parla mitjançant interfícies cervell-ordinador", valora Willett.

Els dos projectes de neuroenginyeria són similars, ja que en tots dos casos la tecnologia rehabilita els ponts tallats entre el cervell i el tracte vocal i permeten una comunicació "amb una claredat, un to i un ritme" semblant al d'una conversa normal. Alhora, però, tenen singularitats: mentre que el de Stanford aconsegueix enregistrar els senyals neuronals i traduir més paraules per minut, el de San Francisco crea un avatar digital que acompanya amb veu i expressió facial el missatge, tal com el cervell de l'interlocutor vol fer-ho.

Cargando
No hay anuncios

Avatar

Extreure la veu del vídeo del casament

L'equip de la UCSF ha desenvolupat una màquina cervell-ordinador que permet descodificar els senyals cerebrals de la parla en text a gairebé 80 paraules per minut i enviar aquest missatge a un avatar digital que no només parla, sinó que imita l'expressió facial de la participant. En aquest cas, de l'Ann. "El nostre objectiu és restaurar de manera completa la comunicació, el que és realment la manera més natural de parlar amb els altres", afirma Chang. Tot i que anteriorment el seu equip ja havia arribat a descodificar senyals cerebrals en text d'un home amb paràlisi per un ictus, l'estudi actual és més ambiciós, ja que inclou els moviments facials que expressa la persona durant la conversa.

Cargando
No hay anuncios

Per fer-ho, Chang va implantar a l'Ann una pròtesi rectangular de 253 elèctrodes a la superfície del cervell, concretament en aquelles zones que són crítiques per a la parla. Allà, els elèctrodes funcionen com un interceptor: s'apoderen dels senyals cerebrals de la parla que, si no fos per l'ictus, anirien cap als músculs de la llengua, la mandíbula i la laringe, així com de la cara. A partir d'un cable connectat al cap, es recullen els patrons elèctrics per produir els sons específics de cada consonant i vocal individual en les paraules i es tradueixen per emetre'ls a un banc d'ordinador.

Cargando
No hay anuncios

Durant setmanes, l'Ann va treballar amb l'equip per entrenar els algorismes d'intel·ligència artificial i que reconeguessin els senyals cerebrals únics per a cada fonema. Això va implicar repetir diferents frases d'un vocabulari conversacional de 1.024 paraules una vegada i una altra, fins que l'ordinador va reconèixer els patrons d'activitat cerebral associats a aquests sons. "Hem descodificat frases utilitzant un vocabulari de més de 1.000 paraules amb una taxa d'error de paraula del 25% a 78 paraules per minut. Amb més de 39.000 paraules la taxa d'error amb prou feines augmentava fins al 27,8%", planteja el bioenginyer Sean Metzger.

L'equip també va idear un algoritme que permetés crear una veu semblant a la de la pacient abans que patís el dèficit neurològic –per fer-ho, van fer servir una gravació de l'Ann parlant el dia del seu casament– i van animar un avatar amb l'ajuda d'un programari que simula i anima els moviments musculars de la cara, com ara que la mandíbula s'obri i es tanqui, que els llavis sobresurtin o la llengua pugi i baixi. També els moviments que s'associen a cares de felicitat, tristesa o sorpresa i, fins i tot, el to, l'èmfasi i l'accentuació.

Cargando
No hay anuncios

Desxiframent

"Mantenir-nos connectats al món"

En el cas de l'assaig de Stanford, va ser la Pat Bennett qui es va posar en contacte amb Willett i el cirurgià Jaimie Henderson després de llegir, l'any 2021, que havien convertit l'escriptura a mà imaginada d'una persona en un text a través d'un ordinador. Ella estava disposada a participar en qualsevol assaig de restabliment de la parla que tinguessin al cap. Henderson, que de petit havia patit la incapacitat comunicativa del pare després d'un tràgic accident i somia retornar la veu a persones amb paràlisi, va col·locar-li un programari d'última generació que descodifica els intents de parla del cervell en missatges i, després, en paraules escrites en una pantalla d'ordinador.

Cargando
No hay anuncios

Els sensors que Henderson va implantar a l'escorça cerebral de Bennett, la capa més externa del cervell, són matrius quadrades de petits elèctrodes de silici. Cadascuna conté 64 elèctrodes, disposats en quadrícules de 8 per 8, que s'uneixen a fils d'or fi que surten a través de pedestals caragolats al crani. Després, aquests es connecten per cable a un ordinador. "De la mateixa manera que una càmera amb més píxels produeix una imatge més nítida, l'ús de més elèctrodes ens dona una imatge més clara del que està passant al cervell", explica Willett en una sessió informativa.

El funcionament d'aquest BCI és senzill d'explicar, però complex de posar en pràctica. Un algorisme d'intel·ligència artificial rep i descodifica la informació electrònica que rep del cervell de Bennett, però abans i durant aquest sistema ha d'aprendre a distingir les diferents activitats cerebrals associades a cada fonema que compon l'anglès parlat. "Podem desxifrar els intents de parla amb una taxa d'error de paraula del 23% quan utilitzem un conjunt gran de 125.000 paraules possibles. Això vol dir que aproximadament tres de cada quatre paraules es desxifren correctament", afirma Willett.

Cargando
No hay anuncios

Després de quatre mesos d'entrenament –unes 25 sessions, cadascuna d'unes quatre hores de durada–, els intents d'enunciats de Bennett es van convertir en paraules a la pantalla d'un ordinador a 62 paraules per minut, més de tres vegades més ràpid que el rècord anterior de comunicació assistida per BCI. Actualment, el ritme de Bennett és de prop de 160 paraules per minut de conversa natural en parlants anglesos.

Cargando
No hay anuncios

Cap dels dispositius està, de moment, disponible comercialment, ja que únicament tenen llicència per a ús d'investigació, i els investigadors no tenen intenció immediata d'ampliar l'assaig a gran escala, tampoc a Europa a partir de col·laboracions científiques. A més, els participants estan informats que, passats uns quants anys, caldrà retirar l'implant i no podran tornar a participar en l'assaig. Amb tot, i segons els autors, propostes com aquestes obren la porta a imaginar un futur en què es pugui restaurar una conversa fluida a algú amb paràlisi, que li permeti dir lliurement el que vulgui dir amb força precisió i que pugui ser entès de manera fiable.

"Per a aquells que no tenim parla, en un futur això implicaria mantenir-nos connectats amb el món, potser continuar treballant, mantenir relacions d'amics i familiars; anar a comprar, assistir a cites, demanar menjar, anar a un banc, parlar per telèfon, expressar amor o agraïment, fins i tot discutir", desitja Bennett. Per a Henderson, la publicació d'aquest estudi és emocionant: "Sento que estic completant el cercle de poder conèixer i comunicar-me amb el meu pare de petit. Tant de bo un dia puguem dir a les persones amb paràlisi que no perdran mai la capacitat de comunicar-se".