E-book

Capítulo 4

IA para ayudar en el tratamiento de enfermedades y problemas de salud


La capacidad de los sistemas de IA para procesar y analizar grandes volúmenes de datos y generar un análisis en muy poco tiempo los convierte en una herramienta eficaz para ayudar en el tratamiento de enfermedades y problemas de salud. Por ejemplo, la incorporación de IA en dispositivos médicos que integran múltiples sensores podría acelerar la detección precoz de un problema clínico o proporcionar información que mejore la calidad del tratamiento. Con IA, los ingentes y complejos datos fisiológicos que genera el cuerpo humano podrían interpretarse de manera más rápida y precisa para formular una intervención médica.

Una persona agarra una taza y vierte el contenido en un vaso. El antebrazo de la persona está envuelto en una manga de electrodos.

Una interfaz cerebro-máquina basada en IA permite a una persona con un brazo paralizado verter objetos en un vaso. (Imagen cortesía de Battelle)

Desafío

Para los pacientes con esclerosis lateral amiotrófica (ELA) avanzada, la comunicación se vuelve cada vez más difícil a medida que la enfermedad sigue su curso. En muchos casos, la ELA, también conocida como enfermedad de Lou Gehrig, conduce al síndrome de enclaustramiento, en el que pacientes experimentan parálisis total del cuerpo pero sus capacidades cognitivas permanecen intactas. Los dispositivos de seguimiento ocular y, más recientemente, las interfaces cerebro-computador (BCI) basadas en electroencefalogramas (EEG), permiten a pacientes con ELA comunicarse deletreando frases. Pero puede llevar varios minutos comunicar un mensaje sumamente corto.

Solución

Profesionales de investigación de la Universidad de Texas Austin (EE. UU.) desarrollaron una tecnología no invasiva que utiliza wavelets, Machine Learning y redes neuronales de Deep Learning para decodificar señales de magnetoencefalografía (MEG) y detectar frases enteras a medida que pacientes las formulan en su mente. El rendimiento del algoritmo roza el tiempo real; cuando una persona formula una frase en su mente, esta aparece de inmediato.

  • Con Wavelet Toolbox™, eliminaron el ruido y descompusieron las señales de MEG en bandas de oscilación neuronal específicas (ondas cerebrales gamma altas, gamma, alfa, beta, zeta y delta) mediante técnicas de análisis de multirresolución de wavelets.
  • El equipo comenzó extrayendo características de las señales y utilizó Statistics and Machine Learning Toolbox para calcular diversas características estadísticas. Luego, se utilizaron las características extraídas para entrenar un clasificador de máquina de vectores de soporte (SVM) y un clasificador de red neuronal artificial (ANN) poco profunda, y obtuvieron una base de precisión clasificando señales neuronales correspondientes a cinco frases. Este método tuvo una precisión de aproximadamente el 80% y sirvió como una línea de base de precisión.
  • Luego, el equipo de profesionales tomó escalogramas de wavelets de señales MEG para representar características enriquecidas y los utilizó como entradas para entrenar tres redes neuronales convolucionales profundas previamente entrenadas y personalizadas, AlexNet, ResNet e Inception-ResNet, con las que decodificar el habla con señales MEG. Con técnicas combinadas de wavelets y Deep Learning, la precisión global aumentó hasta un 96%.
  • Para acelerar el entrenamiento, se utilizó un servidor de cálculo en paralelo con siete GPU utilizando Parallel Computing Toolbox.

Resultados

Con MATLAB, el grupo de investigación pudo iterar rápidamente entre diferentes métodos de extracción de características y entrenar múltiples modelos de Machine Learning y Deep Learning, lo que permitió lograr una precisión general del 96% al decodificar el habla con señales MEG. MATLAB permitió combinar técnicas de wavelet con Deep Learning en cuestión de minutos, mucho menos que con otros lenguajes de programación. Además, cambiar una sola línea de código permitió utilizar múltiples GPU para realizar el entrenamiento. El uso de Parallel Computing Toolbox y un servidor con siete GPU permitió entrenar las redes 10 veces más rápido.

Proceso de cuatro pasos que muestra recopilación de datos de MEG, procesamiento de datos en un escalograma, interpretación de datos de redes neuronales y salida del habla decodificada.

Conversión de datos de MEG cerebrales en frases. (Imagen cortesía de UT Austin)