Artículos técnicos

Desarrollo de un modelo de Deep Learning para el diagnóstico asistido de patologías

Por Ong Kok Haur, Laurent Gole, Huo Xinmi, Li Longjie, Lu Haoda, Yuen Cheng Xiang, Aisha Peng y Yu Weimiao, Instituto de Bioinformática


El cáncer de próstata es la segunda enfermedad más común entre los hombres y generalmente se diagnostica mediante la evaluación de biopsias de tejido. Este proceso, tradicionalmente realizado por patólogos expertos utilizando un microscopio, es una tarea laboriosa que requiere mucho tiempo. Además, el número de patólogos capaces de realizar estas evaluaciones es limitado en muchos países donde la carga de trabajo clínico es elevada. Esto puede generar retrasos en las evaluaciones y demoras en el inicio de tratamiento.

La investigación sobre el uso de IA y Deep Learning para ayudar en el diagnóstico patológico del cáncer de próstata y otras formas de cáncer, que surgió en parte debido a las limitaciones del análisis manual, se ha expandido rápidamente. Sin embargo, es necesario superar varios obstáculos técnicos antes de poder desarrollar, optimizar, validar e implementar modelos de Deep Learning para aplicaciones clínicas. Por ejemplo, se estima que alrededor del 15% de las imágenes de patología digital tienen problemas de calidad de enfoque, saturación y artefactos, entre otros problemas. Además, la calidad de la imagen no se puede evaluar cuantitativamente a simple vista, y los escáneres de imágenes de láminas completas (WSI) que se utilizan hoy en día producen conjuntos de datos demasiado grandes, lo que puede complicar el procesamiento de imágenes de alta resolución de 85.000 × 40.000 píxeles o más. Además, de manera similar al diagnóstico patológico manual, el proceso de anotación de imágenes requiere una cantidad significativa de tiempo por parte de patólogos experimentados. Este proceso dificulta el mantenimiento de una base de datos de alta calidad de imágenes etiquetadas para entrenar un modelo de diagnóstico preciso.

El Laboratorio de Patología Digital Computacional (CDPL) del Instituto de Bioinformática (BII) A*STAR ha desarrollado una plataforma de automatización basada en la nube que aborda muchos de los desafíos asociados con el diagnóstico de patología asistido por Deep Learning, al tiempo que reduce el trabajo de etiquetado de patólogos (Figura 1). Esta plataforma incluye A!MagQC, una herramienta de evaluación de calidad de imagen totalmente automatizada desarrollada en MATLAB® con Deep Learning Toolbox™ e Image Processing Toolbox™. La plataforma también incluye un modelo de clasificación de Deep Learning entrenado para identificar patrones de Gleason. En experimentos con patólogos locales e internacionales, la plataforma redujo el tiempo de etiquetado de imágenes en un 60% en comparación con la anotación manual y el examen microscópico tradicional, lo que ayudó a los patólogos a analizar imágenes un 43% más rápido manteniendo la misma precisión que el examen microscópico convencional.

Diagrama de flujo de trabajo de la plataforma de imágenes de patología digital, que incluye A!MagQC, una herramienta de evaluación de calidad de imágenes automatizada.

Figura 1. Plataforma de análisis de imágenes de patología digital, que incluye A!MagQC y A!HistoClouds. A) Proceso existente de evaluación de patología digital. B) Proceso propuesto en este estudio, que integra A!MagQC, A!HistoClouds y un modelo de IA que puede detectar y calificar el cáncer de próstata a partir de imágenes de múltiples escáneres en el proceso existente.

Evaluación de calidad de imagenes

En patología digital, los problemas de calidad de imagen se pueden dividir en dos categorías: problemas de preparación de muestras de tejido y problemas de escaneo (Figura 2). Los desgarros de tejido, pliegues, burbujas de aire, la tinción excesiva y la tinción insuficiente entran en la primera categoría; cuando se detectan estos problemas y afectan el diagnóstico, será necesario preparar una nueva muestra. Por otro lado, cuando se detectan problemas de contraste, saturación y enfoque de imagen, la muestra existente puede volver a escanearse, sin necesidad de volver a cortar.

A!MagQC que muestra varios tipos de problemas de calidad de imagen en una muestra vista a través de un microscopio.

Figura 2. Problemas de uniformidad de textura, contraste, artefactos, saturación y enfoque detectados con A!MagQC. A) muestra la interfaz gráfica fácil de usar de A!MagQC. B) muestra ejemplos de parches de baja calidad de imágenes de láminas completas. C) muestra la salida de A!MagQC que representa las áreas de baja calidad de una imágen de lámina completa como mapa de calor.

Ya se trate de un análisis realizado por patólogos o con modelos de Deep Learning, estos problemas comunes pueden tener un efecto adverso. Como tal, el equipo de A*STAR’s BII CDPL desarrolló algoritmos de procesamiento de imágenes en A!MagQC para detectar automáticamente los principales factores que afectan la calidad de las imágenes. El equipo eligió MATLAB por las toolboxes especializadas que incluye. Por ejemplo, cuando las imágenes son demasiado grandes para cargarlas en la memoria, la función blockproc de Image Processing Toolbox puede dividir cada imagen en bloques de un tamaño específico, procesar uno por vez y compilar los resultados en una imagen de salida.

El equipo también utilizó herramientas de MATLAB para construir la interfaz gráfica de A!MagQC y compilar el código de MATLAB en un ejecutable de A!MagQC independiente para su distribución.

Con la solución de control de calidad desarrollada, el equipo cuantificó la calidad de la imagen para identificar variaciones en el color, el brillo y el contraste de las WSI. Este ejercicio garantizó que el modelo de Deep Learning entrenado posteriormente generaría resultados de diagnóstico precisos para la amplia gama de escáneres que se utilizan actualmente.

Entrenamiento y prueba de modelos

Durante el análisis de una muestra, los patólogos aplican el sistema de clasificación de Gleason, específico para cáncer de próstata, para asignar una puntuación según su apariencia. Además del tejido normal o benigno, las áreas de la muestra pueden incluir estroma (tejido conectivo) o tejido al que se le asigna una puntuación de Gleason de 1 a 5, siendo 5 el más maligno (Figura 3). Antes de que el equipo pudiera comenzar a entrenar un modelo de diagnóstico de IA para clasificar muestras de tejido, necesitaban compilar un conjunto de datos de parches de imágenes que estuvieran etiquetados con estas categorías. Esta tarea se completó con la ayuda de patólogos que utilizaron A!HistoClouds, que trabajó con imágenes cuya calidad había sido verificada con A!MagQC. Una vez que el equipo tuvo un conjunto base de parches de imágenes etiquetados, realizaron una ampliación de datos para expandir el conjunto de entrenamiento reflejando imágenes individuales vertical u horizontalmente y rotándolas en un número aleatorio o específico de grados.

Láminas de varios tipos de muestras de tejido calificadas según la escala de Gleason.

Figura 3. Muestras de tejido con estroma, tejido benigno y tejido calificado como Gleason 3, Gleason 4 y Gleason 5. Las regiones anotadas (cada una etiquetada con sus respectivas categorías) por los patólogos en A!HistoClouds se extrajeron como parches. Estos parches se utilizan para el entrenamiento del modelo.

Con MATLAB y Deep Learning Toolbox, el equipo creó estructuras de modelos de Deep Learning utilizando redes preentrenadas ResNet-50, VGG-16 y NasNet-Mobile, reemplazando sus capas de clasificación regulares con una capa de clasificación ponderada (Figura 4). El equipo también utilizó la opción multi-gpu para escalar desde una a múltiples GPU para entrenar el modelo de Deep Learning.

Diagrama de la estructura de entrenamiento del modelo de Deep Learning, donde las capas de clasificación regulares para las redes preentrenadas ResNet-50, VGG-16 y NasNet-Mobile se reemplazan con una capa de clasificación ponderada.

Figura 4. Estructura de entrenamiento que utiliza una capa de clasificación ponderada como estrategia de reequilibrio de clases. Los pesos son inversamente proporcionales al número de parches de imagen para mitigar el desequilibrio en el conjunto de datos.

El modelo se entrena y se aplica con un proceso iterativo. Después de la primera etapa de entrenamiento de imágenes etiquetadas manualmente, en la segunda etapa semiautomatizada, los patólogos revisan y modifican las predicciones generadas por el modelo entrenado (Figura 5). Esta segunda etapa se repite hasta que el modelo esté listo para ser implementado por profesionales médicos para diagnósticos clínicos. El paso (a) requiere una anotación manual inicial por parte de patólogos de nivel junior y sénior. Las anotaciones se realizan utilizando A!HistoClouds, donde se extraen como parches utilizados para entrenar el modelo de Deep Learning. Este modelo generará la región de interés (ROI) prevista para ayudar a patólogos, de ahí que se la conozca como anotación semiautomática. En el paso (b), el modelo experimenta un aprendizaje incremental, donde los patólogos revisan y corrigen las ROI predichas por la IA, se extraen como parches y el modelo aprende de estos nuevos datos. El paso (b) se repite hasta que el rendimiento del modelo haya alcanzado la convergencia, donde en el paso (c), el modelo se implementa para lograr una anotación/diagnóstico totalmente automático que impulsará la toma de decisiones de patólogos.

La estructura de entrenamiento del modelo de Deep Learning, donde las capas de clasificación regulares para las redes preentrenadas ResNet-50, VGG-16 y NasNet-Mobile se reemplazan con una capa de clasificación ponderada.

Figura 5. Proceso iterativo de entrenamiento.

Próximos pasos

CDPL ha implementado su plataforma de diagnóstico de patología asistido por Deep Learning en plataformas globales en la nube, brindando fácil acceso al equipo de patólogos que trabajan en diferentes países. A*STAR’s BII está trabajando en la validación y optimización del modelo de Deep Learning para otros escenarios clínicos, incluidos diferentes espesores de tejido, mecanismos de tinción y escáneres de imágenes. También está explorando la posibilidad de extender el mismo flujo de trabajo de evaluación de calidad de imágenes y Deep Learning a otros tipos de cáncer.

El CDPL en BII también organizó el desafio Automated Gleason Grading Challenge 2022 (AGGC 2022), que fue aceptado por la Conferencia Internacional de 2022 sobre Computación de Imágenes Médicas e Intervención Asistida por Computadora. AGGC 2022 se centra en abordar los desafíos de clasificación de Gleason para el cáncer de próstata, aprovechamiento de la patología digital y enfoques de Deep Learning. El desafío tiene como objetivo desarrollar algoritmos automatizados con alta precisión para imágenes histopatológicas de próstata teñidas con H&E, que presenten variaciones del mundo real. Cabe destacar que este es el primer desafío en el campo de la patología digital que investiga las variaciones de imágenes y desarrolla modelos de diagnóstico de IA fáciles de generalizar.

Aunque el desafío ha concluido, el conjunto de datos completo está disponible para continuar la investigación.

Reconocimientos

A*STAR’s BII agradece a colegas del Hospital Universitario Nacional (NUH), en particular al Profesor Tan Soo Yong y a la Dra. Susan Hue Swee Shan, al Dr. Lau Kah Weng y al Dr. Tan Char Loo, etc. por su asociación y colaboración. Se reconoce al NUH como el origen de datos y muestras que han contribuido a la investigación en este trabajo. El equipo agradece el apoyo recibido de otros colaboradores clínicos e industriales.

Publicado en 2024

Artículos sobre prestaciones afines

Artículos sobre industrias afines