A medida que los modelos de IA se integran en sistemas de ingeniería, especialmente en aplicaciones críticas en materia de seguridad, resulta fundamental garantizar la fiabilidad y solidez. AI Verification Library for Deep Learning Toolbox permite evaluar y probar rigurosamente modelos de IA.
Con AI Verification Library, puede:
- Verificar las propiedades y solidez de modelos de IA frente a ejemplos antagónicos
- Calcular cuán sensibles son las predicciones de un modelo de IA ante perturbaciones de entrada
- Crear un discriminador de distribución para separar los datos dentro y fuera de distribución para supervisión en tiempo de ejecución
- Desplegar un sistema de supervisión en tiempo de ejecución para controlar el rendimiento de un modelo de IA
- Examinar un caso práctico para verificar un sistema de Deep Learning para aeronaves
Introducción a la verificación de IA
Los flujos de trabajo de verificación y validación (V+V) tradicionales, como el ciclo en V, suelen ser insuficientes para modelos de IA. La verificación de IA realiza pruebas rigurosas para garantizar los comportamientos previstos y evitar los imprevistos. Adaptaciones como el proceso de desarrollo en forma de W mejoran la solidez y seguridad, ya que gestionan entradas antagónicas, detección de datos fuera de distribución, estimación de incertidumbre y verificación de propiedades de redes.
Verificación de un sistema de Deep Learning para aeronaves (caso práctico)
Explore un caso práctico a fin de verificar un sistema de Deep Learning para aeronaves que se ajusta los estándares del sector de la aviación DO-178C y ARP4754A, así como futuras pautas de la EASA y la FAA. Este caso práctico ofrece una perspectiva global de los pasos necesarios para cumplir plenamente con los estándares y pautas del sector en un sistema de Deep Learning.
Verifique la solidez de una red neuronal profunda para tareas de clasificación
Refuerce la solidez de una red frente a ejemplos antagónicos, como entradas sutilmente alteradas diseñadas para engañar a la red, mediante métodos formales. Este enfoque permite probar un conjunto infinito de entradas, demostrar la uniformidad de las predicciones a pesar de las perturbaciones, mejorar el entrenamiento, y aumentar la fiabilidad y precisión de la red.
Estime los límites de salida de una red neuronal profunda para tareas de regresión
Estime el límite superior de salida de una red a partir de los rangos de entrada empleando métodos formales. Este proceso permite sacar conclusiones sobre las posibles salidas de la red ante determinadas perturbaciones de entrada, lo que garantiza un rendimiento fiable en sistemas de control, procesamiento de señales y otros escenarios.
Desarrolle sistemas de Deep Learning seguros con supervisión en tiempo de ejecución
Incorpore supervisión en tiempo de ejecución con detección de datos fuera de distribución para desarrollar sistemas de Deep Learning seguros. Evaluar continuamente si los datos de entrada se ajustan a los datos de entrenamiento puede ayudar a decidir si confiar en la salida de la red o redirigirla para gestionarla de manera segura, lo que mejora la seguridad y fiabilidad del sistema.
Use técnicas de explicabilidad
Sírvase de técnicas de explicabilidad para comprender el proceso de toma de decisiones de una red. Emplee el algoritmo D-RISE de muestreo aleatorio de entrada para la explicación de detectores para calcular mapas de prominencia para detectores de objetos y visualizar las regiones específicas de los datos de entrada que tienen más influencia en las predicciones de la red.
Integración de Deep Learning restringido
Deep Learning restringido es un enfoque avanzado para entrenar redes neuronales profundas incorporando restricciones específicas del dominio en el proceso de aprendizaje. Integrar estas restricciones en la construcción y entrenamiento de redes neuronales puede garantizar un comportamiento deseable en escenarios críticos en materia de seguridad donde tales garantías son primordiales.