Equidad en una clasificación binaria
Para detectar y mitigar el sesgo societario en una clasificación binaria, puede usar las funciones fairnessMetrics
, fairnessWeights
, disparateImpactRemover
y fairnessThresholder
en Statistics and Machine Learning Toolbox™. En primer lugar, use fairnessMetrics
para evaluar la equidad de un conjunto de datos o modelo de clasificación usando sesgos y métricas grupales. A continuación, use fairnessWeights
para volver a ponderar las observaciones, disparateImpactRemover
para eliminar el impacto dispar de un atributo susceptible o fairnessThresholder
para optimizar el umbral de clasificación.
Las funciones fairnessWeights
y disparateImpactRemover
ofrecen técnicas de preprocesamiento que permiten ajustar los datos de los predictores antes de entrenar (o volver a entrenar) un clasificador. La función fairnessThresholder
proporciona una técnica de posprocesamiento que ajusta las etiquetas cerca de los límites de predicción para un clasificador entrenado. Para evaluar el comportamiento del modelo final, puede usar la función fairnessMetrics
, así como varias funciones de interpretación. Para obtener más información, consulte Interpret Machine Learning Models.
Funciones
Temas
- Introduction to Fairness in Binary Classification
Detect and mitigate societal bias in machine learning by using the
fairnessMetrics
,fairnessWeights
,disparateImpactRemover
, andfairnessThresholder
functions.
Información relacionada
- Explore Fairness Metrics for Credit Scoring Model (Risk Management Toolbox)
- Bias Mitigation in Credit Scoring by Reweighting (Risk Management Toolbox)
- Bias Mitigation in Credit Scoring by Disparate Impact Removal (Risk Management Toolbox)