Equidad en una clasificación binaria
Para detectar y mitigar el sesgo societario en una clasificación binaria, puede usar las funciones fairnessMetrics
, fairnessWeights
y disparateImpactRemover
en Statistics and Machine Learning Toolbox™. En primer lugar, use fairnessMetrics
para evaluar la equidad de un conjunto de datos o modelo de clasificación usando sesgos y métricas grupales. A continuación, use fairnessWeights
para volver a ponderar las observaciones o use disparateImpactRemover
para eliminar el impacto dispar de un atributo susceptible.
Las funciones fairnessWeights
y disparateImpactRemover
ofrecen técnicas de preprocesamiento que permiten ajustar los datos de los predictores antes de entrenar (o volver a entrenar) un clasificador. Para evaluar el comportamiento del modelo tras el entrenamiento, puede usar la función fairnessMetrics
, así como varias funciones de interpretación. Para obtener más información, consulte Interpret Machine Learning Models.
Funciones
fairnessMetrics | Bias and group metrics for a data set or classification model |
report | Generate fairness metrics report |
plot | Plot bar graph of fairness metric |
fairnessWeights | Reweight observations for fairness in binary classification |
disparateImpactRemover | Remove disparate impact of sensitive attribute |
transform | Transform new predictor data to remove disparate impact |
Temas
- Introduction to Fairness in Binary Classification
Detect and mitigate societal bias in machine learning by using the
fairnessMetrics
,fairnessWeights
,disparateImpactRemover
, andfairnessThresholder
functions.
Información relacionada
- Explore Fairness Metrics for Credit Scoring Model (Risk Management Toolbox)
- Bias Mitigation in Credit Scoring by Reweighting (Risk Management Toolbox)
- Bias Mitigation in Credit Scoring by Disparate Impact Removal (Risk Management Toolbox)