Оптимизируйте свои подборки
Сохраняйте и классифицируйте контент в соответствии со своими настройками.
При оценке модели метрики, рассчитанные по всему набору тестов или проверок, не всегда дают точное представление о том, насколько справедлива модель. Хорошая производительность модели в целом для большинства примеров может маскировать плохую производительность в меньшинстве примеров, что может привести к предвзятым прогнозам модели. Использование совокупных показателей производительности, таких как точность , полнота и достоверность , не обязательно приведет к выявлению этих проблем.
Мы можем вернуться к нашей модели приема и изучить некоторые новые методы оценки ее прогнозов на предмет предвзятости с учетом справедливости.
Предположим, что модель классификации поступления выбирает 20 студентов для поступления в университет из пула из 100 кандидатов, принадлежащих к двум демографическим группам: группе большинства (синяя, 80 студентов) и группе меньшинства (оранжевая, 20 студентов).
Рисунок 1. Кандидатский пул из 100 студентов: 80 студентов принадлежат к группе большинства (синий), а 20 студентов принадлежат к группе меньшинства (оранжевый).
Модель должна принимать квалифицированных студентов на справедливой основе по отношению к кандидатам обеих демографических групп.
Как нам следует оценить справедливость прогнозов модели? Мы можем рассмотреть множество показателей, каждый из которых дает различное математическое определение «справедливости». В следующих разделах мы подробно рассмотрим три из этих показателей справедливости: демографический паритет, равенство возможностей и контрфактическую справедливость.
[[["Прост для понимания","easyToUnderstand","thumb-up"],["Помог мне решить мою проблему","solvedMyProblem","thumb-up"],["Другое","otherUp","thumb-up"]],[["Отсутствует нужная мне информация","missingTheInformationINeed","thumb-down"],["Слишком сложен/слишком много шагов","tooComplicatedTooManySteps","thumb-down"],["Устарел","outOfDate","thumb-down"],["Проблема с переводом текста","translationIssue","thumb-down"],["Проблемы образцов/кода","samplesCodeIssue","thumb-down"],["Другое","otherDown","thumb-down"]],["Последнее обновление: 2024-10-31 UTC."],[[["Aggregate model performance metrics like precision, recall, and accuracy can hide biases against minority groups."],["Fairness in model evaluation involves ensuring equitable outcomes across different demographic groups."],["This page explores various fairness metrics, including demographic parity, equality of opportunity, and counterfactual fairness, to assess model predictions for bias."],["Evaluating model predictions with these metrics helps in identifying and mitigating potential biases that can negatively affect minority groups."],["The goal is to develop models that not only achieve good overall performance but also ensure fair treatment for all individuals, regardless of their demographic background."]]],[]]