Zadbaj o dobrą organizację dzięki kolekcji
Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.
Wskaźniki obliczone na podstawie całego testu lub walidacji podczas oceny modelu
nie zawsze dają dokładny obraz tego, jak obiektywny jest model.
Ogólna wydajność modelu w większości przykładów może być maskowana jako niska
wydajności na mniejszościach, co może prowadzić do stronniczości.
i generowanie prognoz modelu. Na podstawie zbiorczych danych o skuteczności, takich jak
precision,
recall,
a dokładność nie musi
i ujawnić te problemy.
Możemy ponownie przyjrzeć się naszemu modelowi przyjmowania zgłoszeń i poznać kilka nowych technik.
jak oceniać swoje prognozy pod kątem tendencyjności, mając na uwadze obiektywność.
Załóżmy, że model klasyfikacji rekrutacji wybiera 20 uczniów, którzy będą przyjmować
z puli 100 kandydatów, którzy należą do dwóch grup demograficznych:
grupę przeważającą (niebieską, 80 uczniów) i grupę mniejszościową.
(pomarańczowy, 20 uczniów).
Rysunek 1. Pula kandydatów obejmująca 100 uczniów: 80 uczniów należy do
większość (niebieska) i 20 uczniów należy do grupy mniejszości
(pomarańczowy).
Model musi akceptować kwalifikujących się uczniów w sposób uczciwy dla
kandydatów z obu grup demograficznych.
Jak należy oceniać prognozy modelu pod kątem obiektywności? Dostępne są różne typy treści.
można wziąć pod uwagę różne wskaźniki, z których każdy stanowi inne
definicję „uczciwości”. W kolejnych sekcjach przyjrzymy się trzem
takich jak parytet demograficzny, równość szans
i kontrfaktycznej obiektywności.
[[["Łatwo zrozumieć","easyToUnderstand","thumb-up"],["Rozwiązało to mój problem","solvedMyProblem","thumb-up"],["Inne","otherUp","thumb-up"]],[["Brak potrzebnych mi informacji","missingTheInformationINeed","thumb-down"],["Zbyt skomplikowane / zbyt wiele czynności do wykonania","tooComplicatedTooManySteps","thumb-down"],["Nieaktualne treści","outOfDate","thumb-down"],["Problem z tłumaczeniem","translationIssue","thumb-down"],["Problem z przykładami/kodem","samplesCodeIssue","thumb-down"],["Inne","otherDown","thumb-down"]],["Ostatnia aktualizacja: 2024-08-13 UTC."],[[["Aggregate model performance metrics like precision, recall, and accuracy can hide biases against minority groups."],["Fairness in model evaluation involves ensuring equitable outcomes across different demographic groups."],["This page explores various fairness metrics, including demographic parity, equality of opportunity, and counterfactual fairness, to assess model predictions for bias."],["Evaluating model predictions with these metrics helps in identifying and mitigating potential biases that can negatively affect minority groups."],["The goal is to develop models that not only achieve good overall performance but also ensure fair treatment for all individuals, regardless of their demographic background."]]],[]]