-
Notifications
You must be signed in to change notification settings - Fork 1
Open
Description
Poniżej jakaś wstępna propozycja tego, jak praca mogłaby wyglądać od strony swojej struktury:
• Wstęp
1. Rosnące znaczenie wyjaśnialności modeli ML
2. Motywacja/ Problem: brak realistycznych kontrfaktów w wielu metodach XAI. AI Act UE/ DARPA.
3. Cel pracy: Analiza metody, stworzenie interaktywnego narzędzia do generowania kontrfaktów.
• Przegląd literatury i podstaw teoretycznych
1. Explainable AI (XAI) Definicja i znaczenie.
2. Kategorie metod: post-hoc vs. intrinsically interpretable.
3. Counterfactual Explanations
4. Definicja kontrfaktu. Własności dobrego kontrfaktu
5. Przegląd istniejących w literaturze metod, w tym inne Metody występujące w benchmarku
• Optymalizacja Bayesowska. Tree-Structured Parzen Estimator (TPE).
• LinGam, Bayesian parameter estimation
• Opis metody CCF counterfactual search algorithm z uwzględnieniem sparsity, proximity, fidelity, plausibility
• Implementacja
1. Struktura paczki acfx
2. Obsługiwane modele i optymalizatory.
◦ EBM + EBMCounterOptimizer. Możliwość rozszerzenia o inne klasyfikatory i optymalizatory.
3. API, typy wejścia/wyjścia. Przykład użycia.
• Interaktywna aplikacja Streamlit
1. Opis funkcjonalności jakie oferuje aplikacja
2. Opis technologii wykorzystanych w aplikacji
3. Niektóre szczegóły techniczne
4. Przykładowe zrzuty ekranu
• Eksperymenty
1. Porównanie metody dla różnych zbiorów danych
2. Porównanie metody w trybie casual/ no-casual
3. Porównanie dla ACFX/ACFXLinear (ACFXCustom). Mógłbym potencjalnie eksperymentować za pomocą Friedman post-hoc statistical tests, ale tym razem porównując między innymi narzędziami wejściowymi dla acfx (klasyfikator/optymalizator). Analogicznie Ablation study mogłoby być przeprowadzone, ale dla różnych acfx.
• Podsumowanie
1. Co udało się osiągnąć
2. Wartość dodana tej magisterki do projektu
Praca może być po polsku albo po angielsku. Ile stron?
Reactions are currently unavailable
Metadata
Metadata
Assignees
Labels
No labels