Simple view
Full metadata view
Authors
Statistics
Multi-task learning in Self eXplainable Deep Neural Networks
Uczenie wielozadaniowe w samowytłumaczalnych głębokich sieciach neuronowych
Sztuczna Inteligencja (SI), eXplainable Artificial Ingeligence (XAI), Modele uczenia maszynowego, Głębokie sieci neuronowe, Uczenie wielozadaniowe, Samo-wyjaśnialne głębokie sieci neuronowe, Wyjaśnialność, Wierność, LIME
Artificial Ingeligence (AI), eXplainable Artificial Ingeligence (XAI), Machine Learning Models, Deep Neural Networks, Multi-task learning, Sefl Explainable Deep Neural Networks, Explainability, Fidelity, LIME
Praca analizuje i rozszerza badanie „Exploring Multi Task Learning for Explainability” autorstwa Foivosa Charalampakosa i Iordanisa Koutsopoulosa. Głównym celem jest odtworzenie wyników oryginalnego badania w celu oceny wpływu zastosowania podejścia Multi-Task Learning na wydajność modeli w dwóch zadaniach: zadanie predykcyjne (mierzone błędem średniokwadratowym lub dokładnością) i wyjaśnialność (mierzona za pomocą Global Fidelity). Ponadto praca bada wpływ podejścia na lokalną wyjaśnialność. Wyniki są porównywane z wynikami uzyskanymi za pomocą podejścia Single Task Learning, które służy jako punkt odniesienia. Ponadto wprowadzono rozszerzenie polegające na włączeniu lokalnych modeli zastępczych i Neighborhood Fidelity podczas szkolenia, w celu oceny ich wpływu na wydajność modeli.
Thesis analyzes and extends the research "Exploring Multi Task Learning for Explainability" by Foivos Charalampakos and Iordanis Koutsopoulos. The primary objective is to reproduce the results of the original study to evaluate the effects of employing a Multi-Task Learning approach on model performance across two tasks: prediction (measured by mean squared error or accuracy) and explainability (measured through Global Fidelity). Additionally, this thesis investigates the influence of the approach on local explainability. The outcomes are compared with those derived from a Single Task Learning approach, which serves as the reference baseline. Moreover, an extension is introduced through the incorporation of local surrogate models and Neighborhood Fidelity during training, with the aim of assessing their impact on various performance metrics of the models.
dc.abstract.en | Thesis analyzes and extends the research "Exploring Multi Task Learning for Explainability" by Foivos Charalampakos and Iordanis Koutsopoulos. The primary objective is to reproduce the results of the original study to evaluate the effects of employing a Multi-Task Learning approach on model performance across two tasks: prediction (measured by mean squared error or accuracy) and explainability (measured through Global Fidelity). Additionally, this thesis investigates the influence of the approach on local explainability. The outcomes are compared with those derived from a Single Task Learning approach, which serves as the reference baseline. Moreover, an extension is introduced through the incorporation of local surrogate models and Neighborhood Fidelity during training, with the aim of assessing their impact on various performance metrics of the models. | pl |
dc.abstract.pl | Praca analizuje i rozszerza badanie „Exploring Multi Task Learning for Explainability” autorstwa Foivosa Charalampakosa i Iordanisa Koutsopoulosa. Głównym celem jest odtworzenie wyników oryginalnego badania w celu oceny wpływu zastosowania podejścia Multi-Task Learning na wydajność modeli w dwóch zadaniach: zadanie predykcyjne (mierzone błędem średniokwadratowym lub dokładnością) i wyjaśnialność (mierzona za pomocą Global Fidelity). Ponadto praca bada wpływ podejścia na lokalną wyjaśnialność. Wyniki są porównywane z wynikami uzyskanymi za pomocą podejścia Single Task Learning, które służy jako punkt odniesienia. Ponadto wprowadzono rozszerzenie polegające na włączeniu lokalnych modeli zastępczych i Neighborhood Fidelity podczas szkolenia, w celu oceny ich wpływu na wydajność modeli. | pl |
dc.affiliation | Uniwersytet Jagielloński w Krakowie | pl |
dc.contributor.advisor | Bobek, Szymon - USOS285240 | pl |
dc.contributor.author | Domagała, Adrian - USOS261680 | pl |
dc.contributor.departmentbycode | UJK/UJK | pl |
dc.contributor.reviewer | Nalepa, Grzegorz - 200414 | pl |
dc.contributor.reviewer | Bobek, Szymon - USOS285240 | pl |
dc.date.accessioned | 2024-10-29T23:31:54Z | |
dc.date.available | 2024-10-29T23:31:54Z | |
dc.date.createdat | 2024-10-29T23:31:54Z | en |
dc.date.submitted | 2024-10-28 | pl |
dc.fieldofstudy | informatyka gier komputerowych | pl |
dc.identifier.apd | diploma-171119-261680 | pl |
dc.identifier.uri | https://ruj.uj.edu.pl/handle/item/458359 | |
dc.language | eng | pl |
dc.subject.en | Artificial Ingeligence (AI), eXplainable Artificial Ingeligence (XAI), Machine Learning Models, Deep Neural Networks, Multi-task learning, Sefl Explainable Deep Neural Networks, Explainability, Fidelity, LIME | pl |
dc.subject.pl | Sztuczna Inteligencja (SI), eXplainable Artificial Ingeligence (XAI), Modele uczenia maszynowego, Głębokie sieci neuronowe, Uczenie wielozadaniowe, Samo-wyjaśnialne głębokie sieci neuronowe, Wyjaśnialność, Wierność, LIME | pl |
dc.title | Multi-task learning in Self eXplainable Deep Neural Networks | pl |
dc.title.alternative | Uczenie wielozadaniowe w samowytłumaczalnych głębokich sieciach neuronowych | pl |
dc.type | master | pl |
dspace.entity.type | Publication |