Simple view
Full metadata view
Authors
Statistics
Budowa narzędzia do weryfikacji wyjaśnień decyzji modeli uczenia maszynowego
Tool to verify the decision explanations of machine learning models
sztuczna inteligencja, uczenie maszynowe, wyjaśnialność, interpretowalność, XAI, InXAI, informatyka, metryki ewaluacji, ewaluacja, algorytmy
artificial intelligence, machine learning, explainability, interpretability, XAI, InXAI, IT, evaluation metrics, evaluation, algorithms
Głównym celem pracy było rozbudowanie narzędzia InXAI o moduł pozwalający na pracę z danymi graficznymi. Pracę można podzielić na trzy części. W pierwszej z nich przybliżone zostało zagadnienie uczenia maszynowego oraz to, na jakie rodzaje możemy je podzielić. Wyjaśnione zostały podstawowe oraz bardziej złożone metryki ewaluacji, które są wykorzystywane w procesie tworzenia modelu uczenia maszynowego. Każda z metryk została opisana, w jaki sposób może zostać obliczona. W tej części została również zwrócona uwaga, jak duży wpływ ma wyjaśnianie procesu działania modelu dla człowieka w wielu aspektach życia. Opisane zostały również istniejące już framework’i takie jak LIME oraz SHAP, które są wykorzystywane do wyjaśniania modeli. W drugiej części zaprezentowany został dodany moduł dla danych graficznych oraz to jakie metody wykorzystuje. Opisany został sposób tworzenia perturbacji, czyli zakłóceń w obrazach oraz proces segmentacji obrazu na superpiksele za pomocą popularnych algorytmów. Przedstawione i opisane zostało również jego działanie na przykładowych obrazach. Ostatnia część to opis i ewaluacja narzędzia InXAI dla syntetycznego zbioru danych oraz zaprezentowanie metryk ewaluacji dla czterech modeli uczenia maszynowego.
The main purpose of the work was to expand the InXAI tool with a module that allows you to work with graphic data. The work can be divided into three parts. The first part describes machine learning and what types we can divide it into. The basic and more complex evaluation metrics that are used in the process of creating a machine learning model are explained. Each of the metrics is described how it can be calculated. This section also highlights the impact of explaining model’s operations for human in many aspects of life. Existing frameworks such as LIME and SHAP that are used to explain models are also described. The second part presents the added module for graphic data and the methods it uses. The method of creating perturbations in images, and the process of image segmentation into super pixels with the use of popular algorithms are described. Its operation was also presented and described in the example pictures. The last part describes and evaluates the InXAI tool for a synthetic dataset and presents evaluation metrics for four machine learning models.
dc.abstract.en | The main purpose of the work was to expand the InXAI tool with a module that allows you to work with graphic data. The work can be divided into three parts. The first part describes machine learning and what types we can divide it into. The basic and more complex evaluation metrics that are used in the process of creating a machine learning model are explained. Each of the metrics is described how it can be calculated. This section also highlights the impact of explaining model’s operations for human in many aspects of life. Existing frameworks such as LIME and SHAP that are used to explain models are also described. The second part presents the added module for graphic data and the methods it uses. The method of creating perturbations in images, and the process of image segmentation into super pixels with the use of popular algorithms are described. Its operation was also presented and described in the example pictures. The last part describes and evaluates the InXAI tool for a synthetic dataset and presents evaluation metrics for four machine learning models. | pl |
dc.abstract.pl | Głównym celem pracy było rozbudowanie narzędzia InXAI o moduł pozwalający na pracę z danymi graficznymi. Pracę można podzielić na trzy części. W pierwszej z nich przybliżone zostało zagadnienie uczenia maszynowego oraz to, na jakie rodzaje możemy je podzielić. Wyjaśnione zostały podstawowe oraz bardziej złożone metryki ewaluacji, które są wykorzystywane w procesie tworzenia modelu uczenia maszynowego. Każda z metryk została opisana, w jaki sposób może zostać obliczona. W tej części została również zwrócona uwaga, jak duży wpływ ma wyjaśnianie procesu działania modelu dla człowieka w wielu aspektach życia. Opisane zostały również istniejące już framework’i takie jak LIME oraz SHAP, które są wykorzystywane do wyjaśniania modeli. W drugiej części zaprezentowany został dodany moduł dla danych graficznych oraz to jakie metody wykorzystuje. Opisany został sposób tworzenia perturbacji, czyli zakłóceń w obrazach oraz proces segmentacji obrazu na superpiksele za pomocą popularnych algorytmów. Przedstawione i opisane zostało również jego działanie na przykładowych obrazach. Ostatnia część to opis i ewaluacja narzędzia InXAI dla syntetycznego zbioru danych oraz zaprezentowanie metryk ewaluacji dla czterech modeli uczenia maszynowego. | pl |
dc.affiliation | Wydział Fizyki, Astronomii i Informatyki Stosowanej | pl |
dc.area | obszar nauk ścisłych | pl |
dc.contributor.advisor | Bobek, Szymon | pl |
dc.contributor.author | Dudek, Konrad | pl |
dc.contributor.departmentbycode | UJK/WFAIS | pl |
dc.contributor.reviewer | Bobek, Szymon | pl |
dc.contributor.reviewer | Kutt, Krzysztof | pl |
dc.date.accessioned | 2021-12-16T22:33:49Z | |
dc.date.available | 2021-12-16T22:33:49Z | |
dc.date.submitted | 2021-09-14 | pl |
dc.fieldofstudy | informatyka | pl |
dc.identifier.apd | diploma-150606-259025 | pl |
dc.identifier.uri | https://ruj.uj.edu.pl/xmlui/handle/item/285687 | |
dc.language | pol | pl |
dc.subject.en | artificial intelligence, machine learning, explainability, interpretability, XAI, InXAI, IT, evaluation metrics, evaluation, algorithms | pl |
dc.subject.pl | sztuczna inteligencja, uczenie maszynowe, wyjaśnialność, interpretowalność, XAI, InXAI, informatyka, metryki ewaluacji, ewaluacja, algorytmy | pl |
dc.title | Budowa narzędzia do weryfikacji wyjaśnień decyzji modeli uczenia maszynowego | pl |
dc.title.alternative | Tool to verify the decision explanations of machine learning models | pl |
dc.type | licenciate | pl |
dspace.entity.type | Publication |