Budowa narzędzia do weryfikacji wyjaśnień decyzji modeli uczenia maszynowego

licenciate
dc.abstract.enThe main purpose of the work was to expand the InXAI tool with a module that allows you to work with graphic data. The work can be divided into three parts. The first part describes machine learning and what types we can divide it into. The basic and more complex evaluation metrics that are used in the process of creating a machine learning model are explained. Each of the metrics is described how it can be calculated. This section also highlights the impact of explaining model’s operations for human in many aspects of life. Existing frameworks such as LIME and SHAP that are used to explain models are also described. The second part presents the added module for graphic data and the methods it uses. The method of creating perturbations in images, and the process of image segmentation into super pixels with the use of popular algorithms are described. Its operation was also presented and described in the example pictures. The last part describes and evaluates the InXAI tool for a synthetic dataset and presents evaluation metrics for four machine learning models.pl
dc.abstract.plGłównym celem pracy było rozbudowanie narzędzia InXAI o moduł pozwalający na pracę z danymi graficznymi. Pracę można podzielić na trzy części. W pierwszej z nich przybliżone zostało zagadnienie uczenia maszynowego oraz to, na jakie rodzaje możemy je podzielić. Wyjaśnione zostały podstawowe oraz bardziej złożone metryki ewaluacji, które są wykorzystywane w procesie tworzenia modelu uczenia maszynowego. Każda z metryk została opisana, w jaki sposób może zostać obliczona. W tej części została również zwrócona uwaga, jak duży wpływ ma wyjaśnianie procesu działania modelu dla człowieka w wielu aspektach życia. Opisane zostały również istniejące już framework’i takie jak LIME oraz SHAP, które są wykorzystywane do wyjaśniania modeli. W drugiej części zaprezentowany został dodany moduł dla danych graficznych oraz to jakie metody wykorzystuje. Opisany został sposób tworzenia perturbacji, czyli zakłóceń w obrazach oraz proces segmentacji obrazu na superpiksele za pomocą popularnych algorytmów. Przedstawione i opisane zostało również jego działanie na przykładowych obrazach. Ostatnia część to opis i ewaluacja narzędzia InXAI dla syntetycznego zbioru danych oraz zaprezentowanie metryk ewaluacji dla czterech modeli uczenia maszynowego.pl
dc.affiliationWydział Fizyki, Astronomii i Informatyki Stosowanejpl
dc.areaobszar nauk ścisłychpl
dc.contributor.advisorBobek, Szymonpl
dc.contributor.authorDudek, Konradpl
dc.contributor.departmentbycodeUJK/WFAISpl
dc.contributor.reviewerBobek, Szymonpl
dc.contributor.reviewerKutt, Krzysztofpl
dc.date.accessioned2021-12-16T22:33:49Z
dc.date.available2021-12-16T22:33:49Z
dc.date.submitted2021-09-14pl
dc.fieldofstudyinformatykapl
dc.identifier.apddiploma-150606-259025pl
dc.identifier.urihttps://ruj.uj.edu.pl/xmlui/handle/item/285687
dc.languagepolpl
dc.subject.enartificial intelligence, machine learning, explainability, interpretability, XAI, InXAI, IT, evaluation metrics, evaluation, algorithmspl
dc.subject.plsztuczna inteligencja, uczenie maszynowe, wyjaśnialność, interpretowalność, XAI, InXAI, informatyka, metryki ewaluacji, ewaluacja, algorytmypl
dc.titleBudowa narzędzia do weryfikacji wyjaśnień decyzji modeli uczenia maszynowegopl
dc.title.alternativeTool to verify the decision explanations of machine learning modelspl
dc.typelicenciatepl
dspace.entity.typePublication
dc.abstract.enpl
The main purpose of the work was to expand the InXAI tool with a module that allows you to work with graphic data. The work can be divided into three parts. The first part describes machine learning and what types we can divide it into. The basic and more complex evaluation metrics that are used in the process of creating a machine learning model are explained. Each of the metrics is described how it can be calculated. This section also highlights the impact of explaining model’s operations for human in many aspects of life. Existing frameworks such as LIME and SHAP that are used to explain models are also described. The second part presents the added module for graphic data and the methods it uses. The method of creating perturbations in images, and the process of image segmentation into super pixels with the use of popular algorithms are described. Its operation was also presented and described in the example pictures. The last part describes and evaluates the InXAI tool for a synthetic dataset and presents evaluation metrics for four machine learning models.
dc.abstract.plpl
Głównym celem pracy było rozbudowanie narzędzia InXAI o moduł pozwalający na pracę z danymi graficznymi. Pracę można podzielić na trzy części. W pierwszej z nich przybliżone zostało zagadnienie uczenia maszynowego oraz to, na jakie rodzaje możemy je podzielić. Wyjaśnione zostały podstawowe oraz bardziej złożone metryki ewaluacji, które są wykorzystywane w procesie tworzenia modelu uczenia maszynowego. Każda z metryk została opisana, w jaki sposób może zostać obliczona. W tej części została również zwrócona uwaga, jak duży wpływ ma wyjaśnianie procesu działania modelu dla człowieka w wielu aspektach życia. Opisane zostały również istniejące już framework’i takie jak LIME oraz SHAP, które są wykorzystywane do wyjaśniania modeli. W drugiej części zaprezentowany został dodany moduł dla danych graficznych oraz to jakie metody wykorzystuje. Opisany został sposób tworzenia perturbacji, czyli zakłóceń w obrazach oraz proces segmentacji obrazu na superpiksele za pomocą popularnych algorytmów. Przedstawione i opisane zostało również jego działanie na przykładowych obrazach. Ostatnia część to opis i ewaluacja narzędzia InXAI dla syntetycznego zbioru danych oraz zaprezentowanie metryk ewaluacji dla czterech modeli uczenia maszynowego.
dc.affiliationpl
Wydział Fizyki, Astronomii i Informatyki Stosowanej
dc.areapl
obszar nauk ścisłych
dc.contributor.advisorpl
Bobek, Szymon
dc.contributor.authorpl
Dudek, Konrad
dc.contributor.departmentbycodepl
UJK/WFAIS
dc.contributor.reviewerpl
Bobek, Szymon
dc.contributor.reviewerpl
Kutt, Krzysztof
dc.date.accessioned
2021-12-16T22:33:49Z
dc.date.available
2021-12-16T22:33:49Z
dc.date.submittedpl
2021-09-14
dc.fieldofstudypl
informatyka
dc.identifier.apdpl
diploma-150606-259025
dc.identifier.uri
https://ruj.uj.edu.pl/xmlui/handle/item/285687
dc.languagepl
pol
dc.subject.enpl
artificial intelligence, machine learning, explainability, interpretability, XAI, InXAI, IT, evaluation metrics, evaluation, algorithms
dc.subject.plpl
sztuczna inteligencja, uczenie maszynowe, wyjaśnialność, interpretowalność, XAI, InXAI, informatyka, metryki ewaluacji, ewaluacja, algorytmy
dc.titlepl
Budowa narzędzia do weryfikacji wyjaśnień decyzji modeli uczenia maszynowego
dc.title.alternativepl
Tool to verify the decision explanations of machine learning models
dc.typepl
licenciate
dspace.entity.type
Publication
Affiliations

* The migration of download and view statistics prior to the date of April 8, 2024 is in progress.

No access

No Thumbnail Available