User-centric evaluation of explainability of AI with and for humans : a comprehensive empirical study

2025
journal article
article
dc.abstract.enThis study is located in the Human-Centered Artificial Intelligence (HCAI) and focuses on the results of a user-centered assessment of commonly used eXplainable Artificial Intelligence (XAI) algorithms, specifically investigating how humans understand and interact with the explanations provided by these algorithms. To achieve this, we employed a multi-disciplinary approach that included state-of-the-art research methods from social sciences to measure the comprehensibility of explanations generated by a state-of-the-art machine learning model, specifically the Gradient Boosting Classifier (XGBClassifier). We conducted an extensive empirical user study involving interviews with 39 participants from three different groups, each with varying expertise in data science, data visualisation, and domain-specific knowledge related to the dataset used for training the machine learning model. Participants were asked a series of questions to assess their understanding of the model’s explanations. To ensure replicability, we built the model using a publicly available dataset from the University of California Irvine Machine Learning Repository, focusing on edible and non-edible mushrooms. Our findings reveal limitations in existing XAI methods and confirm the need for new design principles and evaluation techniques that address the specific information needs and user perspectives of different classes of artificial intelligence (AI) stakeholders. We believe that the results of our research and the cross-disciplinary methodology we developed can be successfully adapted to various data types and user profiles, thus promoting dialogue and address opportunities in HCAI research. To support this, we are making the data resulting from our study publicly available.
dc.abstract.plBadanie to dotyczy sztucznej inteligencji zorientowanej na człowieka (HCAI) i koncentruje się na wynikach oceny powszechnie stosowanych algorytmów wyjaśniającej sztucznej inteligencji (XAI) z punktu widzenia użytkownika, w szczególności badając, w jaki sposób ludzie rozumieją wyjaśnienia dostarczane przez te algorytmy i wchodzą z nimi w interakcję. Aby to osiągnąć, zastosowaliśmy podejście multidyscyplinarne, które obejmowało najnowocześniejsze metody badawcze z zakresu nauk społecznych w celu zmierzenia zrozumiałości wyjaśnień generowanych przez najnowocześniejszy model uczenia maszynowego, a konkretnie klasyfikator Gradient Boosting Classifier (XGBClassifier). Przeprowadziliśmy szeroko zakrojone empiryczne badanie użytkowników, obejmujące wywiady z 39 uczestnikami z trzech różnych grup, z których każda miała różny poziom wiedzy specjalistycznej w zakresie nauki o danych, wizualizacji danych oraz wiedzy dziedzinowej związanej z zestawem danych wykorzystanym do szkolenia modelu uczenia maszynowego. Uczestnikom zadano serię pytań, aby ocenić ich zrozumienie wyjaśnień modelu. Aby zapewnić powtarzalność, zbudowaliśmy model przy użyciu publicznie dostępnego zbioru danych z repozytorium uczenia maszynowego Uniwersytetu Kalifornijskiego w Irvine, koncentrując się na grzybach jadalnych i niejadalnych. Nasze ustalenia ujawniają ograniczenia istniejących metod XAI i potwierdzają potrzebę opracowania nowych zasad projektowania i technik oceny, które uwzględniają konkretne potrzeby informacyjne i perspektywy użytkowników różnych klas interesariuszy sztucznej inteligencji (AI). Uważamy, że wyniki naszych badań i opracowana przez nas metodologia interdyscyplinarna mogą być z powodzeniem dostosowane do różnych typów danych i profili użytkowników, promując w ten sposób dialog i możliwości w badaniach HCAI. Aby to wesprzeć, udostępniamy publicznie dane wynikające z naszych badań.
dc.affiliationWydział Fizyki, Astronomii i Informatyki Stosowanej : Instytut Informatyki Stosowanej
dc.affiliationWydział Zarządzania i Komunikacji Społecznej : Instytut Studiów Informacyjnych
dc.affiliationSzkoła Doktorska Nauk Ścisłych i Przyrodniczych
dc.contributor.authorBobek, Szymon - 428058
dc.contributor.authorKorycińska, Paloma - 129158
dc.contributor.authorKrakowska, Monika - 129418
dc.contributor.authorMozolewski, Maciej - 135129
dc.contributor.authorRak, Dorota - 182312
dc.contributor.authorZych, Magdalena - 176066
dc.contributor.authorWójcik, Magdalena - 147466
dc.contributor.authorNalepa, Grzegorz - 200414
dc.date.accession2025-09-18
dc.date.accessioned2025-09-26T15:01:04Z
dc.date.available2025-09-26T15:01:04Z
dc.date.createdat2025-09-19T08:26:28Zen
dc.date.issued2025
dc.date.openaccess0
dc.description.accesstimew momencie opublikowania
dc.description.versionostateczna wersja wydawcy
dc.description.volume205
dc.identifier.articleid103625
dc.identifier.doi10.1016/j.ijhcs.2025.103625
dc.identifier.doidataset10.5281/zenodo.11448394
dc.identifier.eissn1095-9300
dc.identifier.issn1071-5819
dc.identifier.projectDRC AI
dc.identifier.urihttps://ruj.uj.edu.pl/handle/item/561436
dc.identifier.weblinkhttps://www.sciencedirect.com/science/article/pii/S107158192500182X?via%3Dihub
dc.languageeng
dc.language.containereng
dc.rightsUdzielam licencji. Uznanie autorstwa 4.0 Międzynarodowa
dc.rights.licenceCC-BY
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/legalcode.pl
dc.share.typeinne
dc.subject.enAI explanations
dc.subject.enexplainable artificial intelligence
dc.subject.enHuman-Centered AI
dc.subject.enempirical user studies
dc.subject.enassessment
dc.subject.plwyjaśnialna sztuczna inteligencja
dc.subject.plsztuczna inteligencja zorientowana na człowieka
dc.subject.plewaluacja
dc.subject.plbadania empiryczne
dc.subject.plbadania użytkowników
dc.subject.plArtifficial Intelligence
dc.subtypeArticle
dc.titleUser-centric evaluation of explainability of AI with and for humans : a comprehensive empirical study
dc.title.journalInternational Journal of Human Computer Studies
dc.typeJournalArticle
dspace.entity.typePublicationen
dc.abstract.en
This study is located in the Human-Centered Artificial Intelligence (HCAI) and focuses on the results of a user-centered assessment of commonly used eXplainable Artificial Intelligence (XAI) algorithms, specifically investigating how humans understand and interact with the explanations provided by these algorithms. To achieve this, we employed a multi-disciplinary approach that included state-of-the-art research methods from social sciences to measure the comprehensibility of explanations generated by a state-of-the-art machine learning model, specifically the Gradient Boosting Classifier (XGBClassifier). We conducted an extensive empirical user study involving interviews with 39 participants from three different groups, each with varying expertise in data science, data visualisation, and domain-specific knowledge related to the dataset used for training the machine learning model. Participants were asked a series of questions to assess their understanding of the model’s explanations. To ensure replicability, we built the model using a publicly available dataset from the University of California Irvine Machine Learning Repository, focusing on edible and non-edible mushrooms. Our findings reveal limitations in existing XAI methods and confirm the need for new design principles and evaluation techniques that address the specific information needs and user perspectives of different classes of artificial intelligence (AI) stakeholders. We believe that the results of our research and the cross-disciplinary methodology we developed can be successfully adapted to various data types and user profiles, thus promoting dialogue and address opportunities in HCAI research. To support this, we are making the data resulting from our study publicly available.
dc.abstract.pl
Badanie to dotyczy sztucznej inteligencji zorientowanej na człowieka (HCAI) i koncentruje się na wynikach oceny powszechnie stosowanych algorytmów wyjaśniającej sztucznej inteligencji (XAI) z punktu widzenia użytkownika, w szczególności badając, w jaki sposób ludzie rozumieją wyjaśnienia dostarczane przez te algorytmy i wchodzą z nimi w interakcję. Aby to osiągnąć, zastosowaliśmy podejście multidyscyplinarne, które obejmowało najnowocześniejsze metody badawcze z zakresu nauk społecznych w celu zmierzenia zrozumiałości wyjaśnień generowanych przez najnowocześniejszy model uczenia maszynowego, a konkretnie klasyfikator Gradient Boosting Classifier (XGBClassifier). Przeprowadziliśmy szeroko zakrojone empiryczne badanie użytkowników, obejmujące wywiady z 39 uczestnikami z trzech różnych grup, z których każda miała różny poziom wiedzy specjalistycznej w zakresie nauki o danych, wizualizacji danych oraz wiedzy dziedzinowej związanej z zestawem danych wykorzystanym do szkolenia modelu uczenia maszynowego. Uczestnikom zadano serię pytań, aby ocenić ich zrozumienie wyjaśnień modelu. Aby zapewnić powtarzalność, zbudowaliśmy model przy użyciu publicznie dostępnego zbioru danych z repozytorium uczenia maszynowego Uniwersytetu Kalifornijskiego w Irvine, koncentrując się na grzybach jadalnych i niejadalnych. Nasze ustalenia ujawniają ograniczenia istniejących metod XAI i potwierdzają potrzebę opracowania nowych zasad projektowania i technik oceny, które uwzględniają konkretne potrzeby informacyjne i perspektywy użytkowników różnych klas interesariuszy sztucznej inteligencji (AI). Uważamy, że wyniki naszych badań i opracowana przez nas metodologia interdyscyplinarna mogą być z powodzeniem dostosowane do różnych typów danych i profili użytkowników, promując w ten sposób dialog i możliwości w badaniach HCAI. Aby to wesprzeć, udostępniamy publicznie dane wynikające z naszych badań.
dc.affiliation
Wydział Fizyki, Astronomii i Informatyki Stosowanej : Instytut Informatyki Stosowanej
dc.affiliation
Wydział Zarządzania i Komunikacji Społecznej : Instytut Studiów Informacyjnych
dc.affiliation
Szkoła Doktorska Nauk Ścisłych i Przyrodniczych
dc.contributor.author
Bobek, Szymon - 428058
dc.contributor.author
Korycińska, Paloma - 129158
dc.contributor.author
Krakowska, Monika - 129418
dc.contributor.author
Mozolewski, Maciej - 135129
dc.contributor.author
Rak, Dorota - 182312
dc.contributor.author
Zych, Magdalena - 176066
dc.contributor.author
Wójcik, Magdalena - 147466
dc.contributor.author
Nalepa, Grzegorz - 200414
dc.date.accession
2025-09-18
dc.date.accessioned
2025-09-26T15:01:04Z
dc.date.available
2025-09-26T15:01:04Z
dc.date.createdaten
2025-09-19T08:26:28Z
dc.date.issued
2025
dc.date.openaccess
0
dc.description.accesstime
w momencie opublikowania
dc.description.version
ostateczna wersja wydawcy
dc.description.volume
205
dc.identifier.articleid
103625
dc.identifier.doi
10.1016/j.ijhcs.2025.103625
dc.identifier.doidataset
10.5281/zenodo.11448394
dc.identifier.eissn
1095-9300
dc.identifier.issn
1071-5819
dc.identifier.project
DRC AI
dc.identifier.uri
https://ruj.uj.edu.pl/handle/item/561436
dc.identifier.weblink
https://www.sciencedirect.com/science/article/pii/S107158192500182X?via%3Dihub
dc.language
eng
dc.language.container
eng
dc.rights
Udzielam licencji. Uznanie autorstwa 4.0 Międzynarodowa
dc.rights.licence
CC-BY
dc.rights.uri
http://creativecommons.org/licenses/by/4.0/legalcode.pl
dc.share.type
inne
dc.subject.en
AI explanations
dc.subject.en
explainable artificial intelligence
dc.subject.en
Human-Centered AI
dc.subject.en
empirical user studies
dc.subject.en
assessment
dc.subject.pl
wyjaśnialna sztuczna inteligencja
dc.subject.pl
sztuczna inteligencja zorientowana na człowieka
dc.subject.pl
ewaluacja
dc.subject.pl
badania empiryczne
dc.subject.pl
badania użytkowników
dc.subject.pl
Artifficial Intelligence
dc.subtype
Article
dc.title
User-centric evaluation of explainability of AI with and for humans : a comprehensive empirical study
dc.title.journal
International Journal of Human Computer Studies
dc.type
JournalArticle
dspace.entity.typeen
Publication
Affiliations

* The migration of download and view statistics prior to the date of April 8, 2024 is in progress.

Views
40
Views per month
Views per city
Krakow
7
Jaworzno
2
Liszki
2
Gdansk
1
Hong Kong
1
Luxembourg
1
Nowy Sącz
1
Skawina
1
Wroclaw
1
Downloads
bobek_et-al_user-centric_evaluation_of_explainability_of_ai_with_and_for_humans_2025.pdf
35