Simple view
Full metadata view
Authors
Statistics
User-centric evaluation of explainability of AI with and for humans : a comprehensive empirical study
wyjaśnialna sztuczna inteligencja
sztuczna inteligencja zorientowana na człowieka
ewaluacja
badania empiryczne
badania użytkowników
Artifficial Intelligence
AI explanations
explainable artificial intelligence
Human-Centered AI
empirical user studies
assessment
Badanie to dotyczy sztucznej inteligencji zorientowanej na człowieka (HCAI) i koncentruje się na wynikach oceny powszechnie stosowanych algorytmów wyjaśniającej sztucznej inteligencji (XAI) z punktu widzenia użytkownika, w szczególności badając, w jaki sposób ludzie rozumieją wyjaśnienia dostarczane przez te algorytmy i wchodzą z nimi w interakcję. Aby to osiągnąć, zastosowaliśmy podejście multidyscyplinarne, które obejmowało najnowocześniejsze metody badawcze z zakresu nauk społecznych w celu zmierzenia zrozumiałości wyjaśnień generowanych przez najnowocześniejszy model uczenia maszynowego, a konkretnie klasyfikator Gradient Boosting Classifier (XGBClassifier). Przeprowadziliśmy szeroko zakrojone empiryczne badanie użytkowników, obejmujące wywiady z 39 uczestnikami z trzech różnych grup, z których każda miała różny poziom wiedzy specjalistycznej w zakresie nauki o danych, wizualizacji danych oraz wiedzy dziedzinowej związanej z zestawem danych wykorzystanym do szkolenia modelu uczenia maszynowego. Uczestnikom zadano serię pytań, aby ocenić ich zrozumienie wyjaśnień modelu. Aby zapewnić powtarzalność, zbudowaliśmy model przy użyciu publicznie dostępnego zbioru danych z repozytorium uczenia maszynowego Uniwersytetu Kalifornijskiego w Irvine, koncentrując się na grzybach jadalnych i niejadalnych. Nasze ustalenia ujawniają ograniczenia istniejących metod XAI i potwierdzają potrzebę opracowania nowych zasad projektowania i technik oceny, które uwzględniają konkretne potrzeby informacyjne i perspektywy użytkowników różnych klas interesariuszy sztucznej inteligencji (AI). Uważamy, że wyniki naszych badań i opracowana przez nas metodologia interdyscyplinarna mogą być z powodzeniem dostosowane do różnych typów danych i profili użytkowników, promując w ten sposób dialog i możliwości w badaniach HCAI. Aby to wesprzeć, udostępniamy publicznie dane wynikające z naszych badań.
This study is located in the Human-Centered Artificial Intelligence (HCAI) and focuses on the results of a user-centered assessment of commonly used eXplainable Artificial Intelligence (XAI) algorithms, specifically investigating how humans understand and interact with the explanations provided by these algorithms. To achieve this, we employed a multi-disciplinary approach that included state-of-the-art research methods from social sciences to measure the comprehensibility of explanations generated by a state-of-the-art machine learning model, specifically the Gradient Boosting Classifier (XGBClassifier). We conducted an extensive empirical user study involving interviews with 39 participants from three different groups, each with varying expertise in data science, data visualisation, and domain-specific knowledge related to the dataset used for training the machine learning model. Participants were asked a series of questions to assess their understanding of the model’s explanations. To ensure replicability, we built the model using a publicly available dataset from the University of California Irvine Machine Learning Repository, focusing on edible and non-edible mushrooms. Our findings reveal limitations in existing XAI methods and confirm the need for new design principles and evaluation techniques that address the specific information needs and user perspectives of different classes of artificial intelligence (AI) stakeholders. We believe that the results of our research and the cross-disciplinary methodology we developed can be successfully adapted to various data types and user profiles, thus promoting dialogue and address opportunities in HCAI research. To support this, we are making the data resulting from our study publicly available.
| dc.abstract.en | This study is located in the Human-Centered Artificial Intelligence (HCAI) and focuses on the results of a user-centered assessment of commonly used eXplainable Artificial Intelligence (XAI) algorithms, specifically investigating how humans understand and interact with the explanations provided by these algorithms. To achieve this, we employed a multi-disciplinary approach that included state-of-the-art research methods from social sciences to measure the comprehensibility of explanations generated by a state-of-the-art machine learning model, specifically the Gradient Boosting Classifier (XGBClassifier). We conducted an extensive empirical user study involving interviews with 39 participants from three different groups, each with varying expertise in data science, data visualisation, and domain-specific knowledge related to the dataset used for training the machine learning model. Participants were asked a series of questions to assess their understanding of the model’s explanations. To ensure replicability, we built the model using a publicly available dataset from the University of California Irvine Machine Learning Repository, focusing on edible and non-edible mushrooms. Our findings reveal limitations in existing XAI methods and confirm the need for new design principles and evaluation techniques that address the specific information needs and user perspectives of different classes of artificial intelligence (AI) stakeholders. We believe that the results of our research and the cross-disciplinary methodology we developed can be successfully adapted to various data types and user profiles, thus promoting dialogue and address opportunities in HCAI research. To support this, we are making the data resulting from our study publicly available. | |
| dc.abstract.pl | Badanie to dotyczy sztucznej inteligencji zorientowanej na człowieka (HCAI) i koncentruje się na wynikach oceny powszechnie stosowanych algorytmów wyjaśniającej sztucznej inteligencji (XAI) z punktu widzenia użytkownika, w szczególności badając, w jaki sposób ludzie rozumieją wyjaśnienia dostarczane przez te algorytmy i wchodzą z nimi w interakcję. Aby to osiągnąć, zastosowaliśmy podejście multidyscyplinarne, które obejmowało najnowocześniejsze metody badawcze z zakresu nauk społecznych w celu zmierzenia zrozumiałości wyjaśnień generowanych przez najnowocześniejszy model uczenia maszynowego, a konkretnie klasyfikator Gradient Boosting Classifier (XGBClassifier). Przeprowadziliśmy szeroko zakrojone empiryczne badanie użytkowników, obejmujące wywiady z 39 uczestnikami z trzech różnych grup, z których każda miała różny poziom wiedzy specjalistycznej w zakresie nauki o danych, wizualizacji danych oraz wiedzy dziedzinowej związanej z zestawem danych wykorzystanym do szkolenia modelu uczenia maszynowego. Uczestnikom zadano serię pytań, aby ocenić ich zrozumienie wyjaśnień modelu. Aby zapewnić powtarzalność, zbudowaliśmy model przy użyciu publicznie dostępnego zbioru danych z repozytorium uczenia maszynowego Uniwersytetu Kalifornijskiego w Irvine, koncentrując się na grzybach jadalnych i niejadalnych. Nasze ustalenia ujawniają ograniczenia istniejących metod XAI i potwierdzają potrzebę opracowania nowych zasad projektowania i technik oceny, które uwzględniają konkretne potrzeby informacyjne i perspektywy użytkowników różnych klas interesariuszy sztucznej inteligencji (AI). Uważamy, że wyniki naszych badań i opracowana przez nas metodologia interdyscyplinarna mogą być z powodzeniem dostosowane do różnych typów danych i profili użytkowników, promując w ten sposób dialog i możliwości w badaniach HCAI. Aby to wesprzeć, udostępniamy publicznie dane wynikające z naszych badań. | |
| dc.affiliation | Wydział Fizyki, Astronomii i Informatyki Stosowanej : Instytut Informatyki Stosowanej | |
| dc.affiliation | Wydział Zarządzania i Komunikacji Społecznej : Instytut Studiów Informacyjnych | |
| dc.affiliation | Szkoła Doktorska Nauk Ścisłych i Przyrodniczych | |
| dc.contributor.author | Bobek, Szymon - 428058 | |
| dc.contributor.author | Korycińska, Paloma - 129158 | |
| dc.contributor.author | Krakowska, Monika - 129418 | |
| dc.contributor.author | Mozolewski, Maciej - 135129 | |
| dc.contributor.author | Rak, Dorota - 182312 | |
| dc.contributor.author | Zych, Magdalena - 176066 | |
| dc.contributor.author | Wójcik, Magdalena - 147466 | |
| dc.contributor.author | Nalepa, Grzegorz - 200414 | |
| dc.date.accession | 2025-09-18 | |
| dc.date.accessioned | 2025-09-26T15:01:04Z | |
| dc.date.available | 2025-09-26T15:01:04Z | |
| dc.date.createdat | 2025-09-19T08:26:28Z | en |
| dc.date.issued | 2025 | |
| dc.date.openaccess | 0 | |
| dc.description.accesstime | w momencie opublikowania | |
| dc.description.version | ostateczna wersja wydawcy | |
| dc.description.volume | 205 | |
| dc.identifier.articleid | 103625 | |
| dc.identifier.doi | 10.1016/j.ijhcs.2025.103625 | |
| dc.identifier.doidataset | 10.5281/zenodo.11448394 | |
| dc.identifier.eissn | 1095-9300 | |
| dc.identifier.issn | 1071-5819 | |
| dc.identifier.project | DRC AI | |
| dc.identifier.uri | https://ruj.uj.edu.pl/handle/item/561436 | |
| dc.identifier.weblink | https://www.sciencedirect.com/science/article/pii/S107158192500182X?via%3Dihub | |
| dc.language | eng | |
| dc.language.container | eng | |
| dc.rights | Udzielam licencji. Uznanie autorstwa 4.0 Międzynarodowa | |
| dc.rights.licence | CC-BY | |
| dc.rights.uri | http://creativecommons.org/licenses/by/4.0/legalcode.pl | |
| dc.share.type | inne | |
| dc.subject.en | AI explanations | |
| dc.subject.en | explainable artificial intelligence | |
| dc.subject.en | Human-Centered AI | |
| dc.subject.en | empirical user studies | |
| dc.subject.en | assessment | |
| dc.subject.pl | wyjaśnialna sztuczna inteligencja | |
| dc.subject.pl | sztuczna inteligencja zorientowana na człowieka | |
| dc.subject.pl | ewaluacja | |
| dc.subject.pl | badania empiryczne | |
| dc.subject.pl | badania użytkowników | |
| dc.subject.pl | Artifficial Intelligence | |
| dc.subtype | Article | |
| dc.title | User-centric evaluation of explainability of AI with and for humans : a comprehensive empirical study | |
| dc.title.journal | International Journal of Human Computer Studies | |
| dc.type | JournalArticle | |
| dspace.entity.type | Publication | en |
* The migration of download and view statistics prior to the date of April 8, 2024 is in progress.
Views
40
Views per month
Views per city
Downloads
Open Access