Simple view
Full metadata view
Authors
Statistics
Analiza zagrożeń związanych z modelami generatywnej sztucznej inteligencji z perspektywy prawnej
Analysis of threats posed by generative artificial intelligence models from a legal standpoint
generatywna sztuczna inteligencja, duże modele językowe, halucynacje, sykofancja, manipulacja, deepfake, slopaganda, dezinfromacja, misinformacja, AI Act, prawa epistemiczne
generative artificial intelligence, large language models, hallucinations, sycophancy, manipulation, deepfakes, slopaganda, disinformation, misinformation, AI Act, epistemic rights
Modele sztucznej inteligencji określne mianem „generatywnych” z uwagi na ich zdolności w zakresie tworzenia tekstów, obrazów, wideo, muzyki, a nawet kodu komputerowego, wzbudzają ogromne zainteresowanie społeczne, biznesowe oraz akademickie. Rozwój tej technologii przebiega bardzo dynamicznie, przyczyniając się do przyspieszenia pracy oraz automatyzacji wielu zadań. Jednak jej powszechna dostępność wzmacnia i rodzi zagrożenia dla użytkowników i przestrzeni informacyjnej, które wymagają pogłębionego i interdyscyplinarnego namysłu. W pracy podjęto próbę analizy zagrożeń związanych z generatywną sztuczną inteligencją z perspektywy prawnej. Praca składa się z trzech rozdziałów. Rozdział pierwszy został poświęcony wprowadzaniu w zagadnienia związane ze sztuczną inteligencją. Omawiam w nim problemy związane z definiowaniem „sztucznej inteligencji” oraz zwięźle przedstawiam historię rozwoju tej dyscypliny badawczej. Następnie przybliżam najważniejsze pojęcia z obszaru sztucznej inteligencji oraz opisuję klasę technologii określanych mianem „generatywnej sztucznej inteligencji”. W rozdziale drugim definiuję pojęcie zagrożeń związanych z generatywną sztuczną inteligencją, a następnie omawiam zidentyfikowane zagrożenia, do których zaliczam: halucynacje, sykofancję (ang. sycophancy), manipulacje, dezinformacje, misinformacje, slopagandę oraz deepfake. W rozdziale trzecim staram się nakreślić odpowiedzi prawne na zidentyfikowane zagrożenia. Punktem przewodnim analizy jest unijny akt w sprawie sztucznej inteligencji. Analiza prawna jest jednak uzupełniana dyskusją innych aktów normatywnych, a także spraw sądowych, które powiązane są z tematyką zagrożeń. Najwięcej miejsca poświęcono zagadnieniom, które nie spotkały się dotychczas z pogłębioną dyskusją prawną, tj. halucynacjom oraz sykofancji. Rozważania zostały uzupełnione namysłem nad nową klasą regulacji prawnych i praw podstawowych określanych mianem „praw epistemicznych”. Potrzeba ich konceptualizacji uzasadniana jest gwałtownym wzrostem skali zagrożeń w przestrzeni informacyjnej.Wnioski z przeprowadzonej analizy wskazują na ograniczenia obowiązującego prawa w zakresie ochrony praw jednostek przed niebezpiecznym działaniem i wykorzystaniem modeli generatywnej sztucznej inteligencji.
Artificial intelligence models referred to as generative due to their ability to create text, images, video, music, and even computer code are attracting enormous interest from the public, business, and academia. The development of this technology is advancing very dynamically, contributing to the acceleration of work and automatization of many tasks. However, its widespread availability amplifies and raises risks for users and the information space, which require in-depth and interdisciplinary reflection. This thesis attempts to analyse the threats associated with generative artificial intelligence from a legal perspective. The thesis consists of three chapters.The first chapter outlines issues related to artificial intelligence. There, I discuss problems related to defining “artificial intelligence” and briefly present the history of the development of this research area. Next, I introduce the most important concepts in the field of artificial intelligence and describe a class of technologies known as “generative artificial intelligence.” In the second chapter, I define the concept of “threats associated with generative artificial intelligence” and then discuss the identified threats, which include: hallucinations, sycophancy, manipulation, disinformation, misinformation, slopaganda, and deepfakes.In chapter three, I attempt to outline legal responses to the identified threats. The analysis focuses on the EU artificial intelligence act. Nevertheless, the legal analysis is supplemented by a discussion of other normative acts, as well as court cases related to the subject of threats. Most space is devoted to issues that have not yet been the subject of in-depth legal discussion, i.e., hallucinations and sycophancy. The considerations are supplemented by a reflection on a new class of legal regulations and fundamental rights referred to as epistemic rights. The need for their conceptualization is justified by the rapid increase in the scale of threats in the information space.The conclusions of the analysis point to the limitations of current law in protecting the rights of individuals against the dangerous performance and use of generative artificial intelligence models.
| dc.abstract.en | Artificial intelligence models referred to as generative due to their ability to create text, images, video, music, and even computer code are attracting enormous interest from the public, business, and academia. The development of this technology is advancing very dynamically, contributing to the acceleration of work and automatization of many tasks. However, its widespread availability amplifies and raises risks for users and the information space, which require in-depth and interdisciplinary reflection. This thesis attempts to analyse the threats associated with generative artificial intelligence from a legal perspective. The thesis consists of three chapters.The first chapter outlines issues related to artificial intelligence. There, I discuss problems related to defining “artificial intelligence” and briefly present the history of the development of this research area. Next, I introduce the most important concepts in the field of artificial intelligence and describe a class of technologies known as “generative artificial intelligence.” In the second chapter, I define the concept of “threats associated with generative artificial intelligence” and then discuss the identified threats, which include: hallucinations, sycophancy, manipulation, disinformation, misinformation, slopaganda, and deepfakes.In chapter three, I attempt to outline legal responses to the identified threats. The analysis focuses on the EU artificial intelligence act. Nevertheless, the legal analysis is supplemented by a discussion of other normative acts, as well as court cases related to the subject of threats. Most space is devoted to issues that have not yet been the subject of in-depth legal discussion, i.e., hallucinations and sycophancy. The considerations are supplemented by a reflection on a new class of legal regulations and fundamental rights referred to as epistemic rights. The need for their conceptualization is justified by the rapid increase in the scale of threats in the information space.The conclusions of the analysis point to the limitations of current law in protecting the rights of individuals against the dangerous performance and use of generative artificial intelligence models. | pl |
| dc.abstract.pl | Modele sztucznej inteligencji określne mianem „generatywnych” z uwagi na ich zdolności w zakresie tworzenia tekstów, obrazów, wideo, muzyki, a nawet kodu komputerowego, wzbudzają ogromne zainteresowanie społeczne, biznesowe oraz akademickie. Rozwój tej technologii przebiega bardzo dynamicznie, przyczyniając się do przyspieszenia pracy oraz automatyzacji wielu zadań. Jednak jej powszechna dostępność wzmacnia i rodzi zagrożenia dla użytkowników i przestrzeni informacyjnej, które wymagają pogłębionego i interdyscyplinarnego namysłu. W pracy podjęto próbę analizy zagrożeń związanych z generatywną sztuczną inteligencją z perspektywy prawnej. Praca składa się z trzech rozdziałów. Rozdział pierwszy został poświęcony wprowadzaniu w zagadnienia związane ze sztuczną inteligencją. Omawiam w nim problemy związane z definiowaniem „sztucznej inteligencji” oraz zwięźle przedstawiam historię rozwoju tej dyscypliny badawczej. Następnie przybliżam najważniejsze pojęcia z obszaru sztucznej inteligencji oraz opisuję klasę technologii określanych mianem „generatywnej sztucznej inteligencji”. W rozdziale drugim definiuję pojęcie zagrożeń związanych z generatywną sztuczną inteligencją, a następnie omawiam zidentyfikowane zagrożenia, do których zaliczam: halucynacje, sykofancję (ang. sycophancy), manipulacje, dezinformacje, misinformacje, slopagandę oraz deepfake. W rozdziale trzecim staram się nakreślić odpowiedzi prawne na zidentyfikowane zagrożenia. Punktem przewodnim analizy jest unijny akt w sprawie sztucznej inteligencji. Analiza prawna jest jednak uzupełniana dyskusją innych aktów normatywnych, a także spraw sądowych, które powiązane są z tematyką zagrożeń. Najwięcej miejsca poświęcono zagadnieniom, które nie spotkały się dotychczas z pogłębioną dyskusją prawną, tj. halucynacjom oraz sykofancji. Rozważania zostały uzupełnione namysłem nad nową klasą regulacji prawnych i praw podstawowych określanych mianem „praw epistemicznych”. Potrzeba ich konceptualizacji uzasadniana jest gwałtownym wzrostem skali zagrożeń w przestrzeni informacyjnej.Wnioski z przeprowadzonej analizy wskazują na ograniczenia obowiązującego prawa w zakresie ochrony praw jednostek przed niebezpiecznym działaniem i wykorzystaniem modeli generatywnej sztucznej inteligencji. | pl |
| dc.affiliation | Wydział Prawa i Administracji | pl |
| dc.area | obszar nauk społecznych | pl |
| dc.contributor.advisor | Grabowski, Andrzej - 101047 | pl |
| dc.contributor.author | Figura, Jakub - 416837 | pl |
| dc.contributor.departmentbycode | UJK/WPA3 | pl |
| dc.contributor.reviewer | Grabowski, Andrzej - 101047 | pl |
| dc.contributor.reviewer | Araszkiewicz, Michał - 134836 | pl |
| dc.date.accessioned | 2025-10-12T22:32:58Z | |
| dc.date.available | 2025-10-12T22:32:58Z | |
| dc.date.createdat | 2025-10-12T22:32:58Z | en |
| dc.date.submitted | 2025-09-30 | pl |
| dc.date.submitted | 2025-09-30 | |
| dc.fieldofstudy | prawo | pl |
| dc.identifier.apd | diploma-185631-273791 | pl |
| dc.identifier.uri | https://ruj.uj.edu.pl/handle/item/562564 | |
| dc.language | pol | pl |
| dc.subject.en | generative artificial intelligence, large language models, hallucinations, sycophancy, manipulation, deepfakes, slopaganda, disinformation, misinformation, AI Act, epistemic rights | pl |
| dc.subject.pl | generatywna sztuczna inteligencja, duże modele językowe, halucynacje, sykofancja, manipulacja, deepfake, slopaganda, dezinfromacja, misinformacja, AI Act, prawa epistemiczne | pl |
| dc.title | Analiza zagrożeń związanych z modelami generatywnej sztucznej inteligencji z perspektywy prawnej | pl |
| dc.title.alternative | Analysis of threats posed by generative artificial intelligence models from a legal standpoint | pl |
| dc.type | master | pl |
| dspace.entity.type | Publication |