Simple view
Full metadata view
Authors
Statistics
Selected Threats of Artificial Intelligence on the Example of American Society
Wybrane zagrożenia sztucznej inteligencji na przykładzie społeczeństwa amerykańskiego
sztuczna inteligencja (AI), analiza ryzyka egzystencjalnego (x-risk analysis), zgodność sztucznej inteligencji (AI alignment), deepfake, technokracja, automatyzacja, uprzedzenie algorytmiczne
artificial intelligence (AI), existential risk (x-risk) analysis, artificial intelligence alignment, deepfake, technocracy, automation, algorithmic bias
Celem niniejszej pracy magisterskiej jest omówienie wybranych zagrożeń związanych z wykorzystaniem sztucznej inteligencji (AI) w różnych dziedzinach na przykładzie społeczeństwa amerykańskiego. W pierwszym rozdziale autorka przedstawia hipotezę i pytania badawcze, dokonuje przeglądu literatury i źródeł oraz definiuje trzy główne pojęcia – sztuczną inteligencję (AI), analizę ryzyka egzystencjalnego (x-risk analysis) oraz zgodność sztucznej inteligencji (AI alignment). Drugi rozdział poświęcony jest analizie zagrożeń, jakie AI stwarza dla rzeczywistości politycznej. W tej części omawiane są przykłady wykorzystania technologii deepfake w amerykańskiej polityce, strategie profilowania użytkowników i microtargetingu stosowane podczas wyborów prezydenckich w USA oraz technokracja. W trzecim rozdziale analizowana jest automatyzacja z wykorzystaniem sztucznej inteligencji. Kluczowym elementem tej części pracy są koncepcje osłabienia, zastąpienia i rozszerzenia obowiązków pracowników przez sztuczną inteligencję. W tym kontekście omówione są dwie perspektywy dotyczące wpływu automatyzacji na rynek pracy, tj. podejście oparte na zastąpieniu całych grup zawodowych lub tylko określonych czynności w ramach poszczególnych zawodów. Ponadto, w tym rozdziale poruszane są inne zagadnienia, takie jak nadzór nad pracownikami, rosnąca popularność niestandardowych form zatrudnienia oraz zagrożenia dla ludzkiego dobrobytu. Ostatni rozdział skupia się wokół tematyki sprawiedliwości i odpowiedzialności sztucznej inteligencji. Omówione zostają trzy rodzaje uprzedzenia systemów AI: historyczne, pomiarowe i agregacyjne. Uprzedzenie historyczne zilustrowano przykładami rozpowszechniania stereotypów dotyczących płci, niesprawiedliwych form zatrudnienia kobiet i mężczyzn oraz nierówności w reklamowaniu ofert pracy związanych z naukami ścisłymi (STEM). Jako przykład uprzedzenia pomiarowego praca ta analizuje dyskryminację rasową w algorytmach oceny ryzyka wykorzystywanych w sądownictwie. Jako ostanie omawiane są niesprawiedliwe wobec osób z niepełnosprawności standardy bezpieczeństwa, dostępności i normalności, które służą jako przykłady uprzedzenia agregacyjnego.
This thesis is devoted to the discussion of selected threats of artificial intelligence (AI) on the example of American society. The first chapter provides a theoretical background for further analysis by outlining the hypothesis and research questions, reviewing literature and sources, and defining three main concepts of this work: artificial intelligence, existential risk analysis, and artificial intelligence alignment. The second chapter examines the threats posed by AI to politics, beginning with examples of deepfakes in American political reality, then discussing user profiling and microtargeting strategies used in US presidential elections, and finally exploring the notion of technocracy. AI-driven automation is discussed in the third chapter. The concepts of enfeeblement, replacement, and augmentation are used in this part to evaluate occupation- and activities-based approaches to automation. Additionally, this chapter addresses other issues, such as employee surveillance, the rise of non-standard work arrangements, and threats to human well-being. The final chapter explores the idea of AI fairness within the discourse of responsible AI. It discusses historical, measurement, and aggregation biases in AI systems. Historical bias is illustrated through examples of gender stereotype propagation, unfair hiring practices between male and female candidates, and inequality in STEM job advertising. Racial prejudice in risk assessment algorithms is used as an example of measurement bias. Finally, aggregation bias is demonstrated by unfair standards of safety, accessibility, and normalcy for people with disabilities.
dc.abstract.en | This thesis is devoted to the discussion of selected threats of artificial intelligence (AI) on the example of American society. The first chapter provides a theoretical background for further analysis by outlining the hypothesis and research questions, reviewing literature and sources, and defining three main concepts of this work: artificial intelligence, existential risk analysis, and artificial intelligence alignment. The second chapter examines the threats posed by AI to politics, beginning with examples of deepfakes in American political reality, then discussing user profiling and microtargeting strategies used in US presidential elections, and finally exploring the notion of technocracy. AI-driven automation is discussed in the third chapter. The concepts of enfeeblement, replacement, and augmentation are used in this part to evaluate occupation- and activities-based approaches to automation. Additionally, this chapter addresses other issues, such as employee surveillance, the rise of non-standard work arrangements, and threats to human well-being. The final chapter explores the idea of AI fairness within the discourse of responsible AI. It discusses historical, measurement, and aggregation biases in AI systems. Historical bias is illustrated through examples of gender stereotype propagation, unfair hiring practices between male and female candidates, and inequality in STEM job advertising. Racial prejudice in risk assessment algorithms is used as an example of measurement bias. Finally, aggregation bias is demonstrated by unfair standards of safety, accessibility, and normalcy for people with disabilities. | pl |
dc.abstract.pl | Celem niniejszej pracy magisterskiej jest omówienie wybranych zagrożeń związanych z wykorzystaniem sztucznej inteligencji (AI) w różnych dziedzinach na przykładzie społeczeństwa amerykańskiego. W pierwszym rozdziale autorka przedstawia hipotezę i pytania badawcze, dokonuje przeglądu literatury i źródeł oraz definiuje trzy główne pojęcia – sztuczną inteligencję (AI), analizę ryzyka egzystencjalnego (x-risk analysis) oraz zgodność sztucznej inteligencji (AI alignment). Drugi rozdział poświęcony jest analizie zagrożeń, jakie AI stwarza dla rzeczywistości politycznej. W tej części omawiane są przykłady wykorzystania technologii deepfake w amerykańskiej polityce, strategie profilowania użytkowników i microtargetingu stosowane podczas wyborów prezydenckich w USA oraz technokracja. W trzecim rozdziale analizowana jest automatyzacja z wykorzystaniem sztucznej inteligencji. Kluczowym elementem tej części pracy są koncepcje osłabienia, zastąpienia i rozszerzenia obowiązków pracowników przez sztuczną inteligencję. W tym kontekście omówione są dwie perspektywy dotyczące wpływu automatyzacji na rynek pracy, tj. podejście oparte na zastąpieniu całych grup zawodowych lub tylko określonych czynności w ramach poszczególnych zawodów. Ponadto, w tym rozdziale poruszane są inne zagadnienia, takie jak nadzór nad pracownikami, rosnąca popularność niestandardowych form zatrudnienia oraz zagrożenia dla ludzkiego dobrobytu. Ostatni rozdział skupia się wokół tematyki sprawiedliwości i odpowiedzialności sztucznej inteligencji. Omówione zostają trzy rodzaje uprzedzenia systemów AI: historyczne, pomiarowe i agregacyjne. Uprzedzenie historyczne zilustrowano przykładami rozpowszechniania stereotypów dotyczących płci, niesprawiedliwych form zatrudnienia kobiet i mężczyzn oraz nierówności w reklamowaniu ofert pracy związanych z naukami ścisłymi (STEM). Jako przykład uprzedzenia pomiarowego praca ta analizuje dyskryminację rasową w algorytmach oceny ryzyka wykorzystywanych w sądownictwie. Jako ostanie omawiane są niesprawiedliwe wobec osób z niepełnosprawności standardy bezpieczeństwa, dostępności i normalności, które służą jako przykłady uprzedzenia agregacyjnego. | pl |
dc.affiliation | Wydział Studiów Międzynarodowych i Politycznych | pl |
dc.area | obszar nauk społecznych | pl |
dc.contributor.advisor | Wordliczek, Łukasz - 132736 | pl |
dc.contributor.author | Jańczuk, Helena - USOS322213 | pl |
dc.contributor.departmentbycode | UJK/WSMP | pl |
dc.contributor.reviewer | Wordliczek, Łukasz - 132736 | pl |
dc.contributor.reviewer | Kamieński, Łukasz - 101102 | pl |
dc.date.accessioned | 2024-07-01T22:45:54Z | |
dc.date.available | 2024-07-01T22:45:54Z | |
dc.date.submitted | 2024-07-01 | pl |
dc.fieldofstudy | amerykanistyka | pl |
dc.identifier.apd | diploma-176172-322213 | pl |
dc.identifier.uri | https://ruj.uj.edu.pl/handle/item/366529 | |
dc.language | eng | pl |
dc.subject.en | artificial intelligence (AI), existential risk (x-risk) analysis, artificial intelligence alignment, deepfake, technocracy, automation, algorithmic bias | pl |
dc.subject.pl | sztuczna inteligencja (AI), analiza ryzyka egzystencjalnego (x-risk analysis), zgodność sztucznej inteligencji (AI alignment), deepfake, technokracja, automatyzacja, uprzedzenie algorytmiczne | pl |
dc.title | Selected Threats of Artificial Intelligence on the Example of American Society | pl |
dc.title.alternative | Wybrane zagrożenia sztucznej inteligencji na przykładzie społeczeństwa amerykańskiego | pl |
dc.type | master | pl |
dspace.entity.type | Publication |