Selected Threats of Artificial Intelligence on the Example of American Society

master
dc.abstract.enThis thesis is devoted to the discussion of selected threats of artificial intelligence (AI) on the example of American society. The first chapter provides a theoretical background for further analysis by outlining the hypothesis and research questions, reviewing literature and sources, and defining three main concepts of this work: artificial intelligence, existential risk analysis, and artificial intelligence alignment. The second chapter examines the threats posed by AI to politics, beginning with examples of deepfakes in American political reality, then discussing user profiling and microtargeting strategies used in US presidential elections, and finally exploring the notion of technocracy. AI-driven automation is discussed in the third chapter. The concepts of enfeeblement, replacement, and augmentation are used in this part to evaluate occupation- and activities-based approaches to automation. Additionally, this chapter addresses other issues, such as employee surveillance, the rise of non-standard work arrangements, and threats to human well-being. The final chapter explores the idea of AI fairness within the discourse of responsible AI. It discusses historical, measurement, and aggregation biases in AI systems. Historical bias is illustrated through examples of gender stereotype propagation, unfair hiring practices between male and female candidates, and inequality in STEM job advertising. Racial prejudice in risk assessment algorithms is used as an example of measurement bias. Finally, aggregation bias is demonstrated by unfair standards of safety, accessibility, and normalcy for people with disabilities.pl
dc.abstract.plCelem niniejszej pracy magisterskiej jest omówienie wybranych zagrożeń związanych z wykorzystaniem sztucznej inteligencji (AI) w różnych dziedzinach na przykładzie społeczeństwa amerykańskiego. W pierwszym rozdziale autorka przedstawia hipotezę i pytania badawcze, dokonuje przeglądu literatury i źródeł oraz definiuje trzy główne pojęcia – sztuczną inteligencję (AI), analizę ryzyka egzystencjalnego (x-risk analysis) oraz zgodność sztucznej inteligencji (AI alignment). Drugi rozdział poświęcony jest analizie zagrożeń, jakie AI stwarza dla rzeczywistości politycznej. W tej części omawiane są przykłady wykorzystania technologii deepfake w amerykańskiej polityce, strategie profilowania użytkowników i microtargetingu stosowane podczas wyborów prezydenckich w USA oraz technokracja. W trzecim rozdziale analizowana jest automatyzacja z wykorzystaniem sztucznej inteligencji. Kluczowym elementem tej części pracy są koncepcje osłabienia, zastąpienia i rozszerzenia obowiązków pracowników przez sztuczną inteligencję. W tym kontekście omówione są dwie perspektywy dotyczące wpływu automatyzacji na rynek pracy, tj. podejście oparte na zastąpieniu całych grup zawodowych lub tylko określonych czynności w ramach poszczególnych zawodów. Ponadto, w tym rozdziale poruszane są inne zagadnienia, takie jak nadzór nad pracownikami, rosnąca popularność niestandardowych form zatrudnienia oraz zagrożenia dla ludzkiego dobrobytu. Ostatni rozdział skupia się wokół tematyki sprawiedliwości i odpowiedzialności sztucznej inteligencji. Omówione zostają trzy rodzaje uprzedzenia systemów AI: historyczne, pomiarowe i agregacyjne. Uprzedzenie historyczne zilustrowano przykładami rozpowszechniania stereotypów dotyczących płci, niesprawiedliwych form zatrudnienia kobiet i mężczyzn oraz nierówności w reklamowaniu ofert pracy związanych z naukami ścisłymi (STEM). Jako przykład uprzedzenia pomiarowego praca ta analizuje dyskryminację rasową w algorytmach oceny ryzyka wykorzystywanych w sądownictwie. Jako ostanie omawiane są niesprawiedliwe wobec osób z niepełnosprawności standardy bezpieczeństwa, dostępności i normalności, które służą jako przykłady uprzedzenia agregacyjnego.pl
dc.affiliationWydział Studiów Międzynarodowych i Politycznychpl
dc.areaobszar nauk społecznychpl
dc.contributor.advisorWordliczek, Łukasz - 132736 pl
dc.contributor.authorJańczuk, Helena - USOS322213 pl
dc.contributor.departmentbycodeUJK/WSMPpl
dc.contributor.reviewerWordliczek, Łukasz - 132736 pl
dc.contributor.reviewerKamieński, Łukasz - 101102 pl
dc.date.accessioned2024-07-01T22:45:54Z
dc.date.available2024-07-01T22:45:54Z
dc.date.submitted2024-07-01pl
dc.fieldofstudyamerykanistykapl
dc.identifier.apddiploma-176172-322213pl
dc.identifier.urihttps://ruj.uj.edu.pl/handle/item/366529
dc.languageengpl
dc.subject.enartificial intelligence (AI), existential risk (x-risk) analysis, artificial intelligence alignment, deepfake, technocracy, automation, algorithmic biaspl
dc.subject.plsztuczna inteligencja (AI), analiza ryzyka egzystencjalnego (x-risk analysis), zgodność sztucznej inteligencji (AI alignment), deepfake, technokracja, automatyzacja, uprzedzenie algorytmicznepl
dc.titleSelected Threats of Artificial Intelligence on the Example of American Societypl
dc.title.alternativeWybrane zagrożenia sztucznej inteligencji na przykładzie społeczeństwa amerykańskiegopl
dc.typemasterpl
dspace.entity.typePublication
dc.abstract.enpl
This thesis is devoted to the discussion of selected threats of artificial intelligence (AI) on the example of American society. The first chapter provides a theoretical background for further analysis by outlining the hypothesis and research questions, reviewing literature and sources, and defining three main concepts of this work: artificial intelligence, existential risk analysis, and artificial intelligence alignment. The second chapter examines the threats posed by AI to politics, beginning with examples of deepfakes in American political reality, then discussing user profiling and microtargeting strategies used in US presidential elections, and finally exploring the notion of technocracy. AI-driven automation is discussed in the third chapter. The concepts of enfeeblement, replacement, and augmentation are used in this part to evaluate occupation- and activities-based approaches to automation. Additionally, this chapter addresses other issues, such as employee surveillance, the rise of non-standard work arrangements, and threats to human well-being. The final chapter explores the idea of AI fairness within the discourse of responsible AI. It discusses historical, measurement, and aggregation biases in AI systems. Historical bias is illustrated through examples of gender stereotype propagation, unfair hiring practices between male and female candidates, and inequality in STEM job advertising. Racial prejudice in risk assessment algorithms is used as an example of measurement bias. Finally, aggregation bias is demonstrated by unfair standards of safety, accessibility, and normalcy for people with disabilities.
dc.abstract.plpl
Celem niniejszej pracy magisterskiej jest omówienie wybranych zagrożeń związanych z wykorzystaniem sztucznej inteligencji (AI) w różnych dziedzinach na przykładzie społeczeństwa amerykańskiego. W pierwszym rozdziale autorka przedstawia hipotezę i pytania badawcze, dokonuje przeglądu literatury i źródeł oraz definiuje trzy główne pojęcia – sztuczną inteligencję (AI), analizę ryzyka egzystencjalnego (x-risk analysis) oraz zgodność sztucznej inteligencji (AI alignment). Drugi rozdział poświęcony jest analizie zagrożeń, jakie AI stwarza dla rzeczywistości politycznej. W tej części omawiane są przykłady wykorzystania technologii deepfake w amerykańskiej polityce, strategie profilowania użytkowników i microtargetingu stosowane podczas wyborów prezydenckich w USA oraz technokracja. W trzecim rozdziale analizowana jest automatyzacja z wykorzystaniem sztucznej inteligencji. Kluczowym elementem tej części pracy są koncepcje osłabienia, zastąpienia i rozszerzenia obowiązków pracowników przez sztuczną inteligencję. W tym kontekście omówione są dwie perspektywy dotyczące wpływu automatyzacji na rynek pracy, tj. podejście oparte na zastąpieniu całych grup zawodowych lub tylko określonych czynności w ramach poszczególnych zawodów. Ponadto, w tym rozdziale poruszane są inne zagadnienia, takie jak nadzór nad pracownikami, rosnąca popularność niestandardowych form zatrudnienia oraz zagrożenia dla ludzkiego dobrobytu. Ostatni rozdział skupia się wokół tematyki sprawiedliwości i odpowiedzialności sztucznej inteligencji. Omówione zostają trzy rodzaje uprzedzenia systemów AI: historyczne, pomiarowe i agregacyjne. Uprzedzenie historyczne zilustrowano przykładami rozpowszechniania stereotypów dotyczących płci, niesprawiedliwych form zatrudnienia kobiet i mężczyzn oraz nierówności w reklamowaniu ofert pracy związanych z naukami ścisłymi (STEM). Jako przykład uprzedzenia pomiarowego praca ta analizuje dyskryminację rasową w algorytmach oceny ryzyka wykorzystywanych w sądownictwie. Jako ostanie omawiane są niesprawiedliwe wobec osób z niepełnosprawności standardy bezpieczeństwa, dostępności i normalności, które służą jako przykłady uprzedzenia agregacyjnego.
dc.affiliationpl
Wydział Studiów Międzynarodowych i Politycznych
dc.areapl
obszar nauk społecznych
dc.contributor.advisorpl
Wordliczek, Łukasz - 132736
dc.contributor.authorpl
Jańczuk, Helena - USOS322213
dc.contributor.departmentbycodepl
UJK/WSMP
dc.contributor.reviewerpl
Wordliczek, Łukasz - 132736
dc.contributor.reviewerpl
Kamieński, Łukasz - 101102
dc.date.accessioned
2024-07-01T22:45:54Z
dc.date.available
2024-07-01T22:45:54Z
dc.date.submittedpl
2024-07-01
dc.fieldofstudypl
amerykanistyka
dc.identifier.apdpl
diploma-176172-322213
dc.identifier.uri
https://ruj.uj.edu.pl/handle/item/366529
dc.languagepl
eng
dc.subject.enpl
artificial intelligence (AI), existential risk (x-risk) analysis, artificial intelligence alignment, deepfake, technocracy, automation, algorithmic bias
dc.subject.plpl
sztuczna inteligencja (AI), analiza ryzyka egzystencjalnego (x-risk analysis), zgodność sztucznej inteligencji (AI alignment), deepfake, technokracja, automatyzacja, uprzedzenie algorytmiczne
dc.titlepl
Selected Threats of Artificial Intelligence on the Example of American Society
dc.title.alternativepl
Wybrane zagrożenia sztucznej inteligencji na przykładzie społeczeństwa amerykańskiego
dc.typepl
master
dspace.entity.type
Publication
Affiliations

* The migration of download and view statistics prior to the date of April 8, 2024 is in progress.

Views
62
Views per month
Views per city
Warsaw
8
Gdansk
4
Krakow
4
Singapore
3
Lima
2
Poznan
2
Amsterdam
1
Bialystok
1
Cachoeira do Piriá
1
Dagenham
1

No access

No Thumbnail Available
Collections