Simple view
Full metadata view
Authors
Statistics
Adversarial examples in neural networks - detection using auto-encoders
Przykłady adwersarialne w sieciach neuronowych - detekcja przy użyciu auto-enkoderów
sztuczna inteligencja, nauczanie maszynowe, sieci neuronowe, przykłady adwersarialne, autoenkoder
artificial intelligence, machine learning, neural networks, adversarial examples, autoencoder
Problem podatności sieci neuronowych na przykłady adwersarialne wciąż jest nie do końca zrozumiany, ani rozwiązany, co jest jednym z głównych zagrożeń dla wykorzystania SI w niektórych dziedzinach, a szczególnie tam, gdzie SI musi być bezpieczna i przewidywalna. Poniższa praca opisuje nową metodę wykrywania przykładów adwersarialnych, bazującą na ekstrakcji pewnych informacji z aktywacji sieci neuronowej przy użyciu autoenkoderów. Praca prezentuje obiecujące wyniki eksperymentów oraz wgląd w naturę i zachowanie przykładów adwersarialnych.
The problem of neural networks' susceptibility to adversarial examples is still not well understood nor solved, which is one of the major threats to AI deployment in some applications, especially where AI agents have to be safe, secure, and predictable. This work describes a novel method for detecting adversarial examples, based on extracting certain information from neural network's activations using autoencoders. It shows promising experimental results and provides new insights into the nature and behavior of adversarial examples.
dc.abstract.en | The problem of neural networks' susceptibility to adversarial examples is still not well understood nor solved, which is one of the major threats to AI deployment in some applications, especially where AI agents have to be safe, secure, and predictable. This work describes a novel method for detecting adversarial examples, based on extracting certain information from neural network's activations using autoencoders. It shows promising experimental results and provides new insights into the nature and behavior of adversarial examples. | pl |
dc.abstract.pl | Problem podatności sieci neuronowych na przykłady adwersarialne wciąż jest nie do końca zrozumiany, ani rozwiązany, co jest jednym z głównych zagrożeń dla wykorzystania SI w niektórych dziedzinach, a szczególnie tam, gdzie SI musi być bezpieczna i przewidywalna. Poniższa praca opisuje nową metodę wykrywania przykładów adwersarialnych, bazującą na ekstrakcji pewnych informacji z aktywacji sieci neuronowej przy użyciu autoenkoderów. Praca prezentuje obiecujące wyniki eksperymentów oraz wgląd w naturę i zachowanie przykładów adwersarialnych. | pl |
dc.affiliation | Wydział Matematyki i Informatyki | pl |
dc.area | obszar nauk ścisłych | pl |
dc.contributor.advisor | Spurek, Przemysław | pl |
dc.contributor.author | Krzyżek, Tomasz | pl |
dc.contributor.departmentbycode | UJK/WMI2 | pl |
dc.contributor.reviewer | Spurek, Przemysław | pl |
dc.contributor.reviewer | Tabor, Jacek - 132362 | pl |
dc.date.accessioned | 2020-08-05T14:14:18Z | |
dc.date.available | 2020-08-05T14:14:18Z | |
dc.date.submitted | 2020-07-24 | pl |
dc.fieldofstudy | nauczanie maszynowe | pl |
dc.identifier.apd | diploma-141404-197979 | pl |
dc.identifier.project | APD / O | pl |
dc.identifier.uri | https://ruj.uj.edu.pl/xmlui/handle/item/243546 | |
dc.language | eng | pl |
dc.subject.en | artificial intelligence, machine learning, neural networks, adversarial examples, autoencoder | pl |
dc.subject.pl | sztuczna inteligencja, nauczanie maszynowe, sieci neuronowe, przykłady adwersarialne, autoenkoder | pl |
dc.title | Adversarial examples in neural networks - detection using auto-encoders | pl |
dc.title.alternative | Przykłady adwersarialne w sieciach neuronowych - detekcja przy użyciu auto-enkoderów | pl |
dc.type | master | pl |
dspace.entity.type | Publication |