Sparse Orthogonal Initialization Methods for Neural Networks.

master
dc.abstract.enSparse neural networks are networks that are deprived of a significant portion of their parameters, offering the potential for less computation-intensive training and evaluation without a substantial loss in performance. Orthogonal initialization has been shown to be beneficial for training very deep neural networks, as its properties support stable signal propagation throughout the network. In this work, we examine how orthogonality impacts the training of sparse neural networks. We compare three prominent methods of sparse orthogonal initialization: Approximate Isometry (AI), Sparsity-Aware Orthogonal Initialization (SAO), and Exact Orthogonal Initialization (EOI), evaluating both their theoretical properties and the experimental test accuracy of various neural network architectures trained for image recognition tasks, initialized by these methods. Our results demonstrate that EOI outperforms the other methods, establishing it as the new state-of-the-art sparse initialization method for neural networks.This work is based on the paper "Sparser, Better, Deeper, Stronger: Improving Sparse Training with Exact Orthogonal Initialization" by Aleksandra Irena Nowak, Łukasz Gniecki, Filip Szatkowski, and Jacek Tabor (including myself), accepted at the International Conference on Machine Learning (ICML) 2024, which introduces the EOI sparse orthogonal initialization method.pl
dc.abstract.plRzadkie sieci neuronowe to sieci pozbawione znacznej części swoich parametrów. Dają one potencjał do mniej wymagającego obliczeniowo treningu i ewaluacji, bez znacznej utraty wydajności. Wykazano, że ortogonalna inicjalizacja daje korzyści w treningu bardzo głębokich sieci neuronowych, ponieważ jej własności wspierają stabilną propagację sygnału w sieci. W tej pracy badamy, jak ortogonalność wpływa na trenowanie rzadkich sieci neuronowych. Porównujemy trzy główne metody rzadkiej ortogonalnej inicjalizacji: Przybliżona Izometria (AI), Inicjalizacja Ortogonalna Świadoma Rzadkości (SAO) oraz Dokładna Ortogonalna Inicjalizacja (EOI), oceniając zarówno ich własności teoretyczne, jak i eksperymentalną dokładność testową różnych architektur sieci neuronowych trenowanych do zadań rozpoznawania obrazów, zainicjalizowanych tymi metodami. Nasze wyniki pokazują, że EOI przewyższa pozostałe metody, ustanawiając ją jako nowy preferowany sposób rzadkiej inicjalizacji dla sieci neuronowych.Ta praca jest oparta na artykule „Sparser, Better, Deeper, Stronger: Improving Sparse Training with Exact Orthogonal Initialization” autorstwa Aleksandry Ireny Nowak, Łukasza Gnieckiego, Filipa Szatkowskiego i Jacka Tabora (w tym mnie), zaakceptowanym na Międzynarodową Konferencję Uczenia Maszynowego (ICML) 2024, który wprowadza metodę rzadkiej ortogonalnej inicjalizacji EOI.pl
dc.affiliationWydział Matematyki i Informatykipl
dc.areaobszar nauk ścisłychpl
dc.contributor.advisorTabor, Jacek - 132362 pl
dc.contributor.authorGniecki, Łukasz - USOS275194 pl
dc.contributor.departmentbycodeUJK/WMI2pl
dc.contributor.reviewerTabor, Jacek - 132362 pl
dc.contributor.reviewerŚmieja, Marek - 135996 pl
dc.date.accessioned2024-10-03T22:35:11Z
dc.date.available2024-10-03T22:35:11Z
dc.date.submitted2024-09-30pl
dc.fieldofstudyinformatyka analitycznapl
dc.identifier.apddiploma-178536-275194pl
dc.identifier.urihttps://ruj.uj.edu.pl/handle/item/450067
dc.languageengpl
dc.subject.ensparse, orthogonal, initialization, isometry, neural, network, trainingpl
dc.subject.plrzadka, ortogonalna, inicjalizacja, izometria, sieć, neuronowa, treningpl
dc.titleSparse Orthogonal Initialization Methods for Neural Networks.pl
dc.title.alternativeMetody Rzadkiej Ortogonalnej Inicjalizacji Dla Sieci Neuronowych.pl
dc.typemasterpl
dspace.entity.typePublication
dc.abstract.enpl
Sparse neural networks are networks that are deprived of a significant portion of their parameters, offering the potential for less computation-intensive training and evaluation without a substantial loss in performance. Orthogonal initialization has been shown to be beneficial for training very deep neural networks, as its properties support stable signal propagation throughout the network. In this work, we examine how orthogonality impacts the training of sparse neural networks. We compare three prominent methods of sparse orthogonal initialization: Approximate Isometry (AI), Sparsity-Aware Orthogonal Initialization (SAO), and Exact Orthogonal Initialization (EOI), evaluating both their theoretical properties and the experimental test accuracy of various neural network architectures trained for image recognition tasks, initialized by these methods. Our results demonstrate that EOI outperforms the other methods, establishing it as the new state-of-the-art sparse initialization method for neural networks.This work is based on the paper "Sparser, Better, Deeper, Stronger: Improving Sparse Training with Exact Orthogonal Initialization" by Aleksandra Irena Nowak, Łukasz Gniecki, Filip Szatkowski, and Jacek Tabor (including myself), accepted at the International Conference on Machine Learning (ICML) 2024, which introduces the EOI sparse orthogonal initialization method.
dc.abstract.plpl
Rzadkie sieci neuronowe to sieci pozbawione znacznej części swoich parametrów. Dają one potencjał do mniej wymagającego obliczeniowo treningu i ewaluacji, bez znacznej utraty wydajności. Wykazano, że ortogonalna inicjalizacja daje korzyści w treningu bardzo głębokich sieci neuronowych, ponieważ jej własności wspierają stabilną propagację sygnału w sieci. W tej pracy badamy, jak ortogonalność wpływa na trenowanie rzadkich sieci neuronowych. Porównujemy trzy główne metody rzadkiej ortogonalnej inicjalizacji: Przybliżona Izometria (AI), Inicjalizacja Ortogonalna Świadoma Rzadkości (SAO) oraz Dokładna Ortogonalna Inicjalizacja (EOI), oceniając zarówno ich własności teoretyczne, jak i eksperymentalną dokładność testową różnych architektur sieci neuronowych trenowanych do zadań rozpoznawania obrazów, zainicjalizowanych tymi metodami. Nasze wyniki pokazują, że EOI przewyższa pozostałe metody, ustanawiając ją jako nowy preferowany sposób rzadkiej inicjalizacji dla sieci neuronowych.Ta praca jest oparta na artykule „Sparser, Better, Deeper, Stronger: Improving Sparse Training with Exact Orthogonal Initialization” autorstwa Aleksandry Ireny Nowak, Łukasza Gnieckiego, Filipa Szatkowskiego i Jacka Tabora (w tym mnie), zaakceptowanym na Międzynarodową Konferencję Uczenia Maszynowego (ICML) 2024, który wprowadza metodę rzadkiej ortogonalnej inicjalizacji EOI.
dc.affiliationpl
Wydział Matematyki i Informatyki
dc.areapl
obszar nauk ścisłych
dc.contributor.advisorpl
Tabor, Jacek - 132362
dc.contributor.authorpl
Gniecki, Łukasz - USOS275194
dc.contributor.departmentbycodepl
UJK/WMI2
dc.contributor.reviewerpl
Tabor, Jacek - 132362
dc.contributor.reviewerpl
Śmieja, Marek - 135996
dc.date.accessioned
2024-10-03T22:35:11Z
dc.date.available
2024-10-03T22:35:11Z
dc.date.submittedpl
2024-09-30
dc.fieldofstudypl
informatyka analityczna
dc.identifier.apdpl
diploma-178536-275194
dc.identifier.uri
https://ruj.uj.edu.pl/handle/item/450067
dc.languagepl
eng
dc.subject.enpl
sparse, orthogonal, initialization, isometry, neural, network, training
dc.subject.plpl
rzadka, ortogonalna, inicjalizacja, izometria, sieć, neuronowa, trening
dc.titlepl
Sparse Orthogonal Initialization Methods for Neural Networks.
dc.title.alternativepl
Metody Rzadkiej Ortogonalnej Inicjalizacji Dla Sieci Neuronowych.
dc.typepl
master
dspace.entity.type
Publication
Affiliations

* The migration of download and view statistics prior to the date of April 8, 2024 is in progress.

No access

No Thumbnail Available
Collections