Оптимізаційний метод AMSGrad в багатошарових нейронних мережах
Оптимізаційний метод AMSGrad в багатошарових нейронних мережах Сергій Андрійович Свелеба ORCID: https://orcid.org/0000-0002-0823-910X Львівський національний університет імені Івана Франка, Львів Наталя Андріївна Свелеба ORCID: https://orcid.org/0009-0004-2886-3921 ПВНЗ «Європейський університет», Львівська філія, Львів Огляд літератури Найпоширенішим способом оптимізації нейронних мереж є метод градієнтного спуску. Градієнтний спуск – це алгоритм оптимізації, який відслідковує негативне значенням градієнта цільової функції, щоб знайти мінімум функції похибки. Обмеження градієнтного спуску полягає в тому, що даний метод застосовує одну швидкість навчання для всіх вхідних змінних. Розширення градієнтного спуску, як-от …