Použijte tento identifikátor k citaci nebo jako odkaz na tento záznam: http://elartu.tntu.edu.ua/handle/lib/34693

Název: Огляд методів оптимізації в машинному навчанні: градієнтний спуск та стохастичний градієнтний спуск
Další názvy: Review of optimization methods in machine learning: gradient descent and stochastic gradient descent
Autoři: Марценюк, В. П.
Мілян, Н. В.
Martsenyuk, V. P.
Milian, N. V.
Affiliation: Тернопільський національний технічний університет імені Івана Пулюя, Україна
Bibliographic description (Ukraine): Марценюк В. П. Огляд методів оптимізації в машинному навчанні: градієнтний спуск та стохастичний градієнтний спуск / В. П. Марценюк, Н. В. Мілян // Збірник тез доповідей ІX Міжнародної науково-технічної конференції молодих учених та студентів „Актуальні задачі сучасних технологій“, 25-26 листопада 2020 року. — Т. : ТНТУ, 2020. — Том 2. — С. 44–45. — (Компютерно-інформаційні технології та системи зв’язку).
Bibliographic description (International): Martsenyuk V. P., Milian N. V. (2020) Ohliad metodiv optymizatsii v mashynnomu navchanni: hradiientnyi spusk ta stokhastychnyi hradiientnyi spusk [Review of optimization methods in machine learning: gradient descent and stochastic gradient descent]. Actual problems of modern technologies : book of abstracts of the IX International scientific and technical conference of young researchers and students (Tern., 25-26 November 2020), vol. 2, pp. 44-45 [in Ukrainian].
Is part of: Збірник тез доповідей ІX Міжнародної науково-технічної конференції молодих учених та студентів „Актуальні задачі сучасних технологій“ (2), 2020
Actual problems of modern technologies : book of abstracts of the IX International scientific and technical conference of young researchers and students (2), 2020
Conference/Event: ІX Міжнародна науково-технічна конференція молодих учених та студентів „Актуальні задачі сучасних технологій“
Journal/Collection: Збірник тез доповідей ІX Міжнародної науково-технічної конференції молодих учених та студентів „Актуальні задачі сучасних технологій“
Volume: 2
Datum vydání: 25-lis-2020
Date of entry: 24-bře-2021
Nakladatel: ТНТУ
TNTU
Place of the edition/event: Тернопіль
Ternopil
Temporal Coverage: 25-26 листопада 2020 року
25-26 November 2020
UDC: 681.3.06
Number of pages: 2
Page range: 44-45
Start page: 44
End page: 45
URI: http://elartu.tntu.edu.ua/handle/lib/34693
ISBN: 978-966-305-112-3
References (International): 1. H. Robbins and S. Monro, “A stochastic approximation method,” The Annals of Mathematical Statistics, pp. 400–407, 1951.
2. J. Alspector, R. Meir, B. Yuhas, A. Jayakumar, and D. Lippe, “A parallel gradient descent method for learning in analog VLSI neural networks,” in Advances in Neural Information Processing Systems, 1993, pp. 836–844.
3. J. Nocedal and S. J. Wright, Numerical Optimization. Springer, 2006.
4. R. Johnson and T. Zhang, “Accelerating stochastic gradient descent using predictive variance reduction,” in Advances in Neural Information Processing Systems, 2013, pp. 315–323.
5. S. Boyd and L. Vandenberghe, Convex Optimization. Cambridge University Press, 2004.
6. S. Ruder, “An overview of gradient descent optimization algorithms,” arXiv preprint arXiv:1609.04747, 2016.
Content type: Conference Abstract
Vyskytuje se v kolekcích:ІX Міжнародна науково-технічна конференція молодих учених та студентів „Актуальні задачі сучасних технологій“ (2020)



Všechny záznamy v DSpace jsou chráněny autorskými právy, všechna práva vyhrazena.