Будь ласка, використовуйте цей ідентифікатор, щоб цитувати або посилатися на цей матеріал: http://elartu.tntu.edu.ua/handle/lib/34693

Назва: Огляд методів оптимізації в машинному навчанні: градієнтний спуск та стохастичний градієнтний спуск
Інші назви: Review of optimization methods in machine learning: gradient descent and stochastic gradient descent
Автори: Марценюк, В. П.
Мілян, Н. В.
Martsenyuk, V. P.
Milian, N. V.
Приналежність: Тернопільський національний технічний університет імені Івана Пулюя, Україна
Бібліографічний опис: Марценюк В. П. Огляд методів оптимізації в машинному навчанні: градієнтний спуск та стохастичний градієнтний спуск / В. П. Марценюк, Н. В. Мілян // Збірник тез доповідей ІX Міжнародної науково-технічної конференції молодих учених та студентів „Актуальні задачі сучасних технологій“, 25-26 листопада 2020 року. — Т. : ТНТУ, 2020. — Том 2. — С. 44–45. — (Компютерно-інформаційні технології та системи зв’язку).
Bibliographic description: Martsenyuk V. P., Milian N. V. (2020) Ohliad metodiv optymizatsii v mashynnomu navchanni: hradiientnyi spusk ta stokhastychnyi hradiientnyi spusk [Review of optimization methods in machine learning: gradient descent and stochastic gradient descent]. Actual problems of modern technologies : book of abstracts of the IX International scientific and technical conference of young researchers and students (Tern., 25-26 November 2020), vol. 2, pp. 44-45 [in Ukrainian].
Є частиною видання: Збірник тез доповідей ІX Міжнародної науково-технічної конференції молодих учених та студентів „Актуальні задачі сучасних технологій“ (2), 2020
Actual problems of modern technologies : book of abstracts of the IX International scientific and technical conference of young researchers and students (2), 2020
Конференція/захід: ІX Міжнародна науково-технічна конференція молодих учених та студентів „Актуальні задачі сучасних технологій“
Журнал/збірник: Збірник тез доповідей ІX Міжнародної науково-технічної конференції молодих учених та студентів „Актуальні задачі сучасних технологій“
Том: 2
Дата публікації: 25-лис-2020
Дата внесення: 24-бер-2021
Видавництво: ТНТУ
TNTU
Місце видання, проведення: Тернопіль
Ternopil
Часове охоплення: 25-26 листопада 2020 року
25-26 November 2020
УДК: 681.3.06
Кількість сторінок: 2
Діапазон сторінок: 44-45
Початкова сторінка: 44
Кінцева сторінка: 45
URI (Уніфікований ідентифікатор ресурсу): http://elartu.tntu.edu.ua/handle/lib/34693
ISBN: 978-966-305-112-3
References: 1. H. Robbins and S. Monro, “A stochastic approximation method,” The Annals of Mathematical Statistics, pp. 400–407, 1951.
2. J. Alspector, R. Meir, B. Yuhas, A. Jayakumar, and D. Lippe, “A parallel gradient descent method for learning in analog VLSI neural networks,” in Advances in Neural Information Processing Systems, 1993, pp. 836–844.
3. J. Nocedal and S. J. Wright, Numerical Optimization. Springer, 2006.
4. R. Johnson and T. Zhang, “Accelerating stochastic gradient descent using predictive variance reduction,” in Advances in Neural Information Processing Systems, 2013, pp. 315–323.
5. S. Boyd and L. Vandenberghe, Convex Optimization. Cambridge University Press, 2004.
6. S. Ruder, “An overview of gradient descent optimization algorithms,” arXiv preprint arXiv:1609.04747, 2016.
Тип вмісту: Conference Abstract
Розташовується у зібраннях:ІX Міжнародна науково-технічна конференція молодих учених та студентів „Актуальні задачі сучасних технологій“ (2020)



Усі матеріали в архіві електронних ресурсів захищені авторським правом, всі права збережені.