Будь ласка, використовуйте цей ідентифікатор, щоб цитувати або посилатися на цей матеріал: http://elartu.tntu.edu.ua/handle/lib/34693

Повний запис метаданих
Поле DCЗначенняМова
dc.contributor.authorМарценюк, В. П.
dc.contributor.authorМілян, Н. В.
dc.contributor.authorMartsenyuk, V. P.
dc.contributor.authorMilian, N. V.
dc.coverage.temporal25-26 листопада 2020 року
dc.coverage.temporal25-26 November 2020
dc.date.accessioned2021-03-24T15:58:59Z-
dc.date.available2021-03-24T15:58:59Z-
dc.date.created2020-11-25
dc.date.issued2020-11-25
dc.identifier.citationМарценюк В. П. Огляд методів оптимізації в машинному навчанні: градієнтний спуск та стохастичний градієнтний спуск / В. П. Марценюк, Н. В. Мілян // Збірник тез доповідей ІX Міжнародної науково-технічної конференції молодих учених та студентів „Актуальні задачі сучасних технологій“, 25-26 листопада 2020 року. — Т. : ТНТУ, 2020. — Том 2. — С. 44–45. — (Компютерно-інформаційні технології та системи зв’язку).
dc.identifier.isbn978-966-305-112-3
dc.identifier.urihttp://elartu.tntu.edu.ua/handle/lib/34693-
dc.format.extent44-45
dc.language.isouk
dc.publisherТНТУ
dc.publisherTNTU
dc.relation.ispartofЗбірник тез доповідей ІX Міжнародної науково-технічної конференції молодих учених та студентів „Актуальні задачі сучасних технологій“ (2), 2020
dc.relation.ispartofActual problems of modern technologies : book of abstracts of the IX International scientific and technical conference of young researchers and students (2), 2020
dc.titleОгляд методів оптимізації в машинному навчанні: градієнтний спуск та стохастичний градієнтний спуск
dc.title.alternativeReview of optimization methods in machine learning: gradient descent and stochastic gradient descent
dc.typeConference Abstract
dc.coverage.placenameТернопіль
dc.coverage.placenameTernopil
dc.format.pages2
dc.subject.udc681.3.06
dc.relation.referencesen1. H. Robbins and S. Monro, “A stochastic approximation method,” The Annals of Mathematical Statistics, pp. 400–407, 1951.
dc.relation.referencesen2. J. Alspector, R. Meir, B. Yuhas, A. Jayakumar, and D. Lippe, “A parallel gradient descent method for learning in analog VLSI neural networks,” in Advances in Neural Information Processing Systems, 1993, pp. 836–844.
dc.relation.referencesen3. J. Nocedal and S. J. Wright, Numerical Optimization. Springer, 2006.
dc.relation.referencesen4. R. Johnson and T. Zhang, “Accelerating stochastic gradient descent using predictive variance reduction,” in Advances in Neural Information Processing Systems, 2013, pp. 315–323.
dc.relation.referencesen5. S. Boyd and L. Vandenberghe, Convex Optimization. Cambridge University Press, 2004.
dc.relation.referencesen6. S. Ruder, “An overview of gradient descent optimization algorithms,” arXiv preprint arXiv:1609.04747, 2016.
dc.identifier.citationenMartsenyuk V. P., Milian N. V. (2020) Ohliad metodiv optymizatsii v mashynnomu navchanni: hradiientnyi spusk ta stokhastychnyi hradiientnyi spusk [Review of optimization methods in machine learning: gradient descent and stochastic gradient descent]. Actual problems of modern technologies : book of abstracts of the IX International scientific and technical conference of young researchers and students (Tern., 25-26 November 2020), vol. 2, pp. 44-45 [in Ukrainian].
dc.contributor.affiliationТернопільський національний технічний університет імені Івана Пулюя, Україна
dc.citation.journalTitleЗбірник тез доповідей ІX Міжнародної науково-технічної конференції молодих учених та студентів „Актуальні задачі сучасних технологій“
dc.citation.volume2
dc.citation.spage44
dc.citation.epage45
dc.citation.conferenceІX Міжнародна науково-технічна конференція молодих учених та студентів „Актуальні задачі сучасних технологій“
Розташовується у зібраннях:ІX Міжнародна науково-технічна конференція молодих учених та студентів „Актуальні задачі сучасних технологій“ (2020)



Усі матеріали в архіві електронних ресурсів захищені авторським правом, всі права збережені.