Empreu aquest identificador per citar o enllaçar aquest ítem: http://elartu.tntu.edu.ua/handle/lib/51493

Registre complet de metadades
Camp DCValorLengua/Idioma
dc.contributor.authorЗадворний, Олександр
dc.contributor.authorПастух, Олег
dc.contributor.authorZadvornyi, Oleksandr
dc.contributor.authorPastukh, Oleh
dc.date.accessioned2026-02-09T15:51:57Z-
dc.date.available2026-02-09T15:51:57Z-
dc.date.created2025-08-29
dc.date.issued2025-08-29
dc.date.submitted2025-08-01
dc.identifier.citationZadvornyi O. Comparative analysis of machine learning algorithms for market capitalization time series forecasting / Oleksandr Zadvornyi, Oleh Pastukh // Scientific Journal of TNTU. — Tern. : TNTU, 2025. — Vol 119. — No 3. — P. 26–34.
dc.identifier.issn2522-4433
dc.identifier.urihttp://elartu.tntu.edu.ua/handle/lib/51493-
dc.description.abstractВиконано порівняльний аналіз ефективності чотирьох алгоритмів прогнозування часових рядів ринкової капіталізації провідних компаній світу: трансформерів (Time Series Transformer), рекурентних нейронних мереж (RNN), авторегресійної інтегрованої ковзної середньої (ARIMA) та простої ковзної середньої (SMA). Дослідження проведено на великому наборі даних, що включає щомісячні значення ринкової капіталізації 1000 компаній з 2000 до 2025 року, зібрані через Yahoo Finance. Враховано не лише часову динаміку, але й статичні ознаки, такі, як сектор, галузь та категорія ринкової капіталізації. Дані опрацьовано та приведено до форматів, сумісних з GluonTS та Hugging Face, з поділом на тренувальну, валідаційну та тестову вибірки. Отримано середні значення трьох метрик точності прогнозу: MASE, sMAPE та MAPE для кожного з алгоритмів. Показано, що модель на основі трансформера демонструє найкращі результати: середнє значення MASE становило 2.01, sMAPE – 15.63%, а MAPE – 17.44%. Звідси випливає, що трансформери є найбільш придатними для задач довготривалого прогнозування, особливо у випадках, коли доступні статичні ознаки, які можна врахувати при навчанні. RNN-модель показала гірші результати, що пояснюється проблемою зникнення градієнта та меншою здатністю до опрацювання довгих залежностей. Модель ARIMA мала помірну точність, проте її ефективність знижувалася на нестаціонарних часових рядах. Найменшу точність прогнозів показала модель SMA, що свідчить про її обмежену придатність для складних фінансових даних. Додатково показано, що включення категоріальних ознак значно покращує продуктивність трансформерів. Візуалізація прогнозів підтвердила, що трансформери здатні надійно моделювати сезонність і тренди в ринковій капіталізації. Перспективним напрямом подальших досліджень є інтеграція макроекономічних факторів і розширення набору ознак для покращення точності прогнозів
dc.description.abstractThis paper presents a comparative analysis of four time series forecasting algorithms applied to market capitalization data of the world’s leading companies: Time Series Transformer, Recurrent Neural Network (RNN), Autoregressive Integrated Moving Average (ARIMA) and Simple Moving Average (SMA). The study is based on monthly market cap data for 1000 companies from 2000 to 2025, collected via Yahoo Finance. In addition to temporal dynamics, static categorical features such as sector, industry and market cap category were considered. The models were evaluated using MASE, sMAPE and MAPE metrics. Results show that the transformer-based model achieved the highest accuracy (MASE = 2.01, sMAPE = 15.63%, MAPE = 17.44%), confirming its suitability for long-term forecasting, especially when categorical features are incorporated. ARIMA and RNN showed moderate performance, while SMA performed the worst. Visualization further confirmed the transformer’s ability to capture seasonal patterns and trends. Future work includes integrating macroeconomic indicators to enhance prediction accuracy
dc.format.extent26-34
dc.language.isoen
dc.publisherТНТУ
dc.publisherTNTU
dc.relation.ispartofВісник Тернопільського національного технічного університету, 3 (119), 2025
dc.relation.ispartofScientific Journal of the Ternopil National Technical University, 3 (119), 2025
dc.relation.urihttps://arxiv.org/abs/2401.04132
dc.relation.urihttps://doi.org/10.1016/j.ijforecast.2021.03.012
dc.relation.urihttps://doi.org/10.1093/rof/rfq007
dc.relation.urihttps://github.com/ranaroussi/yfinance
dc.relation.urihttps://arxiv.org/abs/2304.11461
dc.relation.urihttps://doi.org/10.1145/3677052.3698654
dc.relation.urihttps://doi.org/10.1007/s10462-024-11044-2
dc.relation.urihttps://doi.org/10.1016/j.neucom.2025.129429
dc.relation.urihttps://doi.org/10.1016/j.eswa.2022.119207
dc.relation.urihttps://doi.org/10.1007/s00521-024-09558-5
dc.relation.urihttps://doi.org/10.33108/visnyk_tntu2024.02.039
dc.subjectринкова капіталізація
dc.subjectпрогнозування часових рядів
dc.subjectтрансформери
dc.subjectARIMA
dc.subjectSMA
dc.subjectRNN
dc.subjectмашинне навчання
dc.subjectфінансові дані
dc.subjectTimeSeriesTransformer
dc.subjectmarket capitalization
dc.subjecttime series forecasting
dc.subjecttransformers
dc.subjectARIMA
dc.subjectSMA
dc.subjectRNN
dc.subjectmachine learning
dc.subjectfinancial data
dc.subjectTimeSeriesTransformer
dc.titleComparative analysis of machine learning algorithms for market capitalization time series forecasting
dc.title.alternativeПорівняльний аналіз алгоритмів машинного навчання для прогнозування часових рядів ринкової капіталізації
dc.typeArticle
dc.rights.holder© Ternopil Ivan Puluj National Technical University, 2025
dc.coverage.placenameТернопіль
dc.coverage.placenameTernopil
dc.format.pages9
dc.subject.udc004
dc.relation.referencesen1. Ian Goodfellow, Yoshua Bengio, Aaron Courville (2016). Deep Learning, MIT Press, 800 p. ISBN 9780262035613.
dc.relation.referencesen2. Yue Chen, Mohan Li (2024) Economic Forces in Stock Returns, arXiv preprint arXiv:2401.04132. https://arxiv.org/abs/2401.04132.
dc.relation.referencesen3. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, Illia Polosukhin (2017,) Attention is all you need, Advances in Neural Information Processing Systems, vol. 30, pp. 5998–6008.
dc.relation.referencesen4. Bryan Lim, Sercan Ö. Arık, Nicolas Loeff, Tomas Pfister (2021) Temporal Fusion Transformers for interpretable multi-horizon time series forecasting, International Journal of Forecasting, vol. 37, no. 4, pp. 1748–1764. https://doi.org/10.1016/j.ijforecast.2021.03.012
dc.relation.referencesen5. Angelo Ranaldo, Paul Söderlind (2010) Safe haven currencies, Review of Finance, vol. 14, no. 3, pp. 385–407. https://doi.org/10.1093/rof/rfq007
dc.relation.referencesen6. Ran Aroussi, yfinance: Python library for Yahoo Finance API, GitHub Repository, 2023. https://github.com/ranaroussi/yfinance.
dc.relation.referencesen7. George E. P. Box, Gwilym M. Jenkins, Gregory C. Reinsel, Greta M. Ljung (2015) Time Series Analysis: Forecasting and Control, 5th ed., Wiley, 712 p. ISBN 9781118675021.
dc.relation.referencesen8. Benyamin Ghojogh (2023) Recurrent Neural Networks and Long Short-Term Memory Networks: Tutorial and Survey, arXiv preprint arXiv:2304.11461. https://arxiv.org/abs/2304.11461
dc.relation.referencesen9. Hajar Gohari, Xuan-Hong Dang, Syed Shah, et al. (2024). Modality-aware Transformer for Financial Time Series Forecasting, Proceedings of the 5th ACM International Conference on AI in Finance, pp. 677–685. https://doi.org/10.1145/3677052.3698654
dc.relation.referencesen10. Liyilei Su, Xumin Zuo, Rui Li, et al. (2025) A systematic review for transformer-based long-term series forecasting, Artificial Intelligence Review, vol. 58, article 80. https://doi.org/10.1007/s10462-024-11044-2
dc.relation.referencesen11. Zhicheng Zhang, Yong Wang, Shaoqi Tan, et al. (2025) Enhancing Transformer-based models for long sequence time series forecasting via structured matrix, Neurocomputing, vol. 625, pp. 1–12. https://doi.org/10.1016/j.neucom.2025.129429
dc.relation.referencesen12. Zhen Fang, Xu Ma, Huifeng Pan, Gonzalo R. Arce (2023) Movement forecasting of financial time series based on adaptive LSTM-BN network, Expert Systems with Applications, vol. 213, 119207. https://doi.org/10.1016/j.eswa.2022.119207
dc.relation.referencesen13. Diaa Salman, Cem Direkoglu, Mehmet Kusaf, Murat Fahrioglu (2024) Hybrid deep learning models for time series forecasting of solar power, Neural Computing and Applications, vol. 36, no. 16, https://doi.org/10.1007/s00521-024-09558-5
dc.relation.referencesen14. Ying Zhao, Han Sun (2024) Financial asset allocation strategies using statistical and machine learning models, Applied Soft Computing, vol. 150.
dc.relation.referencesen15. Vasyl Martsenyuk, Natalia Kit (2024) A multivariate method of forecasting the nonlinear dynamics of production network based on multilayer neural models, Scientific Journal of TNTU, vol. 114, no. 2, pp. 39–50. https://doi.org/10.33108/visnyk_tntu2024.02.039
dc.identifier.doihttps://doi.org/10.33108/visnyk_tntu2025.03.026
dc.contributor.affiliationТернопільський національний технічний університет імені Івана Пулюя, Тернопіль,Україна
dc.contributor.affiliationTernopil Ivan Puluj National Technical University, Ternopil, Ukraine
dc.citation.journalTitleВісник Тернопільського національного технічного університету
dc.citation.volume119
dc.citation.issue3
dc.citation.spage26
dc.citation.epage34
dc.identifier.citation2015Zadvornyi O., Pastukh O. Comparative analysis of machine learning algorithms for market capitalization time series forecasting // Scientific Journal of TNTU, Ternopil. 2025. Vol 119. No 3. P. 26–34.
dc.identifier.citationenAPAZadvornyi, O., & Pastukh, O. (2025). Comparative analysis of machine learning algorithms for market capitalization time series forecasting. Scientific Journal of the Ternopil National Technical University, 119(3), 26-34. TNTU..
dc.identifier.citationenCHICAGOZadvornyi O., Pastukh O. (2025) Comparative analysis of machine learning algorithms for market capitalization time series forecasting. Scientific Journal of the Ternopil National Technical University (Tern.), vol. 119, no 3, pp. 26-34.
Apareix a les col·leccions:Вісник ТНТУ, 2025, № 3 (119)



Els ítems de DSpace es troben protegits per copyright, amb tots els drets reservats, sempre i quan no s’indiqui el contrari.