Bu öğeden alıntı yapmak, öğeye bağlanmak için bu tanımlayıcıyı kullanınız:
http://elartu.tntu.edu.ua/handle/lib/48640
Başlık: | Використання навчання з підкріпленням для оптимізації стратегії архівування даних для програмного сервера |
Diğer Başlıklar: | Utilizing reinforcement learning to optimize data archiving strategy for application server |
Yazarlar: | Гарасівка, Андрій Лупенко, Анатолій Миколайович Harasivka, Andrii Lupenko, Anatolii |
Affiliation: | Тернопільський національний технічний університет імені Івана Пулюя, Тернопіль, Україна Ternopil Ivan Puluj National Technical University, Ternopil, Ukraine |
Bibliographic description (Ukraine): | Гарасівка А. Використання навчання з підкріпленням для оптимізації стратегії архівування даних для програмного сервера / Андрій Гарасівка, Анатолій Миколайович Лупенко // Вісник ТНТУ. — Т. : ТНТУ, 2025. — Том 117. — № 1. — С. 18–27. |
Bibliographic reference (2015): | Гарасівка А., Лупенко А. М. Використання навчання з підкріпленням для оптимізації стратегії архівування даних для програмного сервера // Вісник ТНТУ, Тернопіль. 2025. Том 117. № 1. С. 18–27. |
Bibliographic citation (APA): | Harasivka, A., & Lupenko, A. (2025). Vykorystannia navchannia z pidkriplenniam dlia optymizatsii stratehii arkhivuvannia danykh dlia prohramnoho servera [Utilizing reinforcement learning to optimize data archiving strategy for application server]. Scientific Journal of the Ternopil National Technical University, 117(1), 18-27. TNTU. [in Ukrainian]. |
Bibliographic citation (CHICAGO): | Harasivka A., Lupenko A. (2025) Vykorystannia navchannia z pidkriplenniam dlia optymizatsii stratehii arkhivuvannia danykh dlia prohramnoho servera [Utilizing reinforcement learning to optimize data archiving strategy for application server]. Scientific Journal of the Ternopil National Technical University (Tern.), vol. 117, no 1, pp. 18-27 [in Ukrainian]. |
Is part of: | Вісник Тернопільського національного технічного університету, 1 (117), 2025 Scientific Journal of the Ternopil National Technical University, 1 (117), 2025 |
Journal/Collection: | Вісник Тернопільського національного технічного університету |
Issue: | 1 |
Volume: | 117 |
Yayın Tarihi: | 18-Mar-2025 |
Submitted date: | 13-Kas-2024 |
Date of entry: | 27-May-2025 |
Yayıncı: | ТНТУ TNTU |
Place of the edition/event: | Тернопіль Ternopil |
DOI: | https://doi.org/10.33108/visnyk_tntu2025.01.018 |
UDC: | 004.632 |
Anahtar kelimeler: | резервне копіювання даних машинне навчання оптимізація проксимальної політики стратегія резервного копіювання рішення для стиснення навчання з підкріпленням програмний сервер data backup machine learning proximal policy optimization backup strategy compression solution reinforcement learning application server |
Number of pages: | 10 |
Page range: | 18-27 |
Start page: | 18 |
End page: | 27 |
Özet: | Ефективне стиснення даних є критично важливим компонентом сучасних систем резервного копіювання даних, особливо в середовищах із різними типами файлів і різними функціями
продуктивності. Резервне копіювання захищає критично важливі дані програмного сервера від неочікуваних збоїв, таких як апаратні збої, помилки програмного забезпечення або кібератаки,
забезпечуючи безперервність роботи бізнесу. Надійні стратегії резервного копіювання необхідні для відновлення критично важливих систем і служб, забезпечення безперервності роботи в разі збоїв
інфраструктури. Багато галузей підтримують безпечне резервне копіювання даних відповідно до правових і нормативних вимог щодо захисту даних та конфіденційності. На основі аналізу
експериментальних даних запропоновано новий підхід до навчання з підкріпленням, використовуючи модель проксимальної політики оптимізації для динамічної оптимізації стратегії архівування даних,
яка є частиною систем резервного копіювання. Модель навчена передбачати найефективнішу комбінацію параметрів стиснення на основі атрибутів файлів у цільовій файловій системі, вивчаючи
стан середовища та скалярну безпосередню винагороду і час резервного копіювання даних для конкретних файлів. Цей адаптивний підхід дозволяє моделі приймати рішення в режимі реального
часу, пристосовані до варіацій робочого навантаження програмного сервера. Пропонований підхід дає змогу реалізувати операції резервного копіювання різних типів файлів з певною комбінацією
параметрів стиснення. При цьому модель, навчаючись, оцінює винагороду та коригує політику для максимізації своєї ефективності прогнозування. Для оцінювання результатів експерименту необхідно
виконати резервне копіювання зі всіма можливими комбінаціями параметрів стиснення, щоб визначити максимальну можливу винагороду для кожної комбінації параметрів стиснення.
Максимальна винагорода використовується для порівняння з винагородою моделі в процесі оцінювання моделі. Наголошено на потенціалі машинного навчання для автоматизації
та оптимізації завдань резервного копіювання даних, надаючи оптимізоване рішення для високопродуктивних систем або середовищ із частим записуванням даних. Отримані результати
сприятимуть покращенню програмного забезпечення та роботи DevOps спеціалістів, а також зменшать використання дискового простору та час резервного копіювання для даних програмного сервера Efficient data compression is a critical component of modern data backup systems, particularly in environments with diverse file types and different performance features. Backups safeguard critical application server data against unexpected failures, such as hardware malfunctions, software bugs, or cyberattacks, ensuring business continuity. Many industries maintain secure data backups to meet legal and regulatory requirements, ensuring loyalty to data protection and privacy laws. However regular backup solutions are often unable to adapt effectively to the changing data of the application server. This paper proposes a novel reinforcement learning (RL) approach using the Proximal Policy Optimization (PPO) model to dynamically optimize data archiving strategy, which is part of backup systems. The model is trained to predict the most efficient combination of compression parameters based on the attributes of files in the target file system. By learning from file-specific observations and rewards, it adapts to work in a backup-specific environment to minimize consumed disk storage and backup time. This adaptive approach enables real-time decision-making tailored to workload variations of the application server environment. The proposed solution performs backup operations across various file types and configurations for the learning phase, where the model evaluates and adjusts policy to maximize its efficiency. To evaluate the results another client should perform all possible combinations of action parameters to determine all possible observations and rewards. The rewards are compared to decisions made by the proposed solution to ensure PPO model has correct and best possible predictions during the evaluation phase. This study highlights the potential of RL in automating and optimizing data backup tasks, providing a scalable solution for high-performance systems or environments with frequent data writes. The results obtained contribute to improving the software backup systems and DevOps specialists' work and reduce disk storage consumption and time elapsed for backup tasks for the application server |
URI: | http://elartu.tntu.edu.ua/handle/lib/48640 |
ISSN: | 2522-4433 |
Copyright owner: | © Ternopil Ivan Puluj National Technical University, 2025 |
URL for reference material: | https://doi.org/10.1109/ACCESS.2023.3328351 https://www.statista.com/statistics/1183457/iot-connected-devices-worldwide/ https://doi.org/10.1109/eIT53891.2022.9813970 https://doi.org/10.3390/fi16090306 https://doi.org/10.1155/2021/9505249 https://doi.org/10.1016/j.future.2023.10.012 https://doi.org/10.1007/s10462-024-10756-9 https://doi.org/10.3390/app14030952 https://doi.org/10.1007/s10489-024-05747-w https://stable-baselines3.readthedocs.io/en/master/guide/algos.html#rl-algorithms/ https://doi.org/10.33108/visnyk_tntu2024.03.082 https://doi.org/10.1109/CDC49753.2023.10383742 https://doi.org/10.1016/j.neucom.2024.128282 https://doi.org/10.33108/visnyk_tntu2022.02.092 |
References (International): | 1. Ferdous J., Islam R., Mahboubi A., Islam Z. (2023). A Review of State-of-the-Art Malware Attack Trends and Defense Mechanisms. Institute of Electrical and Electronics Engineers (IEEE) Access, pp. 121118–121141. https://doi.org/10.1109/ACCESS.2023.3328351 2. Number of Internet of Things (IoT) connections worldwide from 2022 to 2023, with forecasts from 2024 to 2033. Available at: https://www.statista.com/statistics/1183457/iot-connected-devices-worldwide/ (accessed 09.12.2024). 3. Vanness R., Chowdhury M., Rifat N. (2023). Malware: A Software for Cybercrime // Institute of Electrical and Electronics Engineers (IEEE) International Conference on Electro Information Technology (eIT), pp. 513–518. https://doi.org/10.1109/eIT53891.2022.9813970 4. Arányi G., Vathy-Fogarassy Á., Szücs V. (2024) Evaluation of a New-Concept Secure File Server Solution. Future Internet, Multidisciplinary Digital Publishing Institute (MDPI), 16 (9), p. 306. https://doi.org/10.3390/fi16090306 5. Chang D., Li L., Chang Y., Qiao Z. (2021) Cloud Computing Storage Backup and Recovery Strategy Based on Secure IoT and Spark. Mobile Information SystemsVolume 2021, issue 1, volume 6, p. 9505249. https://doi.org/10.1155/2021/9505249 6. Wang Z., Goudarzi M., Gong M., Buyya R. (2024). Deep Reinforcement Learning-based scheduling for optimizing system load and response time in edge and fog computing environments. Future Generation Computer Systems 152, pp. 55–69. https://doi.org/10.1016/j.future.2023.10.012 7. Zhou G., Tian W., Buyya R., Xue R., Song L. (2024). Deep reinforcement learning‑based methods for resource scheduling in cloud computing: a review and future directions. Artificial Intelligence Review, pp. 57–124. https://doi.org/10.1007/s10462-024-10756-9 8. Lee S., Kang J., Kim J., Baek W., Yoon H. (2024) A Study on Developing a Model for Predicting the Compression Index of the South Coast Clay of Korea Using Statistical Analysis and Machine Learning Techniques. Applied Sciences (Switzerland), volume 14, issue 3, p. 952. https://doi.org/10.3390/app14030952 9. Dantas P., Sabino da Silva W., Cordeiro L., Carvalho C. (2024) A comprehensive review of model compression techniques in machine learning. Applied Intelligence, volume 54, issue 22, pp. 11804–11844. https://doi.org/10.1007/s10489-024-05747-w 10. RL Algorithms – Stable Baselines3 2.5.0a0 documentation, Available at: https://stable-baselines3.readthedocs.io/en/master/guide/algos.html#rl-algorithms/ (accessed: 09.12.2024). 11. Stefanyshyn V., Stefanyshyn I., Pastukh O., Kulikov S. (2024) Comparison of the accuracy of machine learning algorithms for brain-computer interaction based on high-performance computing technologies. Scientific Journal of TNTU (Tern.), vol. 115, no. 3, pp. 82–90. https://doi.org/10.33108/visnyk_tntu2024.03.082 12. Zhao L., Gatsis K., Papachristodoulou A.. Stable and Safe Reinforcement Learning via a Barrier-Lyapunov Actor-Critic Approach. 62nd Institute of Electrical and Electronics Engineers (IEEE) Conference on Decision and Control (CDC), 2023, pp.1320–1325. https://doi.org/10.1109/CDC49753.2023.10383742 13. Varshosaz M., Ghaffari M., Johnsen E., Wąsowski A. Formal Specification and Testing for Reinforcement Learning. 2022 Institute of Electrical and Electronics Engineers (IEEE) International Conference on Electro Information Technology (eIT), 2022, pp. 513–518. 14. Pawlicki M., Pawlicka A., Uccello F., Szelest S., D’Antonio S., Kozik R., Choraś M. (2024) Evaluating the necessity of the multiple metrics for assessing explainable AI: A critical examination. Neurocomputing, volume 602, p. 128282. https://doi.org/10.1016/j.neucom.2024.128282 15. Stefanyshyn V., Stefanyshyn I., Pastukh O., Kulikov S.. (2024) Comparison of the accuracy of machine learning algorithms for brain-computer interaction based on high-performance computing technologies // Scientific Journal of TNTU (Tern.), vol. 115, no. 3, pp. 82–90. https://doi.org/10.33108/visnyk_tntu2024.03.082 16. Abdulhameed A. S., Lupenko S. (2022) Potentials of reinforcement learning in contemporary scenarios // Scientific Journal of TNTU (Tern.), vol. 106, no. 2, pp. 92–100. https://doi.org/10.33108/visnyk_tntu2022.02.092 |
Content type: | Article |
Koleksiyonlarda Görünür: | Вісник ТНТУ, 2025, № 1 (117) |
Bu öğenin dosyaları:
Dosya | Açıklama | Boyut | Biçim | |
---|---|---|---|---|
TNTUSJ_2025v117n1_Harasivka_A-Utilizing_reinforcement_18-27.pdf | 2,62 MB | Adobe PDF | Göster/Aç | |
TNTUSJ_2025v117n1_Harasivka_A-Utilizing_reinforcement_18-27__COVER.png | 1,44 MB | image/png | Göster/Aç |
DSpace'deki bütün öğeler, aksi belirtilmedikçe, tüm hakları saklı tutulmak şartıyla telif hakkı ile korunmaktadır.