Будь ласка, використовуйте цей ідентифікатор, щоб цитувати або посилатися на цей матеріал: http://elartu.tntu.edu.ua/handle/lib/40050

Повний запис метаданих
Поле DCЗначенняМова
dc.contributor.authorАбдулхамід, Абубакар Садік
dc.contributor.authorЛупенко, Сергій Анатолійович
dc.contributor.authorAbdulhameed, Abubakar Sadiq
dc.contributor.authorLupenko, Serhii
dc.date.accessioned2023-01-03T23:05:07Z-
dc.date.available2023-01-03T23:05:07Z-
dc.date.created2022-06-21
dc.date.issued2022-06-21
dc.date.submitted2022-02-19
dc.identifier.citationAbdulhameed A. S. Potentials of reinforcement learning in contemporary scenarios / Abubakar Sadiq Abdulhameed, Serhii Lupenko // Scientific Journal of TNTU. — Tern. : TNTU, 2022. — Vol 106. — No 2. — P. 92–100.
dc.identifier.issn2522-4433
dc.identifier.urihttp://elartu.tntu.edu.ua/handle/lib/40050-
dc.description.abstractРозглянуто поточне застосування навчання з підкріпленням у п’яти основних сферах, включаючи мобільну автономію, промислову автономію, фінанси й торгівлю та ігри. Застосування навчання з підкріпленням у режимі реального часу неможливо переоцінити. Воно охоплює сфери, що виходять далеко за рамки цієї статті, включаючи, але не обмежуючись, медицину, охорону здоров’я, опрацювання природної мови, робототехніку та електронну комерцію. Сучасні дослідницькі групи з навчання з підкріпленням досягли значного прогресу в іграх і порівняно менше в медицині. Останні реалізації навчання з підкріпленням зосереджені на алгоритмах навчання без моделі, оскільки їх відносно легше реалізувати. Представлено концепції навчання з підкріпленням на основі моделі та сформовано, як навчання на основі моделі може бути ефективним у сучасних сценаріях. Навчання з підкріпленням на основі моделі є фундаментальним підходом до послідовного прийняття рішень. Це стосується навчання оптимальної поведінки опосередковано шляхом вивчення моделі середовища, вчинення дій і спостереження за результатами, які включають наступне насичення та миттєву винагороду. Багато інших сфер навчання з підкріпленням пов’язані з навчанням з підкріпленням на основі моделі. Висновки цієї статті можуть мати як академічні, так і промислові наслідки, дозволяючи окремим дослідникам і організаціям ефективно використовувати алгоритми навчання з підкріпленням.
dc.description.abstractThis paper reviews the present applications of reinforcement learning in five major spheres including mobile autonomy, industrial autonomy, finance and trading, and gaming. The application of reinforcement learning in real time cannot be overstated, it encompasses areas far beyond the scope of this paper, including but not limited to medicine, health care, natural language processing, robotics and e commerce. Contemporary reinforcement learning research teams have made remarkable prog ress in games and comparatively less in the medical field. Most recent implementations of reinforcement learning are focused on model free learning algorithms as they are relatively easier to implement. This paper seeks to present model based reinforcement learning notions, and articulate how model based learning can be efficient in contemporary scenarios. Model based reinforcement learning is a fundamental approach to sequential decision making, it refers to learning optimal behavior indirectly by learning a model of the environment, from taking actions and observing the outcomes that include the subsequent sate and the instant reward. Many other spheres of reinforcement learning have a connection to model based reinforcement learning. The findings of this paper could have both academic and industrial ramifications, enabling individual researchers and organizations to be more decisive when utilizing reinforcement learning algorithms.
dc.format.extent92-100
dc.language.isoen
dc.publisherТНТУ
dc.publisherTNTU
dc.relation.ispartofВісник Тернопільського національного технічного університету, 2 (106), 2022
dc.relation.ispartofScientific Journal of the Ternopil National Technical University, 2 (106), 2022
dc.relation.urihttps://doi.org/10.1038/nature14236
dc.relation.urihttps://doi.org/10.1109/TVT.2020.3034800
dc.relation.urihttps://doi.org/10.1007/978-981-15-4095-0_3
dc.relation.urihttps://doi.org/10.3390/s21041292
dc.relation.urihttps://arxiv.org/abs/2006.16712
dc.relation.urihttps://bair.berkeley.edu/blog/2019/12/12/mbpo/
dc.relation.urihttps://arxiv.org/abs/1907.02057
dc.relation.urihttps://hub.packtpub.com/convolutional-neural-networks-reinforcement-learning/
dc.relation.urihttps://neptune.ai/blog/reinforcement-learning-applications
dc.relation.urihttps://www.karger.com/Article/Fulltext/492670
dc.relation.urihttps://doi.org/10.1142/S0129065709001987
dc.relation.urihttps://doi.org/10.1111/j.1541-0420.2011.01572.x
dc.relation.urihttps://doi.org/10.1109/ICHI.2017.45
dc.subjectнавчання з підкріпленням
dc.subjectнавчання на основі моделі
dc.subjectнавчання без моделі
dc.subjectалгоритми
dc.subjectопрацювання медичних зображень
dc.subjectглибоке навчання з підкріпленням
dc.subjectReinforcement learning
dc.subjectmodel based learning
dc.subjectmodel free learni ng
dc.subjectalgorithms
dc.subjectmedical image processing
dc.subjectdeep reinforcement learning
dc.titlePotentials of reinforcement learning in contemporary scenarios
dc.title.alternativeПотенціали навчання з підкріпленням у сучасних сценаріях
dc.typeArticle
dc.rights.holder© Тернопільський національний технічний університет імені Івана Пулюя, 2022
dc.coverage.placenameТернопіль
dc.coverage.placenameTernopil
dc.format.pages9
dc.subject.udc004
dc.relation.referencesen1. Mnih V., Kavukcuoglu K., Silver D., Rusu A. A., Veness J., Bellemare M. G., et al. Human-level control through deep reinforcement learning. Nature. 2015 Feb. 518 (7540). P. 529–33. DOI: https://doi.org/10.1038/nature14236
dc.relation.referencesen2. Volodymyr Mnih, Koray Kavukcuoglu, et al. Playing Atari with deep Reinforcement Learning. Cornell University, Dec 2013.
dc.relation.referencesen3. Micheal Painter, Luke Johnston. Mastering the game of Go from scratch. Stanford University.
dc.relation.referencesen4. Silver D., Hubert T., Schrittwieser J., Antonoglou I., Lai M., Guez A., et al. Mastering Chess and Shogi by Self-Play with a General Rein-forcement Learning Algorithm.
dc.relation.referencesen5. Hu J., Niu H., Carrasco J., Lennox B., Arvin F. (2020). “Voronoi-Based Multi-Robot Autonomous Exploration in Unknown Environments via Deep Reinforcement Learning”. IEEE Transactions on Vehicular Technology. 69 (12): 14413–14423. DOI: https://doi.org/10.1109/TVT.2020.3034800
dc.relation.referencesen6. Sutton, R. S., Barto A. G., Reinforcement Learning: An Introduction; A Bradford Book: Cambridge, MA, USA, 2018.
dc.relation.referencesen7. Zhang H., Yu T., Taxonomy of Reinforcement Learning Algorithms. In Deep Reinforcement Learning: Fundamentals, Research and Applications; Dong, H., Ding, Z., Zhang, S., Eds.; Springer: Singapore, 2020; P. 125–133. DOI: https://doi.org/10.1007/978-981-15-4095-0_3
dc.relation.referencesen8. Rummery G. A., Niranjan M. On-line Q-Learning Using Connectionist Systems; University of Cambridge, Department of Engineering: Cambridge, UK, 1994; Volume 37.
dc.relation.referencesen9. Deisenroth M. P., Neumann G., Peters, J. A survey on policy search for robotics. Found. Trends® Robot. 2013. 2. P. 388–403.
dc.relation.referencesen10. Neziha Akalin and Amy Loutfi. Reinforcement learning approaches in social robotics. MDPI: 11, February 2021. DOI: https://doi.org/10.3390/s21041292
dc.relation.referencesen11. Thomas M. Moerland et al. Model-based Reinforcement Learning: A survey version 3 Arrive, Cornell University: 25 Feb, 2021. URL: https://arxiv.org/abs/2006.16712.
dc.relation.referencesen12. Micheal Janner. Model-bassed reinforcement learning: Theory and Practice. Berkeley Artificial Intelligence Research: Dec 12, 2019. URL: https://bair.berkeley.edu/blog/2019/12/12/mbpo/.
dc.relation.referencesen13. Tingwu Wang, et al. Bench Marking Model-Based Reinforcement Learning. Axiv, Cornell University: 3, Jul, 2019. URL: https://arxiv.org/abs/1907.02057.
dc.relation.referencesen14. Antonio Gull, Sujit Pal. Convolutional Neural Network with Reinforcement Learning. Packt: April 6, 2017. URL: https://hub.packtpub.com/convolutional-neural-networks-reinforcement-learning/.
dc.relation.referencesen15. Phung V. H., Rhee E. J. A Deep Learning Approach for Classification of Cloud Image Patches on Small Datasets. J. Inf. Commun. Converg. Eng. 2018. 16. P. 173–178. Doi:10.6109/jicce.2018.16.3.173.
dc.relation.referencesen16. Derrick Mwiti. 10 Real-Life Applications of Reinforcement Learning. Neptune; Nov, 2021. URL: https://neptune.ai/blog/reinforcement-learning-applications.
dc.relation.referencesen17. Dmitry Kalashnikov, Alex Irpan. QT-Opt: Scalable Deep Reinforcement Learning for Vision-Based Robotic Manipulation (v3). Cornell University. Nov, 2018.
dc.relation.referencesen18. Anders Jonsson. Deep Reinforcement Learning in Medicine. Universitat Pompeu Fabra, Barcelona Spain. October 12, 2018. URL: https://www.karger.com/Article/Fulltext/492670.
dc.relation.referencesen19. Pineau J., Guez A., Vincent R., Panuccio G., Avili M. Treating epilepsy via adaptive neurostimulation: a reinforcement learning approach. Int J Neural Syst. 2009 August, 19 (4). P. 227-240. DOI: https://doi.org/10.1142/S0129065709001987
dc.relation.referencesen20. Zhao Y., Zeng D., Socinski M. A., Kosorok M. R.. Reinforcement learning strategies for clinical trails in non small cell lung cancer. Biometrics 2011 Dec; 67(4): 1422-33. DOI: https://doi.org/10.1111/j.1541-0420.2011.01572.x
dc.relation.referencesen21. Liu Y., Logan B., Liu N., Xu Z., Tang J., Wang Y. Deep reinforcement learning for dynamic treatment regimes on medical registry data. 2017 IEEE International Conference on Health Informatics (ICHI); 2017 Aug. P. 380-385. DOI: https://doi.org/10.1109/ICHI.2017.45
dc.identifier.citationenAbdulhameed A. S., Lupenko S. (2022) Potentials of reinforcement learning in contemporary scenarios. Scientific Journal of TNTU (Tern.), vol. 106, no 2, pp. 92-100.
dc.identifier.doihttps://doi.org/10.33108/visnyk_tntu2022.02.092
dc.contributor.affiliationТернопільський національний технічний університет імені Івана Пулюя, Тернопіль, Україна
dc.contributor.affiliationTernopil Ivan Puluj National Technical University, Ternop l, Ukraine
dc.citation.journalTitleВісник Тернопільського національного технічного університету
dc.citation.volume106
dc.citation.issue2
dc.citation.spage92
dc.citation.epage100
Розташовується у зібраннях:Вісник ТНТУ, 2022, № 2 (106)



Усі матеріали в архіві електронних ресурсів захищені авторським правом, всі права збережені.