Please use this identifier to cite or link to this item: http://elartu.tntu.edu.ua/handle/lib/43419
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorСверстюк, Андрій Степанович-
dc.contributor.authorКрисюк, Микола Володимирович-
dc.contributor.authorKrysiuk, Mykola Volodymyrovych-
dc.date.accessioned2024-01-07T13:54:23Z-
dc.date.available2024-01-07T13:54:23Z-
dc.date.issued2023-12-26-
dc.date.submitted2023-12-12-
dc.identifier.citationКрисюк М. В. Системи комп'ютерного зору на основі інтернету речей для безпекових потреб "розумних міст" : кваліфікаційна робота освітнього рівня „Магістр“ „122 – комп’ютерні науки“ / М. В. Крисюк. – Тернопіль : ТНТУ, 2023. – 68 с.uk_UA
dc.identifier.urihttp://elartu.tntu.edu.ua/handle/lib/43419-
dc.description.abstractКваліфікаційна робота присв’ячена дослідженню системи комп'ютерного зору на основі інтернету речей для безпекових потреб «розумних міст». В першому розділі кваліфікаційної роботи освітнього рівня «Магістр» описано актуальність досліджень в галузі системи комп'ютерного зору на основі інтернету речей. Подано аналіз наукових публікацій щодо систем комп'ютерного зору на основі інтернету речей для потреб «розумних міст». Розглянуто набори безпекових даних і програми для «розумних міст». Описано застосування безпекових роботів в «розумних містах». В другому розділі кваліфікаційної роботи досліджено безпекове спостереження на основі карт в «розумних містах». Описано мультимодальні агенти збору та обробки безпекових даних. Висвітлено процес глобального багатошарового спостереження та побудова ймовірнісної карти. Розглянуто виявлення безпекових аномалій в «розумних містах» за допомогою глобальних карт спостереження. Подано аналіз потоків людей і транспортних засобів «розумних міст». В третьому розділі кваліфікаційної роботи описано виявлення активності на відеозображеннях для безпекових потреб «розумних міст». Спроєктовано процес розпізнавання діяльності для безпекових потреб «розумних міст». Організовано «розумне» спостереження за допомогою Інтернету речей в «розумному місті». Описано опрацювання наборів даних безпекових потреб «розумних міст». The qualification work is dedicated to the research of the computer vision system based on the Internet of Things for the security needs of "smart cities". In the first section of the qualification work of the educational level "Master" the relevance of research in the field of computer vision based on the Internet of Things is described. An analysis of scientific publications on computer vision systems based on the Internet of Things for the needs of "smart cities" is presented. Security data sets and applications for "smart cities" are considered. The use of security robots in "smart cities" is described. In the second section of the qualification work, security surveillance based on maps in "smart cities" was investigated. Multimodal security data collection and processing agents are described. The process of global multi-layered observation and the construction of a probability map are highlighted. The detection of security anomalies in "smart cities" using global surveillance maps is considered. An analysis of the flows of people and vehicles of "smart cities" is provided. The third section of the qualification work describes the detection of activity on video images for the security needs of "smart cities". The activity recognition process for the security needs of "smart cities" has been designed. Organized "smart" surveillance using the Internet of Things in the "smart city". The processing of data sets of security needs of "smart cities" is described.uk_UA
dc.description.tableofcontentsВСТУП 7 1 ОГЛЯД ТА АНАЛІЗ БЕЗПЕКОВОЇ ПРЕДМЕТНОЇ ОБЛАСТІ «РОЗУМНИХ МІСТ» 9 1.1 Актуальність досліджень в галузі системи комп'ютерного зору на основі інтернету речей 9 1.2 Аналіз наукових публікацій щодо систем комп'ютерного зору на основі інтернету речей для потреб «розумних міст» 12 1.3 Набори безпекових даних і програми для «розумних міст» 15 1.4 Застосування безпекових роботів в «розумних містах» 16 1.5 Висновок до першого розділу 20 2 МЕТОДИ ТА ЗАСОБИ КОМП'ЮТЕРНОГО ЗОРУ ДЛЯ БЕЗПЕКОВОГО СПОСТЕРЕЖЕННЯ В «РОЗУМНИХ МІСТАХ» 21 2.1 Безпекове спостереження на основі карт в «розумних містах» 21 2.2 Мультимодальні агенти збору та обробки безпекових даних 21 2.2.1 Мультимодальний збір безпекових даних від різнорідних кількох агентів 21 2.2.2 Побудова локальної багатошарової карти спостереження «розумного міста» 23 2.3 Глобальне багатошарове спостереження та побудова ймовірнісної карти 27 2.3.1 Багатошарова глобальна карта спостереження 27 2.3.2 Генерація карти ймовірностей із карти спостереження 27 2.4 Виявлення безпекових аномалій в «розумних містах» за допомогою глобальної карти спостереження 31 2.4.1 Класифікація аномалій у карті ймовірностей «розумного міста» 31 2.5 Аналіз потоків людей і транспортних засобів «розумних міст» 32 2.6 Висновок до другого розділу 35 3 ВИКОРИСТАННЯ СИСТЕМ КОМП'ЮТЕРНОГО ЗОРУ НА ОСНОВІ ІНТЕРНЕТУ РЕЧЕЙ ДЛЯ БЕЗПЕКОВИХ ПОТРЕБ «РОЗУМНИХ МІСТ» 37 3.1 Виявлення активності на відеозображеннях для безпекових потреб «розумних міст» 37 3.2 Розпізнавання діяльності для безпекових потреб «розумних міст» 42 3.3 «Розумне» спостереження за допомогою Інтернету речей в «розумному місті» 46 3.4 Опрацювання наборів даних безпекових потреб «розумних міст» 48 3.5 Висновок до третього розділу 54 4 ОХОРОНА ПРАЦІ ТА БЕЗПЕКА В НАДЗВИЧАЙНИХ СИТУАЦІЯХ 55 4.1 Нормативно-правові основи охорони праці у галузі інформаційних технологій 55 4.2 Вимоги пожежної безпеки при гасінні електроустановок 58 4.3 Висновок до четвертого розділу 60 ВИСНОВКИ 61 ПЕРЕЛІК ДЖЕРЕЛ 62 ДОДАТКИuk_UA
dc.language.isoukuk_UA
dc.subjectбезпекаuk_UA
dc.subjectsecurityuk_UA
dc.subjectІнтернет речейuk_UA
dc.subjectInternet of thingsuk_UA
dc.subjectкомп’ютерний зірuk_UA
dc.subjectcomputer visionuk_UA
dc.subjectохоронний роботuk_UA
dc.subjectsecurity robotuk_UA
dc.subjectрозумне містоuk_UA
dc.subjectsmart cityuk_UA
dc.subjectсистема спостереженняuk_UA
dc.subjectsurveillance systemuk_UA
dc.titleСистеми комп'ютерного зору на основі інтернету речей для безпекових потреб "розумних міст"uk_UA
dc.title.alternativeComputer vision systems based on the Internet of things for safety needs of "Smart cities"uk_UA
dc.typeMaster Thesisuk_UA
dc.rights.holder© Крисюк Микола Володимирович, 2023uk_UA
dc.contributor.committeeMemberТиш, Євгенія Володимирівна-
dc.coverage.placenameТНТУ ім. І.Пулюя, ФІС, м. Тернопіль, Українаuk_UA
dc.subject.udc004.9uk_UA
dc.relation.references1 J.-W. Choi, D. Moon, and J.-H. Yoo, Robust multi-person tracking for real-time intelligent video surveillance, ETRI J. 37 (2015), no. 3, 551–561. https://doi.org/10.4218/etrij.15.0114. 0629.uk_UA
dc.relation.references2 T. Saba, A. Rehman, R. Latif, S. M. Fati, M. Raza, and M. Sharif, “Suspicious activity recognition using proposed deep L4-branched-ActionNet with entropy coded ant colony system optimization,” IEEE Access, vol. 9, pp. 89181–89197, 2021.uk_UA
dc.relation.references3 A. R. Khan, T. Saba, M. Z. Khan, S. M. Fati, and M. U. G. Khan, “Classification of human’s activities from gesture recognition in live videos using deep learning,” Concurrency and Computation: Practice and Experience, vol. 34, no. 10, Article ID e6825, 2022.uk_UA
dc.relation.references4 T. Saba, A. Rehman, T. Sadad, H. Kolivand, and S. A. Bahaj, “Anomaly-based intrusion detection system for IoTnetworks through deep learning model,” Computers & Electrical Engineering, vol. 99, Article ID 107810, 2022.uk_UA
dc.relation.references5 M. A. Khan, H. Arshad, R. Damaˇsevicˇius et al., “Human Gait Analysis: A Sequential Framework of Lightweight Deep Learning and Improved Moth-Flame Optimization Algorithm,” Computational Intelligence and Neuroscience, vol. 2022, 2022.uk_UA
dc.relation.references6 Duda, O., Kunanets, N., Martsenko, S., Matsiuk, O., Pasichnyk, V., Building secure Urban information systems based on IoT technologies. CEUR Workshop Proceedings 2623, pp. 317-328. 2020.uk_UA
dc.relation.references7 H. Yar, T. Hussain, Z. A. Khan, D. Koundal, M. Y. Lee, and S. W. Baik, “Vision sensor-based real-time fire detection in resource-constrained IoT environments,” Computational Intelligence and Neuroscience, vol. 2021, pp. 1–15, 2021.uk_UA
dc.relation.references8 B. Al, F. Orujov, R. Maskeliunas, R. Dama ˇsevicius, andˇ A. Vencˇkauskas, “Fuzzy logic type-2 based wireless indoor localization system for navigation of visually impaired people in buildings,” Sensors, vol. 19, no. 9, p. 2114, 2019.uk_UA
dc.relation.references9 G. Vallathan, A. John, C. Thirumalai, S. Mohan, G. Srivastava, and J. C. W. Lin, “Suspicious activity detection using deep learning in secure assisted living IoT environments,” The Journal of Supercomputing, vol. 77, no. 4, pp. 3242–3260, 2021.uk_UA
dc.relation.references10 I. M. Nasir, M. Raza, J. H. Shah, S. H. Wang, U. Tariq, and M. A. Khan, “HAREDNet: a deep learning based architecture for autonomous video surveillance by recognizing human actions,” Computers & Electrical Engineering, vol. 99, Article ID 107805, 2022.uk_UA
dc.relation.references11 H. Kolivand, M. S. Rahim, M. S. Sunar, A. Z. A. Fata, and C. Wren, “An integration of enhanced social force and crowd control models for high-density crowd simulation,” Neural Computing & Applications, vol. 33, no. 11, pp. 6095–6117, 2021.uk_UA
dc.relation.references12 G. S¸engu¨l, E. Ozcelik, S. Misra, R. Damaˇsevicius, andˇ R. Maskeliunas, “Fusion of smartphone sensor data for classification of daily user activities,” Multimedia Tools and Applications, vol. 80, no. 24, pp. 33527–33546, 2021.uk_UA
dc.relation.references13 F. Afza, M. A. Khan, M. Sharif et al., “A framework of human action recognition using length control features fusion and weighted entropy-variances based feature selection,” Image and Vision Computing, vol. 106, Article ID 104090, 2021.uk_UA
dc.relation.references14 P. Turaga, R. Chellappa, V. S. Subrahmanian, and O. Udrea, “Machine recognition of human activities: a survey,” IEEE Transactions on Circuits and Systems for Video Technology, vol. 18, no. 11, pp. 1473–1488, 2008.uk_UA
dc.relation.references15 Y. ZhuZhu, N. M. Nayak, and A. K. Roy-Chowdhury, “Context-aware activity modeling using hierarchical conditional random fields,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 37, no. 7, pp. 1360–1372, 2015, Jul.uk_UA
dc.relation.references16 J. Yue-Hei Ng, M. Hausknecht, S. Vijayanarasimhan, O. Vinyals, R. Monga, and G. Toderici, “Beyond short snippets: deep networks for video classification,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 4694–4702, Boston, MA, USA, June 2015.uk_UA
dc.relation.references17 M. S. Ibrahim, S. Muralidharan, Z. Deng, A. Vahdat, and G. Mori, “A hierarchical deep temporal model for group activity recognition,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 1971–1980, Las Vegas, NV, USA, June 2016.uk_UA
dc.relation.references18 P. Khaire, P. Kumar, and J. Imran, “Combining CNN streams of RGB-D and skeletal data for human activity recognition,” Pattern Recognition Letters, vol. 115, pp. 107–116, 2018.uk_UA
dc.relation.references19 M. Gnouma, A. Ladjailia, R. Ejbali, and M. Zaied, “Stacked sparse autoencoder and history of binary motion image for human activity recognition,” Multimedia Tools and Applications, vol. 78, no. 2, pp. 2157–2179, 2019.uk_UA
dc.relation.references20 Y. Xing, C. Lv, H. Wang, D. Cao, E. Velenis, and F. Y. Wang, “Driver activity recognition for intelligent vehicles: a deep learning approach,” IEEE Transactions on Vehicular Technology, vol. 68, no. 6, pp. 5379–5390, 2019.uk_UA
dc.relation.references21 A. Krizhevsky, I. Sutskever, and G. E. Hinton, “Imagenet classification with deep convolutional neural networks,” Advances in Neural Information Processing Systems, vol. 25, pp. 1097–1105, 2012.uk_UA
dc.relation.references22 K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 770–778, June 2016.uk_UA
dc.relation.references23 Z. Chang, X. Ban, Q. Shen, and J. Guo, “Research on threedimensional motion history image model and extreme learning machine for human body movement trajectory recognition,” Mathematical Problems in Engineering, vol. 2015, pp. 1–15, 2015.uk_UA
dc.relation.references24 X. F. Ji, Q. Q. Wu, Z. J. Ju, and Y. Y. Wang, “Study of human action recognition based on improved spatio-temporal features,” International Journal of Automation and Computing, vol. 11, no. 5, pp. 500–509, 2015.uk_UA
dc.relation.references25 Y. Zhong, B. Xu, G. T. Zhou, L. Bornn, and G. Mori, “Time Perception Machine: Temporal point Processes for the when, where and what of Activity Prediction,” 2018, https://arxiv. org/abs/1808.04063.uk_UA
dc.relation.references26 T. Saba, “Intrusion detection in smart city hospitals using ensemble classifiers,” in Proceedings of the 2020 13th International Conference on Developments in eSystems Engineering (DeSE), pp. 418–422, IEEE, Liverpool, United Kingdom, June 2020.uk_UA
dc.relation.references27 J. Patalas-Maliszewska, D. Halikowski, and R. Damaˇseviˇcius, “An automated recognition of work activity in industrial manufacturing using convolutional neural networks,” Electronics, vol. 10, no. 23, p. 2946, 2021.uk_UA
dc.relation.references28 D. A. John, “IEEE 802 LMSC,” 2022, https://standards.ieee. org/standard/802_3-2018.html.uk_UA
dc.relation.references29 M. E. Issa, A. M. Helmi, M. A. A. Al-Qaness, A. Dahou, M. A. Elaziz, and R. Damaˇseviˇcius, “Human activity recognition based on embedded sensor data fusion for the internet of healthcare things,” Healthcare, vol. 10, no. 6, p. 1084, 2022.uk_UA
dc.relation.references30 M. Ma, S. M. Preum, M. Y. Ahmed, W. Tärneberg, A. Hendawi, and J. A. Stankovic, Data sets, modeling, and decision making in smart cities: A survey, ACM Trans. Cyber-Phys. Syst. 4 (2019), no. 2, 1–28. https://doi.org/10.1145/3355283.uk_UA
dc.relation.references31 R. Rothe, R. Timofte, and L. V. Gool, Deep expectation of real and apparent age from a single image without facial landmarks, Int. J. Comput. Vision 126 (2018), no. 2–4, 144–157. https:// doi.org/10.1007/s11263-016-0940-3.uk_UA
dc.relation.references32 K. Chen and J.-K. Kämäräinen, Pedestrian density analysis in public scenes with spatiotemporal tensor features, IEEE Trans. Intell. Transp. Syst. 17 (2016), no. 7, 1968–1977. https://doi. org/10.1109/TITS.2016.2516586.uk_UA
dc.relation.references33 A. Patron-Perez, M. Marszalek, I. Reid, and A. Zisserman, Structured learning of human interactions in tv shows, IEEE Trans. Pattern Anal. Mach. Intell. 34 (2012), no. 12, 2441–2453.uk_UA
dc.relation.references34 P. Foggia, A. Saggese, and M. Vento, Real-time fire detection for video surveillance applications using a combination of experts based on color, shape and motion, IEEE Trans. Circ. Syst. Video Technol. 25 (2015), 1545–1556.uk_UA
dc.relation.references35 Z. Dong, Y. Wu, M. Pei, and Y. Jia, Vehicle type classification using a semisupervised convolutional neural network, IEEE Trans. Intell. Transp. Syst. 16 (2015), no. 4, 2247–2256.uk_UA
dc.relation.references36 Y. Bi, C. Lin, H. Zhou, P. Yang, X. Shen, and H. Zhao, Timeconstrained big data transfer for SDN-enabled smart city, IEEE Commun. Mag. 55 (2017), no. 12, 44–50.uk_UA
dc.relation.references37 S. Meghana, T. V. Nikhil, R. Murali, S. Sanjana, R. Vidhya, and K. J. Mohammed, Design and implementation of surveillance robot for outdoor security, (Proc. IEEE International Conference on Recent Trends in Electronics, Information Communication Technology, Bangalore, India), May 2017, pp. 1679–1682.uk_UA
dc.relation.references38 P. Chakravarty, A. M. Zhang, R. Jarvis, and L. Kleeman, Anomaly detection and tracking for a patrolling robot, (Australasian Conference on Robotics and Automation, Brisbane, Australia). Dec. 2007.uk_UA
dc.relation.references39 C. Zhang, Q. Zhan, Q. Wang, H. Wu, T. He, and Y. An, Autonomous dam surveillance robot system based on multisensor fusion, Sensors 20 (2020), no. 4. https://doi.org/10.3390/ s20041097.uk_UA
dc.relation.references40 D. D. Paola, A. Milella, G. Cicirelli, and A. Distante, An autonomous mobile robotic system for surveillance of indoor environments, Int. J. Adv. Robotic Syst. 7 (2010), no. 1. https://doi.org/ 10.5772/7254.uk_UA
dc.relation.references41 Shin, Hochul, et al. "Multimodal layer surveillance map based on anomaly detection using multi‐agents for smart city security." ETRI Journal 44.2 (2022): 183-193uk_UA
dc.relation.references42 T. Uhm, G.-D. Bae, J. Lee, and Y.-H. Choi, Multi-modal sensor calibration method for intelligent unmanned outdoor security robot, (Proceedings of the Sixth International Conference on Green and Human Information Technology), 2019, pp. 215–220.uk_UA
dc.relation.references43 G.-D. Bae, T. Uhm, Y.-H. Choi, and J.-H. Hwang, Study on multi-modal sensor system based sematic navigation map building, (International Conference on Control, Automation and Systems, Busan, Rep. of Korea), Oct. 2020, pp. 1195–1197.uk_UA
dc.relation.references44 J.-Y. Lee and W. Yu, Robust self-localization of ground vehicles using artificial landmark, (International Conference on Ubiquitous Robots and Ambient Intelligence, Kuala Lumpur, Malaysia), Nov. 2014, pp. 303–307.uk_UA
dc.relation.references45 J. Redmon and A. Farhadi, Yolov3: An incremental improvement, 2018. https://doi.org/10.48550/arXiv.1804.02767/uk_UA
dc.relation.references46 J.-Y. Lee, S. Choi, and J. Lim, Detection of high-risk intoxicated passengers in video surveillance, (IEEE International Conference on Advanced Video and Signal Based Surveillance, Auckland, New Zealand), Nov. 2018, pp. 1–6.uk_UA
dc.relation.references47 H. Shin and J.-Y. Lee, Pedestrian video data abstraction and classification for surveillance system, (International Conference on Information and Communication Technology Convergence, Jeju, Rep. of Korea), Oct. 2018. https://doi.org/ 10.1109/ICTC.2018.8539426.uk_UA
dc.relation.references48 W. S. Park, and Y. B. Kim, Anomaly detection in particulate matter sensor using hypothesis pruning generative adversarial network, ETRI J. 43 (2021), 511–523.uk_UA
dc.relation.references49 H. Shin and K. Na, Anomaly detection algorithm based on global object map for video surveillance system, (International Conference on Control, Automation and Systems, Busan, Rep. of Korea), Oct. 2020. https://doi.org/10.23919/ICCAS50221. 2020.9268258.uk_UA
dc.relation.references50 H. Shin and K. Na, Anomaly detection using elevation and thermal map for security robots, (International Conference on Information and Communication Technology Convergence, Jeju, Rep. of Korea), Oct. 2020. https://doi.org/10.1109/ ICTC49870.2020.9289470.uk_UA
dc.relation.references51 K. Lee, K. Lee, H. Lee, and J. Shin, A simple unified framework for detecting out-of-distribution samples and adversarial attacks, (Proceedings of International Conference on Neural Information Processing Systems, Montreal, Canada), 2018, pp. 7167– 7177.uk_UA
dc.relation.references52 A. Bochkovskiy, “Darknet: Open-Source Neural Networks in Python,” 2021, https://github.com/AlexeyAB/darknet.uk_UA
dc.relation.references53 A. Bochkovskiy, C. Y. Wang, and H. Y. Liao, “Yolov4: Optimal Speed and Accuracy of Object Detection,” 2020, https:// arxiv.org/abs/2004.10934.uk_UA
dc.relation.references54 Rehman, Amjad, et al. "Internet-of-things-based suspicious activity recognition using multimodalities of computer vision for smart city security." Security and communication Networks 2022 (2022).uk_UA
dc.relation.references55 J. Arunnehru, G. Chamundeeswari, and S. P. Bharathi, “Human action recognition using 3D convolutional neural networks with 3D motion cuboids in surveillance videos,” Procedia Computer Science, vol. 133, pp. 471–477, 2018.uk_UA
dc.relation.references56 J. L. Gonza´lez, C. Zaccaro, J. A. Garc´ıa, L. M. Morillo, and F. Caparrini, “Real-time gun detection in CCTV: an open problem,” Neural Networks, vol. 132, pp. 297–308, 2020.uk_UA
dc.relation.references57 W. Sultani, C. Chen, and M. Shah, “Real-world anomaly detection in surveillance videos,” 2018, https://arxiv.org/abs/ 1801.04264uk_UA
dc.relation.references58 Закон України про охорону праці, Відомості Верховної Ради України (ВВР), 1992: Режим доступу до ресурсу: https://zakon.rada.gov.ua/laws/show/2694-12#Textuk_UA
dc.relation.references59 Цивільна безпека (Охорона праці), Вдосконалення охорони праці в ІТ-індустрії, 2019." Режим доступу до ресурсу: https://www.khadi.kharkov.ua/fileadmin/P_vcheniy_secretar/ОХОРОНА_ПРАЦІ/R_IT-INDUSTRIA.pdfuk_UA
dc.relation.references60 В.І. Голінько, М.Ю. Іконніков, Я.Я. Лебедєв, Охорона праці в галузі інформаційних технологій: Навчальний посібник. Дніпропетровськ: НГУ, 2015.uk_UA
dc.relation.references61 Охорона праці в галузі інформаційних технологій, 2019. URL: http://yu.mk.ua/news/show/okhorona_pratsi_v_galuzi_informatsiynikh_tekhnologiiuk_UA
dc.relation.references62 Гасіння пожеж на енергетичних об’єктах під напругою. Охорона праці і пожежна безпека. URL: https://oppb.com.ua/docs/gasinnya-pozhezh-na-energetichnih-obiektah-pid-naprugoyuuk_UA
dc.relation.references63 Яким вогнегасником можна гасити електрообладнання з техніки безпеки? - Zprim. Zprim. URL: http://zprim.com.ua/yakim-vognegasnikom-mozhna-gasiti-elektroobladnannya-z-tehniki-bezpeki/uk_UA
dc.relation.references64 Про затвердження Інструкції з гасіння пожеж на енергетичних об'єктах України. Офіційний вебпортал парламенту України. URL: https://zakon.rada.gov.ua/laws/show/z0013-12#uk_UA
dc.contributor.affiliationТНТУ ім. І. Пулюя, Факультет комп’ютерно-інформаційних систем і програмної інженерії, Кафедра комп’ютерних наук, м. Тернопіль, Українаuk_UA
dc.coverage.countryUAuk_UA
Appears in Collections:122 — комп’ютерні науки

Files in This Item:
File Description SizeFormat 
Mag_2023_SNm_61_Krysiuk_M_V.pdf2,65 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

Admin Tools