Please use this identifier to cite or link to this item:
http://elartu.tntu.edu.ua/handle/lib/48659
Title: | Дослідження процесів створення голосових асистентів смарт систем для сприйняття емоцій |
Other Titles: | Study of the smart systems voice assistants development processes for the perception of emotions |
Authors: | Колачик, Назарій Миколайович Kolachyk, Nazarii Mykolaiovych |
Affiliation: | ТНТУ ім. І. Пулюя, Факультет комп’ютерно-інформаційних систем і програмної інженерії, Кафедра комп’ютерних наук, м. Тернопіль, Україна |
Bibliographic description (Ukraine): | Колачик Н. М. Дослідження процесів створення голосових асистентів смарт-систем для сприйняття емоцій : робота на здобуття кваліфікаційного ступеня магістра : спец. 122 – комп’ютерні науки / наук. кер. Н. Е. Кунанець. – Тернопіль : Тернопільський національний технічний університет імені Івана Пулюя, 2025. – 78 с. |
Bibliographic reference (2015): | Колачик Н. М. Дослідження процесів створення голосових асистентів смарт-систем для сприйняття емоцій : робота на здобуття кваліфікаційного ступеня магістра, спец. 122 – комп’ютерні науки / Н. М. Колачик ; наук. кер. Н. Е. Кунанець. – Тернопіль : Тернопільський національний технічний університет імені Івана Пулюя, 2025. – 78 с. |
Issue Date: | 26-May-2025 |
Submitted date: | 12-May-2025 |
Date of entry: | 31-May-2025 |
Publisher: | ТНТУ ім. І.Пулюя, ФІС, м. Тернопіль, Україна |
Country (code): | UA |
Place of the edition/event: | Тернопіль |
Supervisor: | Кунанець, Наталія Едуардівна Kunanets, Nataliia |
Committee members: | Микитишин, Андрій Григорович Mykytyshyn, Andrij |
UDC: | 004.9 |
Keywords: | 122 комп’ютерні науки аналіз емоцій штучний інтелект голосові асистенти система геопросторової інформації розширена реальність emotion analysis artificial intelligence voice assistants geospatial information system extended reality |
Page range: | 78 |
Abstract: | Кваліфікаційна робота присвячена дослідженню процесів створення голосових асистентів смарт систем для сприйняття емоцій. Об’єкт дослідження: процеси створення голосових асистентів смарт систем із можливістю розпізнавання емоцій користувача. Предмет дослідження: методи, технології та інструменти реалізації емоційного розпізнавання у голосових інтерфейсах. В першому розділі кваліфікаційної роботи описані основні поняття аналізу емоцій. Розглянуто техніки та системи аналізу емоцій за типами вхідних даних. Висвітлено методи виявлення та розпізнавання емоцій. Проведено глибокий порівняльний аналіз цих методів із наведенням ключових переваг та недоліків. В другому розділі кваліфікаційної роботи розглянуто технологічні засоби та інфраструктура для розпізнавання емоцій у смарт системах. Досліджено інструменти та API для обробки емоційних сигналів та подано їх порівняльну характеристику за швидкістю обробки. Висвітлено дослідження з використанням технологій смарт систем на базі ШІ, ГІС та XR. В третьому розділі кваліфікаційної роботи описано досвід, проблематику і шляхи розвитку впровадження емоційного інтелекту у смарт системи. Проаналізовано технічні аспекти розробки голосових асистентів для сприйняття емоцій. Проведено оцінку викликів та напрямів розвитку емоційно-чутливих голосових асистентів. The thesis is devoted to the study of the smart systems voice assistants development processes for the perception of emotions. The object of the study is the development processes of voice assistants in smart systems with the ability to recognize user emotions. The subject of the study is the methods, technologies, and tools for implementing emotion recognition in voice interfaces. The first chapter of the thesis outlines the fundamental concepts of emotion analysis. The thesis examines techniques and systems for emotion recognition based on different input data types. Methods of emotion detection and recognition are presented, along with a thorough comparative analysis highlighting their main advantages and limitations. The second chapter addresses the technological tools and infrastructure for emotion recognition in smart systems. Tools and APIs for processing emotional signals are studied and compared based on processing speed. Research involving the application of AI-, GIS-, and XR-based smart technologies is also presented. The third chapter describes the experience, challenges, and development paths for implementing emotional intelligence in smart systems. The technical aspects of designing voice assistants capable of perceiving emotions are analyzed. Challenges and promising directions in the development of emotionally-sensitive voice assistants are assessed. |
Description: | Роботу виконано на кафедрі комп'ютерних наук Тернопільського національного технічного університету імені Івана Пулюя. Захист відбудеться 26.05.2025 р. о 17 год. 00 хв. на засіданні екзаменаційної комісії №33 у Тернопільському національному технічному університеті імені Івана Пулюя. |
Content: | ВСТУП 9 1 ОСНОВНІ ПОНЯТТЯ ЕМОЦІЙНОГО АНАЛІЗУ: ТЕРМІНИ, МЕТОДИ, МОДЕЛІ ТА ТЕХНОЛОГІЇ 11 1.1 Значення емоційного аналізу та сфери його практичного застосування 11 1.2 Можливості й обмеження емоційного аналізу в умовах технологічного прогресу 12 1.3 Техніки та системи аналізу емоцій за типами вхідних даних 14 1.3.1 Візуальне розпізнавання емоцій 17 1.3.2 Аудіо-розпізнавання емоцій 18 1.3.3 Текстове розпізнавання емоцій 18 1.3.4 Фізіологічне розпізнавання емоцій 19 1.3.5 Мультимодальне розпізнавання емоцій 20 1.4 Етапи обробки даних у фреймворках розпізнавання емоцій 21 1.5 Методи виявлення та розпізнавання емоцій 23 1.5.1 Методи засновані на правилах 23 1.5.2 Методи, засновані на машинному навчанні 23 1.5.3 Методи, засновані на глибинному навчанні 24 1.6 Порівняльний аналіз методів розпізнавання емоцій: переваги та обмеження підходів 24 1.7 Висновок до першого розділу 27 2 ТЕХНОЛОГІЧНІ ЗАСОБИ ТА ІНФРАСТРУКТУРА ДЛЯ РОЗПІЗНАВАННЯ ЕМОЦІЙ У СМАРТ СИСТЕМАХ 28 2.1 Інструменти та api для обробки емоційних сигналів 28 2.2 Порівняльна характеристика інструментів емоційного аналізу за швидкістю обробки 31 2.3 Дослідження технологій смарт систем на базі штучного інтелекту для емоційного аналізу 32 2.4 Використання геоінформаційних систем для розпізнавання та смарт-моніторингу міських процесів 36 2.5 Застосування xr-технологій в емоційному аналізі та адаптивних середовищах 38 2.6 Захист конфіденційності та безпека даних при використанні голосових асистентів у смарт системах 41 2.7 Висновок до другого розділу 42 3 ВПРОВАДЖЕННЯ ЕМОЦІЙНОГО ІНТЕЛЕКТУ У СМАРТ СИСТЕМИ: ДОСВІД, ПРОБЛЕМАТИКА ТА ШЛЯХИ РОЗВИТКУ 43 3.1 Технічні аспекти розробки емоційно-чутливих голосових асистентів 43 3.2 Індивідуалізація голосових асистентів через контекстно-залежне розпізнавання емоцій 44 3.3 Моделі інтеграції емоційного інтелекту у віртуальне середовище 46 3.4 Імплементація емоційного аналізу у штучний інтелект 47 3.5 Геопросторовий аналіз емоційних даних: застосування в міському середовищі та соціальних дослідженнях 48 3.6 Виклики у створенні та впровадженні емоційного інтелекту в інтелектуальні технології нового покоління 50 3.7 Голосові асистенти у смарт системах: етичні аспекти та напрями розвитку 52 3.8 Висновок до третього розділу 56 4 ОХОРОНА ПРАЦІ ТА БЕЗПЕКА В НАДЗВИЧАЙНИХ СИТУАЦІЯХ 57 4.1 Охорона праці 57 4.1.1 Вплив психоемоційного навантаження на розробників голосових асистентів та методи його мінімізації 57 4.1.2 Оцінка професійних ризиків при використанні голосових асистентів для смарт систем 59 4.2 Безпека в надзвичайних ситуаціях 62 4.3 Висновок до четвертого розділу 67 ВИСНОВКИ 69 ПЕРЕЛІК ДЖЕРЕЛ 71 ДОДАТКИ 79 |
URI: | http://elartu.tntu.edu.ua/handle/lib/48659 |
Copyright owner: | ©Колачик Назарій Миколайович, 2025 |
References (Ukraine): | 1. Moin, F. Aadil, Z. Ali, and D. Kang, “Emotion recognition framework using multiple modalities for an effective human–computer interaction,” J. Supercomput., vol. 79, no. 8, pp. 1-30, 2023. 2. S. Alsubai, ‘‘Emotion detection using deep normalized attention-based neural network and modified-random forest,’’ Sensors, vol. 23, no. 1, p. 225, Dec. 2022. 3. M. Awais, M. Raza, N. Singh, K. Bashir, U. Manzoor, S. U. Islam, and J. J. P. C. Rodrigues, ‘‘LSTM-based emotion detection using physiological signals: IoT framework for healthcare and distance learning in COVID-19,’’ IEEE Internet Things J., vol. 8, no. 23, pp. 16863-16871, Dec. 2021. 4. H. Hadjar, P. McKevitt, and M. Hemmje, ‘‘Home-based immersive web rehabilitation gaming with audiovisual sensors,’’ in Proc. 33rd Eur. Conf. Cognit. Ergonom., Oct. 2022, pp. 1-7. 5. K. S. Willis and C. Nold, "Sense and the city: An Emotion Data Framework for smart city governance," Journal of Urban Management, vol. 11, no. 2, pp. 1-10, 2022. 6. J. Deng and F. Ren, ‘‘A survey of textual emotion recognition and its challenges,’’ IEEE Trans. Affect. Comput., vol. 14, no. 1, pp. 49–67, Jan. 2023. 7. Petrova, D. Vaufreydaz, and P. Dessus, ‘‘Group-level emotion recognition using a unimodal privacy-safe non-individual approach,’’ in Proc. Int. Conf. Multimodal Interact., Oct. 2020, pp. 813–820. 8. M. R. Islam, M. A. Moni, M. M. Islam, D. Rashed-Al-Mahfuz, M. S. Islam, M. K. Hasan, M. S. Hossain, M. Ahmad, S. Uddin, A. Azad, S. A. Alyami, M. A. R. Ahad, and P. Lió, ‘‘Emotion recognition from EEG signal focusing on deep learning and shallow learning techniques,’’ IEEE Access, vol. 9, pp. 94601–94624, 2021. 9. J. Heredia, Y. Cardinale, I. Dongo, and J. Díaz-Amado, ‘‘A multi-modal visual emotion recognition method to instantiate an ontology,’’ in Proc. 16th Int. Conf. Softw. Technol., 2021, pp. 453-464. 10. M. B. Akçay and K. Oğuz, ‘‘Speech emotion recognition: Emotional models, databases, features, preprocessing methods, supporting modalities, and classifiers,’’ Speech Commun., vol. 116, pp. 56-76, Jan. 2020. 11. Y. Ghafoor, S. Jinping, F. H. Calderon, Y.-H. Huang, K.-T. Chen, and Y.-S. Chen, ‘‘TERMS: Textual emotion recognition in multidimensional space,’’ Int. J. Speech Technol., vol. 53, no. 3, pp. 2673-2693, Feb. 2023. 12. H. Z. Wijasena, R. Ferdiana, and S. Wibirama, ‘‘A survey of emotion recognition using physiological signal in wearable devices,’’ in Proc. Int. Conf. Artif. Intell. Mechatronics Syst. (AIMS), Apr. 2021, pp. 1-6. 13. M. Li, X. Qiu, S. Peng, L. Tang, Q. Li, W. Yang, and Y. Ma, ‘‘Multimodal emotion recognition model based on a deep neural network with multiobjective optimization,’’ Wireless Commun. Mobile Comput., vol. 2021, pp. 1-10, Aug. 2021. 14. M. Sharafi, M. Yazdchi, R. Rasti, and F. Nasimi, ‘‘A novel spatio-temporal convolutional neural framework for multimodal emotion recognition,’’ Biomed. Signal Process. Control, vol. 78, Sep. 2022, Art. no. 103970. 15. T. Sun, S. Wang, and S. Zhong, ‘‘Multi-granularity feature attention fusion network for image-text sentiment analysis,’’ in Proc. 39th Comput. Graph. Int. Conf. (CGI), 2023, pp. 3-14. 16. О. Гудь, Н. Кунанець, ‘‘Застосування рекурентних нейронних мереж для покращення процесу планування SCRUM-спринтів,’’ Information Systems and Networks, № 16, с. 203–211, 2024. 17. N. Khan, A. A. Ihalage, Y. Ma, B. Liu, Y. Liu, and Y. Hao, ‘‘Deep learning framework for subject-independent emotion detection using wireless signals,’’ PLoS ONE, vol. 16, no. 2, Feb. 2021, Art. no. e0242946. 18. P. Theerthagiri, ‘‘Stress emotion recognition with discrepancy reduction using transfer learning,’’ Multimedia Tools Appl., vol. 82, no. 4, pp. 5949-5963, Feb. 2023. 19. S. Vashishtha and S. Susan, ‘‘Unsupervised fuzzy inference system for speech emotion recognition using audio and text cues (workshop paper),’’ in Proc. IEEE 6th Int. Conf. Multimedia Big Data (BigMM), Sep. 2020, pp. 394-403. 20. I. Siam, N. F. Soliman, A. D. Algarni, F. E. A. El-Samie, and A. Sedik, ‘‘Deploying machine learning techniques for human emotion detection,’’ Comput. Intell. Neurosci., vol. 2022, pp. 1-16, Feb. 2022. 21. H. S. H. Kumar, Y. P. Gowramma, S. H. Manjula, D. Anil, and N. Smitha, ‘‘Comparison of various ML and DL models for emotion recognition using Twitter,’’ in Proc. 3rd Int. Conf. Intell. Commun. Technol. Virtual Mobile Netw. (ICICV), Feb. 2021, pp. 1332-1337. 22. M. Maithri, U. Raghavendra, A. Gudigar, J. Samanth, P. D. Barua, M. Murugappan, Y. Chakole, and U. R. Acharya, ‘‘Automated emotion recognition: Current trends and future perspectives,’’ Comput. Methods Programs Biomed., vol. 215, Mar. 2022, Art. no. 106646. 23. M. Singh, A. K. Jakhar, and S. Pandey, ‘‘Sentiment analysis on the impact of coronavirus in social life using the BERT model,’’ Social Netw. Anal. Mining, vol. 11, no. 1, p. 33, Dec. 2021. 24. M. Misuraca, A. Forciniti, G. Scepi, and M. Spano, ‘‘Sentiment analysis for education with R: Packages, methods and practical applications,’’ 2020, arXiv:2005.12840. 25. W. E. Villegas-Ch, J. García-Ortiz, and S. Sánchez-Viteri, ‘‘Identification of emotions from facial gestures in a teaching environment with the use of machine learning techniques,’’ IEEE Access, vol. 11, pp. 38010-38022, 2023. 26. S. K. Singh, A. K. Singh, and R. K. Tripathi, “Emotion recognition from unimodal to multimodal analysis: A review,” Information Fusion, vol. 89, pp. 1-20, 2023. 27. R. Pereira, C. Mendes, J. Ribeiro, and R. Ribeiro, “Systematic review of emotion detection with computer vision and deep learning,” Sensors, vol. 24, no. 11, p. 3484, May 2024. 28. G. Oh, J. Ryu, E. Jeong, J. H. Yang, S. Hwang, S. Lee, and S. Lim, ‘‘DRER: Deep learning-based driver’s real emotion recognizer,’’ Sensors, vol. 21, no. 6, p. 2166, Mar. 2021. 29. S. K. Kanaparthi, S. P, L. P. Bellamkonda, B. Kadiam, and B. Mungara, “Detection of stress in IT employees using machine learning technique,” in Proc. Int. Conf. Appl. Artif. Intell. Comput. (ICAAIC), May 2022, pp. 486-493. 30. S. Bandyopadhyay, S. Thakur, and J. Mandal, ‘‘Emotion detection for online recommender system using deep learning: A proposed method,’’ Innov. Syst. Softw. Eng., vol. 18, pp. 1-8, 2022. 31. A. Stanko, O. Duda, A. Mykytyshyn, O. Totosko, and R. Koroliuk, “Artificial Intelligence of Things (AIoT): Integration challenges, and security issues,” in Proc. 1st Int. Workshop on Bioinformatics and Applied Information Technologies (BAIT’2024), Zboriv, Ukraine, Oct. 2024. 32. S. Torcate, F. S. Fonseca, M. A. de Santana, J. C. Gomes, and W. P. dos Santos, “Deep architectures based on convolutional neural networks and random forests for detection and recognition of emotions in facial expressions in the elderly,” Appl. Soft Comput., pp. 1-56, 2022. 33. Dozorskyi V., Dediv I., Sverstiuk S., Nykytyuk V., Karnaukhov A., ‘‘The Method of Commands Identification to Voice Control of the Electric Wheelchair,’’ in Proc. 1st Int. Workshop on Computer Information Technologies in Industry 4.0 (CITI 2023), pp. 233-240, 2023. 34. Malik, S. Latif, S. Manzoor, M. Usama, J. Qadir, and R. Jurdak, “Emotions beyond words: Non-speech audio emotion recognition with edge computing,” 2023, arXiv:2305.00725. 35. G. Rathee, S. Garg, G. Kaddoum, and M. M. Hassan, “A secure emotion aware intelligent system for Internet of healthcare,” Alexandria Eng. J., vol. 75, pp. 605-614, Jul. 2023. 36. Cardone, F. Di Martino, and S. Sessa, “GIS-based fuzzy sentiment analysis framework to classify urban elements according to the orientations of citizens and tourists expressed in social networks,” Evol. Intell., vol. 15, pp. 1-10, Apr. 2021. 37. Cardone, B., Di Martino, F., Mauriello, C., & Miraglia, V., “An Emotion Detection GIS-Based Framework for Evaluating Exposure to Heatwave Scenarios in Urban Settlements During a Pandemic.” Applied Sciences, 15(2), pp. 702. 2025. 38. X. Xiao, C. Fang, H. Lin, L. Liu, Y. Tian, and Q. He, ‘‘Exploring spatiotemporal changes in the multi-granularity emotions of people in the city: A case study of Nanchang, China,’’ Comput. Urban Sci., vol. 2, no. 1, p. 1, Dec. 2022. 39. Zhang and Y. Li, ‘‘The impact of campus outdoor space features on students’ emotions based on the emotion map,’’ Int. J. Environ. Res. Public Health, vol. 20, no. 5, p. 4277, Feb. 2023. 40. H. Wang, Z. Wang, D. Chen, Q. Liu, H. Ke, and K. Han, ‘‘Metamobility: Connecting future mobility with metaverse,’’ 2023, arXiv:2301.06991. 41. N. Zagorodna, Y. Skorenkyy, N. Kunanets, I. Baran, and M. Stadnyk, “Augmented reality enhanced learning tools development for cybersecurity major,” in Proc. ITTAP’2022: Int. Workshop on Information Technologies: Theoretical and Applied Problems, Ternopil, Ukraine, Nov. 2022, pp. 1–8. 42. N. Joshi, N. Beecken, H. Bah, F. Steinicke, and J. Degner, “Advanced emotion analytics of virtual group meetings involving intelligent virtual agents,” in Proc. IEEE Conf. Virtual Reality 3D User Interfaces Abstr. Workshops (VRW), Mar. 2022, pp. 344-350. 43. S. Reig, E. P. Cruz, M. M. Powers, J. He, T. Chong, Y. J. Tham, S. Kratz, A. Robinson, B. A. Smith, R. Vaish, and A. Monroy-Hernández, ‘‘Supporting piggybacked co-located leisure activities via augmented reality,’’ in Proc. CHI Conf. Hum. Factors Comput. Syst., Apr. 2023, pp. 1-15. 44. Testa, B., Xiao, Y., Sharma, H., Gump, A., & Salekin, A. (2022). Privacy against Real-Time Speech Emotion Detection via Acoustic Adversarial Evasion of Machine Learning. arXiv preprint arXiv:2211.09273. 45. R. Ramesh, “Emotion detection with privacy preservation using adversarial learning,” M.S. thesis, Texas A&M Univ., College Station, TX, USA, 2021, pp. 1-48. 46. M. A. Anwar, M. Agrawal, N. Gahlan, D. Sethia, G. K. Singh, and R. Chaurasia, “FedEmo: A privacy-preserving framework for emotion recognition using EEG physiological data,” in Proc. 15th Int. Conf. Commun. Syst. Netw. (COMSNETS), Jan. 2023, pp. 119-124. 47. O. Didukh, M. Kreminskyi, R. Bakhmut, and N. Kunanets, “Doctor’s voice assistant application prototype,” Scientific Journal of the Lviv Polytechnic National University. Series: Information Systems and Networks, vol. 13, pp. 137–145, 2023. 48. Ma, Y., Zhang, Y., Bachinski, M., & Fjeld, M. (2023). “Emotion-aware voice assistants: Design, implementation, and preliminary insights.” Proceedings of the 2023 International Conference on Artificial Intelligence and Computer Engineering, pp 527-532. 49. Міжнародні наукові дослідження: інтеграція науки та практики як механізм ефективного розвитку : Матеріали VI Міжнародної науково-практичної конференції (м. Київ, 29-30 квітня 2025 р.) / ГО «Інститут інноваційної освіти»; Науково-навчальний центр прикладної інформатики НАН України. – Київ – Запоріжжя : АА Тандем, 2025. 104 c. 50. Kumar, S., Haq, M., Jain, A., Jason, C. A., Moparthi, N. R., Mittal, N., & Alzamil, Z. S. (2023). “Multilayer neural network based speech emotion recognition for smart assistance.” Computers, Materials & Continua, pp 1523-1540. 51. Gupta, Y. Zhang, Y. S. Pai, and M. Billinghurst, ‘‘WizardOfVR: An emotion-adaptive virtual wizard experience,’’ in Proc. SIGGRAPH Asia XR, Dec. 2021, pp. 1-2. 52. R. Zheng, T. Wang, J. Cao, P.-P. Vidal, and D. Wang, ‘‘Multi-modal physiological signals based fear of heights analysis in virtual reality scenes,’’ Biomed. Signal Process. Control, vol. 70, Sep. 2021, Art. no. 102988. 53. H. Alam, M. Burhan, A. Gillani, I. U. Haq, M. A. Arshed, M. Shafi, and S. Ahmad, ‘‘IoT based smart baby monitoring system with emotion recognition using machine learning,’’ Wireless Commun. Mobile Comput., vol. 2023, pp. 1-11, Apr. 2023. 54. E. H. Jang, K. W. Choi, A. Y. Kim, H. Y. Yu, H. J. Jeon, and S. Byun, ‘‘Automated detection of panic disorder based on multimodal physiological signals using machine learning,’’ ETRI J., vol. 45, no. 1, pp. 105-118, Feb. 2023. 55. Li, S. Ishitsubo, K. Yamauchi, P. Siriaraya, S. Nakajima, and Y. Kawai, ‘‘A sentiment-aware delightful walking route recommendation system considering the scenery and season,’’ in Proc. Int. Conf. Data Mining Workshops (ICDMW), Dec. 2021, pp. 867-872. 56. T. Edry, N. Maani, M. Sykora, S. Elayan, Y. Hswen, M. Wolf, F. Rinaldi, S. Galea, and O. Gruebner, ‘‘Real-time geospatial surveillance of localized emotional stress responses to COVID-19: A proof of concept analysis,’’ Health Place, vol. 70, Jul. 2021, Art. no. 102598. 57. Y. Huang, T. Fei, M.-P. Kwan, Y. Kang, J. Li, Y. Li, X. Li, and M. Bian, ‘‘GIS-based emotional computing: A review of quantitative approaches to measure the emotion layer of human-environment relationships,’’ ISPRS Int. J. Geo-Inf., vol. 9, no. 9, p. 551, Sep. 2020. 58. P. Guo, Z. Chen, Y. Li, and H. Liu, ‘‘Audio-visual fusion network based on conformer for multimodal emotion recognition,’’ in Proc. 2nd CAAI Int. Conf. Artif. Intell. (CICAI), Beijing, China, 2023, pp. 315-326. 59. F. M. Talaat, Z. H. Ali, R. R. Mostafa, and N. El-Rashidy, ‘‘Real time facial emotion recognition model based on kernel autoencoder and convolutional neural network for autism childrens,’’ Kafrelsheikh Univ., Egypt, 2023, pp. 1-17. 60. S. D. Gogula, M. Rahouti, S. K. Gogula, A. Jalamuri, and S. K. Jagatheesaperumal, ‘‘An emotion-based rating system for books using sentiment analysis and machine learning in the cloud,’’ Appl. Sci., vol. 13, no. 2, p. 773, Jan. 2023. 61. Peter and M.-T. Ho, ‘‘Why we need to be weary of emotional AI,’’ AI Soc., vol. 37, pp. 1-3, 2022. 62. ДСТУ ISO 10075-1:2005. Ергономіка. Психічне навантаження в роботі. Частина 1. Загальні поняття, терміни та визначення (ISO 10075-1:2000, IDT). Чинний від 2006-01-01. Вид. офіц. Держспоживстандарт України. 63. НПАОП 0.00-1.28-10. Правила охорони праці під час експлуатації електронно-обчислювальних машин. Чинний від 2010-01-01. Вид. офіц. Мінсоцполітики України. 64. ДСТУ ISO 9241-5:2004. Ергономічні вимоги до роботи з відеотерміналами в офісі. Частина 5. Вимоги до компонування робочого місця та до робочої пози (ISO 9241-5:1998, IDT). Чинний від 2005-01-01. Вид. офіц. Держспоживстандарт України. 65. Маслова О.В., Гончарова І.П. Ризикоорієнтовні підходи в охороні праці: електронний навчальний курс / О.В. Маслова, І.П. Гончарова, Біла Церква, БІНПО ДЗВО «УМО» НАПН УКРАЇНИ, 2023. 76 с. 66. ДСТУ ISO 31000:2018. Менеджмент ризиків. Принципи та настанови (ISO 31000:2018, IDT). Чинний від 2019-01-01. Вид. офіц. ДП «УкрНДНЦ». 67. ДСТУ IEC/ISO 31010:2013. Керування ризиком. Методи загального оцінювання ризику (IEC/ISO 31010:2009, IDT). Чинний від 2014-07-01. Вид. офіц. ДП «УкрНДНЦ». 68. Гандзюк М.П. Основи охорони праці: Підручник. 4-е вид./Гандзюк М.П., Желібо Є.П., Халімовський М.О. - Київ: Каревела, 2008. – 384с. 69. ДСТУ ISO 45001:2019. Системи управління охороною здоров’я та безпекою праці. Вимоги та настанови щодо застосування (ISO 45001:2018, IDT). Чинний від 2021-01-01. Вид. офіц. ДП «УкрНДНЦ». 70. 9 Практичне заняття. Оцінка стійкості роботи промислового підприємства за надзвичайних ситуацій. StudFiles. URL: https://studfile.net/preview/9726254/page:50 (дата звернення: 28.04.2025). 71. Das A., Nandi N., Ray S. Alpha and SSVEP power outperform gamma power in capturing attentional modulation in human EEG. Cerebral Cortex. 2023. URL: https://doi.org/10.1093/cercor/bhad412 (дата звернення: 29.04.2025). 72. Redondo, P. V., Huser, R., & Ombao, H. (2022). Functional-Coefficient Models for Multivariate Time Series in Designed Experiments: with Applications to Brain Signals. URL: https://doi.org/10.48550/arXiv.2208.00292 (дата звернення: 01.05.2025). 73. Fryz, L. Scherbak, B. Mlynko, and T. Mykhailovych, “Linear Random Process Model-Based EEG Classification Using Machine Learning Techniques,” in Proceedings of the 1st International Workshop on Computer Information Technologies in Industry 4.0 (CITI 2023), 2023, vol. 3468, pp. 126-132. URL: https://ceur-ws.org/Vol-3468/short5.pdf (дата звернення: 01.05.2025). |
Content type: | Master Thesis |
Appears in Collections: | 122 — комп’ютерні науки |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
Mag_2025_SNnm_61_Kolachyk_N_M.pdf | Дипломна робота | 2,33 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.
Admin Tools