Будь ласка, використовуйте цей ідентифікатор, щоб цитувати або посилатися на цей матеріал:
http://elartu.tntu.edu.ua/handle/lib/48251
Назва: | Аналіз вразливостей штучного інтелекту та методів їхнього використання в кіберзагрозах |
Інші назви: | Analysis of vulnerabilities of artificial intelligence and methods of their use in cyber threats |
Автори: | Мазяр, Анастасія Миколаївна Maziar, Anastasia |
Приналежність: | ТНТУ ім. І. Пулюя, Факультет комп’ютерно-інформаційних систем і програмної інженерії, Кафедра кібербезпеки, м. Тернопіль, Україна |
Бібліографічний опис: | Мазяр А. М. Аналіз вразливостей штучного інтелекту та методів їхнього використання в кіберзагрозах : робота на здобуття кваліфікаційного ступеня магістра: спец. 125 - Кібербезпека та захист інформації / наук. кер. О. Р. Оробчук Тернопіль : Тернопільський національний технічний університет імені Івана Пулюя, 2024. 60 с. |
Дата публікації: | 1-січ-2025 |
Дата внесення: | 27-лют-2025 |
Країна (код): | UA |
Місце видання, проведення: | ТНТУ ім. І.Пулюя, ФІС, м. Тернопіль, Україна |
Науковий керівник: | Оробчук, Олександра Романівна Orobchuk, Oleksandra |
Члени комітету: | Осухівська, Галина Михайлівна Osukhivska, Halyna |
Теми: | штучний інтелект artificial intelligence аналіз враливостей vulnerability analysis кіберзагрози cyber threats методи використання methods of exploitation безпека систем system security інформаційна безпека information security |
Короткий огляд (реферат): | Кваліфікаційна робота присвячена аналізу вразливостей штучного інтелекту та методів їх використання в кіберзагрозах. Вивчено різні типи вразливостей, включаючи технічні, алгоритмічні та організаційні, а також їх потенціал у створенні кіберзагроз. Робота включає аналіз конкретних прикладів використання вразливостей ШІ в реальних атаках, таких як маніпуляції через соціальну інженерію, атаки на дані та моделі машинного навчання. Розроблено методи захисту, включаючи системи виявлення аномалій, використання криптографії та оцінку безпеки моделей перед їх впровадженням. Результати дослідження мають практичне значення для спеціалістів з кібербезпеки, оскільки дозволяють підвищити безпеку ШІ-систем і запобігти використанню їх вразливостей у кіберзагрозах. The qualification thesis is dedicated to the analysis of artificial intelligence vulnerabilities and the methods of their exploitation in cyber threats. Various types of vulnerabilities are studied, including technical, algorithmic, and organizational, as well as their potential in creating cyber threats. The work includes an analysis of specific examples of AI vulnerabilities used in real-world attacks, such as social engineering manipulations, attacks on data, and machine learning models. Protection methods are developed, including anomaly detection systems, the use of cryptography, and security assessment of models before their implementation. The research results are of practical significance for cybersecurity specialists, as they enhance the security of AI systems and help prevent the exploitation of their vulnerabilities in cyber threats. |
Опис: | Аналіз вразливостей штучного інтелекту та методів їхнього використання в кіберзагрозах // ОР «Магістр» // Мазяр Анастасія Миколаївна // Тернопільський національний технічний університет імені Івана Пулюя, факультет комп’ютерно-інформаційних систем і програмної інженерії, кафедра кібербезпеки, група СБм-61 // Тернопіль, 2024 // С. 58, рис. – -, табл. – - , кресл. – - , додат. – 2 . |
Зміст: | ВСТУП 8 РОЗДІЛ 1 АНАЛІЗ ВРАЗЛИВОСТЕЙ ШТУЧНОГО ІНТЕЛЕКТУ ТА ЇХ ВИКОРИСТАННЯ У КІБЕРЗАГРОЗАХ 10 1.1 ПОНЯТТЯ ВРАЗЛИВОСТЕЙ ШТУЧНОГО ІНТЕЛЕКТУ 10 1.2 КЛАСИФІКАЦІЯ ВРАЗЛИВОСТЕЙ: ТЕХНІЧНІ, АЛГОРИТМІЧНІ ТА ОРГАНІЗАЦІЙНІ 10 1.3 ПРИКЛАДИ ВИКОРИСТАННЯ ВРАЗЛИВОСТЕЙ ДЛЯ ЗДІЙСНЕННЯ КІБЕРЗАГРОЗ 12 РОЗДІЛ 2 АНАЛІЗ МЕТОДІВ ЕКСПЛУАТАЦІЇ ВРАЗЛИВОСТЕЙ ШТУЧНОГО ІНТЕЛЕКТУ 15 2.1 СОЦІАЛЬНА ІНЖЕНЕРІЯ ТА МАНІПУЛЯЦІЯ НА ОСНОВІ АІ 15 2.2 АТАКИ НА СИСТЕМИ МАШИННОГО НАВЧАННЯ 18 2.2.1 Атаки на навчальні дані (Data Poisoning) 20 2.2.2 Атаки на моделі (Model Inversion та Model Extraction) 23 2.3 Роль АІ в автоматизації кіберзагроз (Deepfake, генерація фішингових повідомлень) 26 РОЗДІЛ 3 МЕТОДИ ЗАХИСТУ ВІД ЕКСПЛУАТАЦІЇ ВРАЗЛИВОСТЕЙ АІ 29 3.1 РОЗРОБКА СИСТЕМ ВИЯВЛЕННЯ АНОМАЛІЙ У ВИКОРИСТАННІ АІ 29 3.2 ВИКОРИСТАННЯ КРИПТОГРАФІЧНИХ МЕТОДІВ ДЛЯ ЗАХИСТУ ДАНИХ І МОДЕЛЕЙ АІ 32 3.3 ТЕСТУВАННЯ ТА ОЦІНКА БЕЗПЕКИ МОДЕЛЕЙ АІ ПЕРЕД ЇХ ВПРОВАДЖЕННЯМ 36 РОЗДІЛ 4 ОХОРОНА ПРАЦІ ТА БЕЗПЕКА В НАДЗВИЧАЙНИХ СИТУАЦІЯХ 41 4.1 ОХОРОНА ПРАЦІ 41 4.2 КОМП’ЮТЕРНЕ ЗАБЕЗПЕЧЕННЯ ПРОЦЕСУ ОЦІНКИ РАДІАЦІЙНОЇ ХІМІЧНОЇ ОБСТАНОВКИ 42 ВИСНОВКИ 47 СПИСОК ВИКОРИСТАНИХ ДЖЕРЕЛ 49 ДОДАТОК А ПУБЛІКАЦІЯ 52 ДОДАТОК Б ЛІСТИНГ ФАЙЛУ 55 |
URI (Уніфікований ідентифікатор ресурсу): | http://elartu.tntu.edu.ua/handle/lib/48251 |
Власник авторського права: | © Мазяр Анастасія Миколаївна, 2024 |
Перелік літератури: | 1. Anderson, J., & McGee, M. (2023). Adversarial machine learning: Vulnerabilities and solutions in AI systems. International Journal of Cybersecurity, 15(2), 45-63. https://doi.org/10.1016/j.jcyb.2023.04.007 2. Binns, R., & Thomas, J. (2022). Data poisoning attacks in machine learning: A survey. Journal of Artificial Intelligence Security, 9(4), 78-89. 3. ZAGORODNA, N., STADNYK, M., LYPA, B., GAVRYLOV, M., & KOZAK, R. (2022). Network Attack Detection Using Machine Learning Methods. Challenges to national defence in contemporary geopolitical situation, 2022(1), 55-61. 4. Gupta, A., & Singh, R. (2021). AI-based attack vectors and their implications on cybersecurity. Cybersecurity Research Review, 12(1), 34-42. 5. Lypa, B., Horyn, I., Zagorodna, N., Tymoshchuk, D., Lechachenko T., (2024). Comparison of feature extraction tools for network traffic data. CEUR Workshop Proceedings, 3896, pp. 1-11. 6. Liu, W., & Zhou, H. (2021). The role of machine learning in phishing detection systems. Journal of Information Security, 16(1), 102-115. 7. Tymoshchuk, D., Yasniy, O., Mytnyk, M., Zagorodna, N., Tymoshchuk, V., (2024). Detection and classification of DDoS flooding attacks by machine learning methods. CEUR Workshop Proceedings, 3842, pp. 184 - 195. 8. Mozaffari, M., & Johnson, L. (2023). Secure deep learning models: Protection against adversarial attacks. Machine Learning and Security, 19(1), 88-98. 9. Nguyen, T., & Tran, B. (2021). A review of AI-powered malware detection systems. Journal of Computing and Security, 13(4), 130-145. 10. ТИМОЩУК, Д., ЯЦКІВ, В., ТИМОЩУК, В., & ЯЦКІВ, Н. (2024). INTERACTIVE CYBERSECURITY TRAINING SYSTEM BASED ON SIMULATION ENVIRONMENTS. MEASURING AND COMPUTING DEVICES IN TECHNOLOGICAL PROCESSES, (4), 215-220. 11. Pomerleau, D., & Wessling, L. (2022). AI and data integrity in security applications. Journal of AI and Privacy, 11(2), 78-92. 12. Quintero, M., & Rivera, R. (2021). Ethical challenges in AI-driven cybersecurity tools. AI Ethics, 5(3), 245-257. 13. ТИМОЩУК, Д., & ЯЦКІВ, В. (2024). USING HYPERVISORS TO CREATE A CYBER POLYGON. MEASURING AND COMPUTING DEVICES IN TECHNOLOGICAL PROCESSES, (3), 52-56. 14. Shultz, M., & Turner, R. (2020). The future of AI in cybersecurity: Risks and mitigation strategies. Cybersecurity Journal, 18(2), 101-116. 15. Tymoshchuk, D., Yasniy, O., Maruschak, P., Iasnii, V., & Didych, I. (2024). Loading Frequency Classification in Shape Memory Alloys: A Machine Learning Approach. Computers, 13(12), 339. 16. Smith, M., & Thompson, J. (2022). AI in cyber-attacks: Mechanisms and defenses. International Conference on AI and Security, 134-142. 17. Talbot, B., & Li, Z. (2020). Understanding adversarial robustness in AI models. Machine Learning and Cybersecurity, 22(1), 100-110. 18. Tymoshchuk, D., & Yatskiv, V. (2024). Slowloris ddos detection and prevention in real-time. Collection of scientific papers «ΛΌГOΣ», (August 16, 2024; Oxford, UK), 171-176. 19. Williams, H., & Harris, K. (2020). Machine learning in cybersecurity: An exploration of vulnerabilities. Proceedings of the International Cybersecurity Symposium, 45-53. 20. Lupenko, S., Orobchuk, O., Osukhivska, H., Xu, M., & Pomazkina, T. (2019, July). Methods and means of knowledge elicitation in Chinese Image Medicine for achieving the tasks of its ontological modeling. In 2019 IEEE 2nd Ukraine Conference on Electrical and Computer Engineering (UKRCON) (pp. 855-858). IEEE. 21. Zadeh, N., & Alavi, M. (2021). Impact of AI algorithms on cybersecurity policies. Journal of AI Governance, 12(1), 45-59. 22. Zhao, Q., & Jiang, X. (2023). AI-driven malware detection: Challenges and techniques. Security and Privacy Journal, 17(2), 23-37. 23. Zhou, Y., & Liu, F. (2021). AI and its role in automated cyber-attack strategies. Cybersecurity Technology, 20(4), 190-202. 24. S. A. Lupenko, O. R. Orobchuk and N.V. Zahorodna, "Formation of the onto-oriented electronic educational environment as a direction the formation of integrated medicine using the example of CIM", Actual scientific research in the modern world: Collection of scientific papers of the XXIII International scientific conference, vol. 12, no. 32, pp. 56-61, 2017, December 26. 25. Zhang, Z., & Wang, D. (2021). Anomaly detection in AI systems: Challenges and solutions. Machine Learning and Security Review, 18(3), 74-88. 26. Yasniy, O., Tymoshchuk, D., Didych, I., Zagorodna, N., Malyshevska O., (2024). Modelling of automotive steel fatigue lifetime by machine learning method. CEUR Workshop Proceedings, 3896, pp. 165-172. 27. Davis, S., & Lin, Q. (2023). AI-powered intrusion detection systems and their limitations. Journal of Network Security, 31(1), 142-156. 28. Nguyen, M., & Kim, H. (2022). AI as a tool for cybersecurity automation and the associated risks. AI in Security Technology, 8(3), 56-67. 29. Tymoshchuk, V., Vantsa, V., Karnaukhov, A., Orlovska, A., & Tymoshchuk, D. (2024). COMPARATIVE ANALYSIS OF INTRUSION DETECTION APPROACHES BASED ON SIGNATURES AND ANOMALIES. Матеріали конференцій МЦНД, (29.11. 2024; Житомир, Україна), 328-332. 30. Patel, R., & Sharma, A. (2023). Ethical challenges in the use of AI for security purposes. Ethics in AI, 6(1), 21-33. 31. Lupenko, S., Orobchuk, O., & Xu, M. (2020). The ontology as the core of integrated information environment of Chinese Image Medicine. In Advances in Computer Science for Engineering and Education II (pp. 471-481). 32. Here are the citations for the publications you requested, formatted according to your example: ENISA's "Artificial Intelligence Cybersecurity Challenges": ENISA. (2020). Artificial intelligence cybersecurity challenges. European Union Agency for Cybersecurity. Retrieved from [https://www.enisa.europa.eu/publications/artificial-intelligence-cybersecurity-challenges] 33. Department of Energy's Insights on AI Vulnerabilities: U.S. Department of Energy. (2020). Insights into artificial intelligence vulnerabilities. Retrieved from [https://inldigitallibrary.inl.gov] |
Тип вмісту: | Master Thesis |
Розташовується у зібраннях: | 125 — кібербезпека, Кібербезпека та захист інформації |
Файли цього матеріалу:
Файл | Опис | Розмір | Формат | |
---|---|---|---|---|
Bachelor_Thesis_SBm-61_Anastasia Maziar_2024.pdf | 883,93 kB | Adobe PDF | Переглянути/відкрити |
Усі матеріали в архіві електронних ресурсів захищені авторським правом, всі права збережені.
Інструменти адміністратора