Empreu aquest identificador per citar o enllaçar aquest ítem: http://elartu.tntu.edu.ua/handle/lib/51484

Registre complet de metadades
Camp DCValorLengua/Idioma
dc.contributor.authorПетров, Юрій
dc.contributor.authorПастух, Олег
dc.contributor.authorPetrov, Yuriy
dc.contributor.authorPastukh, Oleh
dc.date.accessioned2026-02-09T15:51:56Z-
dc.date.available2026-02-09T15:51:56Z-
dc.date.created2025-08-29
dc.date.issued2025-08-29
dc.date.submitted2025-08-07
dc.identifier.citationPetrov Y. Comparative analysis of MLP AND KAN neural network architectures in neurointerface technologies / Yuriy Petrov, Oleh Pastukh // Scientific Journal of TNTU. — Tern. : TNTU, 2025. — Vol 119. — No 3. — P. 107–114.
dc.identifier.issn2522-4433
dc.identifier.urihttp://elartu.tntu.edu.ua/handle/lib/51484-
dc.description.abstractДосліджено актуальну проблему нейроінтерфейсних технологій, особливо в контексті протезування людей з обмеженими можливостями. Зокрема, проаналізовано можливості нейроінтерфейсів у відновленні функцій кінцівок, що дозволяє користувачам протезів легше виконувати повсякденні задачі. Було розглянуто дві нейромережеві архітектури – MLP (multilayer perceptron) та KAN (Kolmogorov Arnold network), які застосувалися для класифікації рухів пальців на основі мозкових сигналів. Для формування датасету використано 16-канальний електроенцефалограф, за допомогою якого реєструвалися зміни електричної активності мозку під час виконання учасником послідовних рухів згинання та розгинання пальців протягом 2 хвилин. Такі дії виконувались окремо для великого та вказівного пальців, що дозволило розрізняти сигнали різних рухових активностей. Схема розташування електродів охоплювала відповідні ділянки мозку, повʼязані з руховою активністю кожного з пальців. Отримано результати ефективності роботи та навчання обох архітектур на різних вибірках даних від 10% до 100% від загального датасету в 180 тисяч рядків. Загалом аналіз показав невелику перевагу KAN 2–3% у точності на малих обсягах тренувальних даних (10%, 30%), що повʼязано з кращою здатністю до узагальнення за обмежених даних. Також сильною стороною є значно менший розмір моделей KAN завдяки використанню B-сплайн функцій та можливостям символізації, але тривалий час та вищі потреби до обчислювальних ресурсів під час навчання через більшу кількість функцій активації. MLP перемагає у швидкості тренування та показує точніші результати на 0.5%–1.5% при великих обсягах даних (50%, 70%, 100%), що робить його ефективнішим для роботи з великими датасетами. Звідси випливають перспективи розвитку нової архітектури у сфері біонічних протезів та інших технологій на основі нейроінтерфейсів, що сприятиме покращенню якості життя людей з фізичними обмеженнями. Враховуючи новизну KAN та майбутню оптимізацію існуючих бібліотек, ця архітектура може замінити MLP для задач з невеликою кількістю тренувальних даних
dc.description.abstractThis article explores the relevance of neurointerface technologies, particularly for assisting individuals with disabilities through advanced prosthetics. It examines the use of two neural network architectures, MLP (multilayer perceptron) and KAN (Kolmogorov Arnold network), for classifying finger movements based on brain signals. Results indicate that KAN models show an advantage in accuracy with smaller datasets and a more compact model size, though they require more computational resources and longer training times. In contrast, MLP is faster to train and slightly more effective on larger datasets, highlighting the potential for further development in neurointerface-based prosthetic solutions
dc.format.extent107-114
dc.language.isoen
dc.publisherТНТУ
dc.publisherTNTU
dc.relation.ispartofВісник Тернопільського національного технічного університету, 3 (119), 2025
dc.relation.ispartofScientific Journal of the Ternopil National Technical University, 3 (119), 2025
dc.relation.urihttps://spotlight.engin.umich.edu/mind-control-prosthesis/
dc.relation.urihttps://doi.org/10.1101/2024.04.22.590630
dc.relation.urihttps://pmc.ncbi.nlm.nih.gov/articles/
dc.relation.urihttps://doi.org/10.2196/16194
dc.relation.urihttps://doi.org/10.1038/s41586-021-03506-2
dc.relation.urihttps://doi.org/10.33108/visnyk_tntu2023.04.026
dc.relation.urihttps://doi.org/10.3389/fnins.2018.00026
dc.relation.urihttps://doi.org/10.1186/s42234-021-00067-7
dc.relation.urihttps://doi.org/10.1109/TNSRE.2018.2792051
dc.relation.urihttps://doi.org/10.62441/nano-ntp.v20iS2.25
dc.relation.urihttps://doi.org/10.1080/2326263X.2021.2015149
dc.relation.urihttps://doi.org/10.1080/2326263X.2021.1878727
dc.relation.urihttps://doi.org/10.1080/2326263X.2020.1763060
dc.relation.urihttps://doi.org/10.1080/2326263X.2020.1782124
dc.relation.urihttps://www.researchgate.net/publication/335581366_Cross_Modulated_Amplitudes_and_Frequencies_of_Epileptic_EEG
dc.relation.urihttps://web.mit.edu/hyperbook/Patrikalakis-Maekawa-Cho/node17.html
dc.relation.urihttps://github.com/martisak/dotnets
dc.relation.urihttps://kindxiaoming.github.io/pykan/modules.html
dc.relation.urihttps://scikit-learn.org/stable/modules/generated/sklearn.neural_network.MLPClassifier.html
dc.subjectнейромережі
dc.subjectнейроінтерфейс
dc.subjectMLP
dc.subjectKAN
dc.subjectлюдино-машинна взаємодія
dc.subjectштучний інтелект
dc.subjectмашинне навчання
dc.subjectneural network
dc.subjectneurointerface
dc.subjectMLP
dc.subjectKAN
dc.subjectbrain-computer interface
dc.subjectartificial intelligence
dc.subjectmachine learning
dc.titleComparative analysis of MLP AND KAN neural network architectures in neurointerface technologies
dc.title.alternativeПорівняльний аналіз нейромережевих архітектур MLP та KAN у нейроінтерфейсних технологіях
dc.typeArticle
dc.rights.holder© Ternopil Ivan Puluj National Technical University, 2025
dc.coverage.placenameТернопіль
dc.coverage.placenameTernopil
dc.format.pages8
dc.subject.udc681.3
dc.relation.referencesen1. Evan D., Nick N., Josh W. (2024). The Regents of the University of Michigan. Mind control prothesis. Available at: https://spotlight.engin.umich.edu/mind-control-prosthesis/ (accessed 05.10.2024).
dc.relation.referencesen2. Nishal P., Matthew S., Nick H., Foram K., (2024). A flexible intracortical brain-computer interface for typing using finger movements. Cord Spring Harbor laboratory. https://doi.org/10.1101/2024.04.22.590630
dc.relation.referencesen3. Musk E., Neuralink (2019) An Integrated Brain-Machine Interface Platform With Thousands of Channels. Journal of medical Internet research, vol. 21, no. 10. Available at: https://pmc.ncbi.nlm.nih.gov/articles/ PMC6914248/ (accessed: 06.10.2024). https://doi.org/10.2196/16194
dc.relation.referencesen4. Willett F. R., Avansino D. T., Hochberg L. R. et al. (2021) High-performance brain-to-text communication via handwriting. Nature 593, 249–254. https://doi.org/10.1038/s41586-021-03506-2
dc.relation.referencesen5. Pastukh O., Yatsyshyn V., (2023) Brain-Computer Interaction Neurointerface Based On Artificial Intelligence And Its Parallel Programming Using High-Performance Calculation On Cluster Mobile Devices. Scientific Journal of the Ternopil National Technical University, no. 4. https://doi.org/10.33108/visnyk_tntu2023.04.026
dc.relation.referencesen6. Levi T, Bonifazi P, Massobrio P and Chiappalone M., (2018) Editorial: Closed-Loop Systems for Next- Generation Neuroprostheses. Front. Neurosci. 12:26. https://doi.org/10.3389/fnins.2018.00026
dc.relation.referencesen7. Agrawal A., Ray B., & Bal R. Redolfi Riva E., Micera S. (2021). Progress and challenges of implantable neural interfaces based on nature-derived materials. 2018. Bioelectron Med 7, 6. https://doi.org/10.1186/s42234-021-00067-7
dc.relation.referencesen8. Marco V., Leigh R. Applications of neural interfaces in prosthetic control. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 26 (1), 101–110. Available at: https://doi.org/10.1109/TNSRE.2018.2792051 (accessed: 08.10.1024).
dc.relation.referencesen9. Joon Y. L, Ssang H. S. (2024) EEG-Based Emotion Recognition Using Deep Learning Model for Workers Safety. Nanotechnology Perceptions, vol. 20, no. S2. https://doi.org/10.62441/nano-ntp.v20iS2.25
dc.relation.referencesen10. Apicella A., Arpaia P., Giugliano S., Mastrati G., Moccaldi N. (2022) High-wearable EEG-based transducer for engagement detection in pediatric rehabilitation Brain-Computer Interfaces, 9 (3), pp. 129–139. https://doi.org/10.1080/2326263X.2021.2015149
dc.relation.referencesen11. Memmott T., Kocanaogullari A., Lawhead M., Fried-Oken M., Oken B. (2021) BciPy: brain-computer interface software in Python. Brain-Computer Interfaces, 8 (4), pp. 137–153. https://doi.org/10.1080/2326263X.2021.1878727
dc.relation.referencesen12. McFarland D. J., Norman S. L., Sarnacki W. A., Reinkensmeyer D. J., Wolpaw J. R. (2020) BCI-based sensorimotor rhythm training can affect individuated finger movements. Brain-Computer Interfaces 7 (1–2), pp. 38–46. https://doi.org/10.1080/2326263X.2020.1763060
dc.relation.referencesen13. Chen C., Chen P., Belkacem A. N., Wang C., Ming D. 2020. Neural activities classification of left and right finger gestures during motor execution and motor imagery. Brain-Computer Interfaces pp. 1–11. https://doi.org/10.1080/2326263X.2020.1782124
dc.relation.referencesen14. Cross-Modulated Amplitudes and Frequencies of Epileptic EEG. Available at: https://www.researchgate.net/publication/335581366_Cross_Modulated_Amplitudes_and_Frequencies_of_Epileptic_EEG (accessed: 0.7.10.2024).
dc.relation.referencesen15. Ziming L., Yixuan W., Sachin V., Fabian R., James H., Marin S., Thomas Y. H., Max T. 2024. KAN: Kolmogorov–Arnold Networks. Available at: doi.org/10.48550/arXiv.2404.19756 (accessed: 25.10.2024).
dc.relation.referencesen16. B-spline curve. Available at: https://web.mit.edu/hyperbook/Patrikalakis-Maekawa-Cho/node17.html (accessed: 10.10.2024).
dc.relation.referencesen17. Feed forward network diagram library. Available at: https://github.com/martisak/dotnets (accessed : 22.10.2024).
dc.relation.referencesen18. Pykan library documentation. Available at: https://kindxiaoming.github.io/pykan/modules.html (accessed: 25.10.2024).
dc.relation.referencesen19. Sklearn python machine learning library. MLPClassifier documentation. Available at: https://scikit-learn.org/stable/modules/generated/sklearn.neural_network.MLPClassifier.html (accessed: 21.10.2024 )
dc.identifier.doihttps://doi.org/10.33108/visnyk_tntu2025.03.107
dc.contributor.affiliationТернопільський національний технічний університет імені Івана Пулюя, Тернопіль, Україна
dc.contributor.affiliationTernopil Ivan Puluj National Technical University, Ternopil, Ukraine
dc.citation.journalTitleВісник Тернопільського національного технічного університету
dc.citation.volume119
dc.citation.issue3
dc.citation.spage107
dc.citation.epage114
dc.identifier.citation2015Petrov Y., Pastukh O. Comparative analysis of MLP AND KAN neural network architectures in neurointerface technologies // Scientific Journal of TNTU, Ternopil. 2025. Vol 119. No 3. P. 107–114.
dc.identifier.citationenAPAPetrov, Y., & Pastukh, O. (2025). Comparative analysis of MLP AND KAN neural network architectures in neurointerface technologies. Scientific Journal of the Ternopil National Technical University, 119(3), 107-114. TNTU..
dc.identifier.citationenCHICAGOPetrov Y., Pastukh O. (2025) Comparative analysis of MLP AND KAN neural network architectures in neurointerface technologies. Scientific Journal of the Ternopil National Technical University (Tern.), vol. 119, no 3, pp. 107-114.
Apareix a les col·leccions:Вісник ТНТУ, 2025, № 3 (119)



Els ítems de DSpace es troben protegits per copyright, amb tots els drets reservats, sempre i quan no s’indiqui el contrari.