Bu öğeden alıntı yapmak, öğeye bağlanmak için bu tanımlayıcıyı kullanınız: http://elartu.tntu.edu.ua/handle/lib/50216

Tüm üstveri kaydı
Dublin Core AlanıDeğerDil
dc.contributor.authorСтець, Остап
dc.contributor.authorКоноваленко, Ігор Володимирович
dc.contributor.authorStets, Ostap
dc.contributor.authorKonovalenko, Ihor
dc.date.accessioned2025-10-31T15:36:36Z-
dc.date.available2025-10-31T15:36:36Z-
dc.date.created2025-05-20
dc.date.issued2025-05-20
dc.date.submitted2025-04-01
dc.identifier.citationStets O. SWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation / Ostap Stets, Ihor Konovalenko // Scientific Journal of TNTU. — Tern. : TNTU, 2025. — Vol 118. — No 2. — P. 100–108.
dc.identifier.issn2522-4433
dc.identifier.urihttp://elartu.tntu.edu.ua/handle/lib/50216-
dc.description.abstractДля захисту від підміни обличчя (FAS) на мобільних пристроях потрібні моделі, які є не лише точними, але й швидкими, легкими та енергоефективними – інкапсульованими показниками SWAP (швидкість, вага, точність, енергоспоживання). Досліджено, як дистиляція знань може оптимізувати ці показники SWAP для нейронних мереж у FAS. Великі, високопродуктивні моделі вчителів дистилюються у компактні моделі учнів, які зберігають високу точність, суттєво зменшуючи вагу моделі та покращуючи швидкість роботи. Крайні дослідження показали, що дистильовані моделі FAS можуть досягти точності на рівні з найсучаснішими мережами, але зі значно меншими обчислювальними витратами, що робить можливим мобільне розгортання в режимі реального часу. Наведено практичні формули для втрат у дистиляції знань та порівняльні оцінки моделей за критеріями SWAP. Зроблено висновок, що дистиляція знань створює легкі моделі FAS, які ефективно працюють на мобільних платформах (наприклад, досягнення майже в 7 разів швидшої роботи для дистильованої моделі з менш ніж 1 млн параметрів та з точністю приблизно 99% від викладацької), споживаючи при цьому набагато меншу частку енергії пристроюОкреслено майбутні напрямки досліджень, включаючи мультимодальну дистиляцію та адаптивні архітектури, які могли б ще більше сприяти оптимізації показників SWAP у цій галузі
dc.description.abstractFace anti‐spoofing (FAS) on mobile devices demands models that are not only accurate but also fast, lightweight, and energy‐efficient – encapsulated by SWAP metrics (Speed, Weight, Accuracy, Power consumption). This paper investigates how knowledge distillation can optimize these SWAP metrics for neural networks in FAS. Large, high‐performing teacher models are distilled into compact student models that retain high accuracy while drastically reducing model weight and improving inference speed. Latest researches have shown that distilled FAS models can achieve accuracy on par with state‐of‐the‐art networks but with significantly lower computational cost, making real‐time mobile deployment feasible. The paper presents practical formulas for the knowledge distillation loss, comparative evaluations of models on SWAP criteria. It is concluded that knowledge distillation produces lightweight FAS models that run efficiently on mobile platforms (e.g., achieving nearly 7× faster inference for a distilled model with less than 1 M parameters, at approximately 99% of the teacher’s accuracy) while consuming a fraction of the power. In this article we outline future research directions – including multi-modal distillation and adaptive architectures, that could further push SWAP metrics optimization in this field
dc.format.extent100-108
dc.language.isoen
dc.publisherТНТУ
dc.publisherTNTU
dc.relation.ispartofВісник Тернопільського національного технічного університету, 2 (118), 2025
dc.relation.ispartofScientific journal of the ternopil national technical university, 2 (118), 2025
dc.relation.urihttps://doi.org/10.1109/TIFS.2022.3178240
dc.relation.urihttps://doi.org/10.1109/JSTSP.2020.3001719
dc.relation.urihttps://doi.org/10.48550/arXiv.1503.02531
dc.relation.urihttps://doi.org/10.1016/j.asoc.2024.112237
dc.relation.urihttps://doi.org/10.1007/978-981-99-8469-5_13
dc.relation.urihttps://doi.org/10.1109/TCSVT.2024.3451294
dc.relation.urihttps://doi.org/10.3390/electronics13142801
dc.relation.urihttps://doi.org/10.1109/CVPRW53098.2021.00111
dc.relation.urihttps://doi.org/10.1007/978-3-031-18910-4_39
dc.relation.urihttps://doi.org/10.24963/ijcai.2024/83
dc.relation.urihttps://doi.org/10.48550/arXiv.2308.13998
dc.relation.urihttps://doi.org/10.1145/3658617.3697751
dc.relation.urihttps://doi.org/10.48550/arXiv.2109.06458
dc.relation.urihttps://doi.org/10.1145/3591106.3592280
dc.relation.urihttps://doi.org/10.1109/TDSC.2024.3381598
dc.relation.urihttp://elartu.tntu.edu.ua/handle/lib/47417
dc.subjectзахист від підміни обличчя
dc.subjectдистиляція знань
dc.subjectмобільні платформи
dc.subjectвиявлення атак на презенатції
dc.subjectзгорткова нейронна мережа
dc.subjectоптимізація
dc.subjectFace anti-spoofing
dc.subjectknowledge distillation
dc.subjectmobile
dc.subjectpresentation attack detection
dc.subjectconvolutional neural network
dc.subjectoptimization
dc.titleSWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation
dc.title.alternativeОптимізація SWAP метрик у мобільних системах захисту від підміни обличчя із дистиляцією знань
dc.typeArticle
dc.rights.holder© Тернопільський національний технічний університет імені Івана Пулюя, 2025
dc.coverage.placenameТернопіль
dc.coverage.placenameTernopil
dc.format.pages9
dc.subject.udc004.8
dc.relation.referencesen1. Zhi L., Cai R., Li H., Lam K., Hu Y., Kot A. C. (2022). One-Class Knowledge Distillation for Face Presentation Attack Detection. IEEE Transactions on Information Forensics and Security 17, pp. 1353–1368. https://doi.org/10.1109/TIFS.2022.3178240
dc.relation.referencesen2. Haoliang L., Wang S., He P., Rocha A. (2020) Face Anti-Spoofing with Deep Neural Network Distillation. IEEE Journal of Selected Topics in Signal Processing, 14 (5), pp. 933–946. https://doi.org/10.1109/JSTSP.2020.3001719
dc.relation.referencesen3. Geoffrey H., Vinyals O., Dean J. (2015). Distilling the Knowledge in a Neural Network. NIPS Deep Learning Workshop. Available at: https://doi.org/10.48550/arXiv.1503.02531.
dc.relation.referencesen4. Jun Z., Zhang Y., Shao F., Ma X., Feng S., Zhang S., Wu Y., Zhou D. (2024). Efficient Face Anti-Spoofing via Head-Aware Transformer Based Knowledge Distillation with 5 MB Model Parameters. Applied Soft Computing 166: 112237. https://doi.org/10.1016/j.asoc.2024.112237
dc.relation.referencesen5. Zhang J., Zhang Y., Shao F., Ma X., Zhou D. (2024) KDFAS: Multi-stage Knowledge Distillation Vision Transformer for Face Anti-spoofing. In: Liu, Q., et al. Pattern Recognition and Computer Vision. PRCV 2023. Lecture Notes in Computer Science, vol. 14429. Springer. https://doi.org/10.1007/978-981-99-8469-5_13
dc.relation.referencesen6. Kong Z., Zhang W., Wang T., Zhang K., Li Y., Tang X., Luo W. (2024). Dual Teacher Knowledge Distillation with Domain Alignment for Face Anti-spoofing. https://doi.org/10.1109/TCSVT.2024.3451294
dc.relation.referencesen7. Xiao J., Wang W., Zhang L., Liu H. (2024) A MobileFaceNet-Based Face Anti-Spoofing Algorithm for Low-Quality Images. Electronics, 13 (14), 2801. https://doi.org/10.3390/electronics13142801
dc.relation.referencesen8. Kim M., Tariq S. Woo S. S. (2021). FReTAL: Generalizing Deepfake Detection using Knowledge Distillation and Representation Learning in IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), pp. 1001–1012. https://doi.org/10.1109/CVPRW53098.2021.00111
dc.relation.referencesen9. Cao J., Liu Y., Ding J., Li L. (2022). Self-supervised Face Anti-spoofing via Anti-contrastive Learning in: Yu, S., et al. Pattern Recognition and Computer Vision. PRCV 2022. Lecture Notes in Computer Science 13535. Springer, Cham. https://doi.org/10.1007/978-3-031-18910-4_39
dc.relation.referencesen10. Fang H., Liu A., Yuan H., Zheng J., Zeng D., Liu Y., Deng J., Escalera S., Liu X., Wan J., Lei Z. (2024). Unified Physical-Digital Face Attack Detection. https://doi.org/10.24963/ijcai.2024/83
dc.relation.referencesen11. Wang Y., Han Y., Wang C., Song S., Tian Q., Huang G. (2023). Computation-efficient Deep Learning for Computer Vision: A Survey. https://doi.org/10.48550/arXiv.2308.13998
dc.relation.referencesen12. Zhang L., Gungor O,. Ponzina F., Rosing T. (2024). E-QUARTIC: Energy Efficient Edge Ensemble of Convolutional Neural Networks for Resource-Optimized Learning. https://doi.org/10.1145/3658617.3697751
dc.relation.referencesen13. Chen D. (2024). A Note on Knowledge Distillation Loss Function for Object Classification. Available at: https://doi.org/10.48550/arXiv.2109.06458.
dc.relation.referencesen14. Cheng T., Zhang Y., Yin Y., Zimmermann R., Yu Z., Guo B. (2023). A Multi-Teacher Assisted Knowledge Distillation Approach for Enhanced Face Image Authentication. Proceedings of the 2023 ACM International Conference on Multimedia Retrieval (ICMR 23), pp. 135–143. https://doi.org/10.1145/3591106.3592280
dc.relation.referencesen15. Kong C., Zheng K., Liu Y., Wang S., Rocha A., Li H. (2024). M3FAS: An Accurate and Robust MultiModal Mobile Face Anti-Spoofing System. https://doi.org/10.1109/TDSC.2024.3381598
dc.relation.referencesen16. Stets O. (2024). SWAP metrics optimization methods for mobile face anti-spoofing neural networks. Materials of the Ⅻ scientific and technical conference “Information models, systems and technologies” (Ternopil., 18–19 December 2024), pp. 91. Available at: http://elartu.tntu.edu.ua/handle/lib/47417.
dc.identifier.doihttps://doi.org/10.33108/visnyk_tntu2025.02.100
dc.contributor.affiliationТернопільський національний технічний університет імені Івана Пулюя, Тернопіль, Україна
dc.contributor.affiliationTernopil Ivan Puluj National Technical University, Ternopil, Ukraine
dc.citation.journalTitleВісник Тернопільського національного технічного університету
dc.citation.volume118
dc.citation.issue2
dc.citation.spage100
dc.citation.epage108
dc.identifier.citation2015Stets O., Konovalenko I. SWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation // Scientific Journal of TNTU, Ternopil. 2025. Vol 118. No 2. P. 100–108.
dc.identifier.citationenAPAStets, O., & Konovalenko, I. (2025). SWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation. Scientific journal of the ternopil national technical university, 118(2), 100-108. TNTU..
dc.identifier.citationenCHICAGOStets O., Konovalenko I. (2025) SWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation. Scientific journal of the ternopil national technical university (Tern.), vol. 118, no 2, pp. 100-108.
Koleksiyonlarda Görünür:Вісник ТНТУ, 2025, № 2 (118)



DSpace'deki bütün öğeler, aksi belirtilmedikçe, tüm hakları saklı tutulmak şartıyla telif hakkı ile korunmaktadır.