Por favor use este identificador para citas ou ligazóns a este item:
http://elartu.tntu.edu.ua/handle/lib/50216
| Título: | SWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation |
| Outros títulos: | Оптимізація SWAP метрик у мобільних системах захисту від підміни обличчя із дистиляцією знань |
| Authors: | Стець, Остап Коноваленко, Ігор Володимирович Stets, Ostap Konovalenko, Ihor |
| Affiliation: | Тернопільський національний технічний університет імені Івана Пулюя, Тернопіль, Україна Ternopil Ivan Puluj National Technical University, Ternopil, Ukraine |
| Bibliographic description (Ukraine): | Stets O. SWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation / Ostap Stets, Ihor Konovalenko // Scientific Journal of TNTU. — Tern. : TNTU, 2025. — Vol 118. — No 2. — P. 100–108. |
| Bibliographic reference (2015): | Stets O., Konovalenko I. SWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation // Scientific Journal of TNTU, Ternopil. 2025. Vol 118. No 2. P. 100–108. |
| Bibliographic citation (APA): | Stets, O., & Konovalenko, I. (2025). SWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation. Scientific journal of the ternopil national technical university, 118(2), 100-108. TNTU.. |
| Bibliographic citation (CHICAGO): | Stets O., Konovalenko I. (2025) SWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation. Scientific journal of the ternopil national technical university (Tern.), vol. 118, no 2, pp. 100-108. |
| Is part of: | Вісник Тернопільського національного технічного університету, 2 (118), 2025 Scientific journal of the ternopil national technical university, 2 (118), 2025 |
| Journal/Collection: | Вісник Тернопільського національного технічного університету |
| Issue: | 2 |
| Volume: | 118 |
| Data de edición: | 20-May-2025 |
| Submitted date: | 1-Apr-2025 |
| Date of entry: | 31-Oct-2025 |
| Editor: | ТНТУ TNTU |
| Place of the edition/event: | Тернопіль Ternopil |
| DOI: | https://doi.org/10.33108/visnyk_tntu2025.02.100 |
| UDC: | 004.8 |
| Palabras chave: | захист від підміни обличчя дистиляція знань мобільні платформи виявлення атак на презенатції згорткова нейронна мережа оптимізація Face anti-spoofing knowledge distillation mobile presentation attack detection convolutional neural network optimization |
| Number of pages: | 9 |
| Page range: | 100-108 |
| Start page: | 100 |
| End page: | 108 |
| Resumo: | Для захисту від підміни обличчя (FAS) на мобільних пристроях потрібні моделі, які є не
лише точними, але й швидкими, легкими та енергоефективними – інкапсульованими показниками SWAP
(швидкість, вага, точність, енергоспоживання). Досліджено, як дистиляція знань може оптимізувати ці
показники SWAP для нейронних мереж у FAS. Великі, високопродуктивні моделі вчителів дистилюються
у компактні моделі учнів, які зберігають високу точність, суттєво зменшуючи вагу моделі та
покращуючи швидкість роботи. Крайні дослідження показали, що дистильовані моделі FAS можуть
досягти точності на рівні з найсучаснішими мережами, але зі значно меншими обчислювальними
витратами, що робить можливим мобільне розгортання в режимі реального часу. Наведено практичні
формули для втрат у дистиляції знань та порівняльні оцінки моделей за критеріями SWAP. Зроблено
висновок, що дистиляція знань створює легкі моделі FAS, які ефективно працюють на мобільних
платформах (наприклад, досягнення майже в 7 разів швидшої роботи для дистильованої моделі з менш
ніж 1 млн параметрів та з точністю приблизно 99% від викладацької), споживаючи при цьому набагато
меншу частку енергії пристроюОкреслено майбутні напрямки досліджень, включаючи мультимодальну
дистиляцію та адаптивні архітектури, які могли б ще більше сприяти оптимізації показників SWAP у цій
галузі Face anti‐spoofing (FAS) on mobile devices demands models that are not only accurate but also fast, lightweight, and energy‐efficient – encapsulated by SWAP metrics (Speed, Weight, Accuracy, Power consumption). This paper investigates how knowledge distillation can optimize these SWAP metrics for neural networks in FAS. Large, high‐performing teacher models are distilled into compact student models that retain high accuracy while drastically reducing model weight and improving inference speed. Latest researches have shown that distilled FAS models can achieve accuracy on par with state‐of‐the‐art networks but with significantly lower computational cost, making real‐time mobile deployment feasible. The paper presents practical formulas for the knowledge distillation loss, comparative evaluations of models on SWAP criteria. It is concluded that knowledge distillation produces lightweight FAS models that run efficiently on mobile platforms (e.g., achieving nearly 7× faster inference for a distilled model with less than 1 M parameters, at approximately 99% of the teacher’s accuracy) while consuming a fraction of the power. In this article we outline future research directions – including multi-modal distillation and adaptive architectures, that could further push SWAP metrics optimization in this field |
| URI: | http://elartu.tntu.edu.ua/handle/lib/50216 |
| ISSN: | 2522-4433 |
| Copyright owner: | © Тернопільський національний технічний університет імені Івана Пулюя, 2025 |
| URL for reference material: | https://doi.org/10.1109/TIFS.2022.3178240 https://doi.org/10.1109/JSTSP.2020.3001719 https://doi.org/10.48550/arXiv.1503.02531 https://doi.org/10.1016/j.asoc.2024.112237 https://doi.org/10.1007/978-981-99-8469-5_13 https://doi.org/10.1109/TCSVT.2024.3451294 https://doi.org/10.3390/electronics13142801 https://doi.org/10.1109/CVPRW53098.2021.00111 https://doi.org/10.1007/978-3-031-18910-4_39 https://doi.org/10.24963/ijcai.2024/83 https://doi.org/10.48550/arXiv.2308.13998 https://doi.org/10.1145/3658617.3697751 https://doi.org/10.48550/arXiv.2109.06458 https://doi.org/10.1145/3591106.3592280 https://doi.org/10.1109/TDSC.2024.3381598 http://elartu.tntu.edu.ua/handle/lib/47417 |
| References (International): | 1. Zhi L., Cai R., Li H., Lam K., Hu Y., Kot A. C. (2022). One-Class Knowledge Distillation for Face Presentation Attack Detection. IEEE Transactions on Information Forensics and Security 17, pp. 1353–1368. https://doi.org/10.1109/TIFS.2022.3178240 2. Haoliang L., Wang S., He P., Rocha A. (2020) Face Anti-Spoofing with Deep Neural Network Distillation. IEEE Journal of Selected Topics in Signal Processing, 14 (5), pp. 933–946. https://doi.org/10.1109/JSTSP.2020.3001719 3. Geoffrey H., Vinyals O., Dean J. (2015). Distilling the Knowledge in a Neural Network. NIPS Deep Learning Workshop. Available at: https://doi.org/10.48550/arXiv.1503.02531. 4. Jun Z., Zhang Y., Shao F., Ma X., Feng S., Zhang S., Wu Y., Zhou D. (2024). Efficient Face Anti-Spoofing via Head-Aware Transformer Based Knowledge Distillation with 5 MB Model Parameters. Applied Soft Computing 166: 112237. https://doi.org/10.1016/j.asoc.2024.112237 5. Zhang J., Zhang Y., Shao F., Ma X., Zhou D. (2024) KDFAS: Multi-stage Knowledge Distillation Vision Transformer for Face Anti-spoofing. In: Liu, Q., et al. Pattern Recognition and Computer Vision. PRCV 2023. Lecture Notes in Computer Science, vol. 14429. Springer. https://doi.org/10.1007/978-981-99-8469-5_13 6. Kong Z., Zhang W., Wang T., Zhang K., Li Y., Tang X., Luo W. (2024). Dual Teacher Knowledge Distillation with Domain Alignment for Face Anti-spoofing. https://doi.org/10.1109/TCSVT.2024.3451294 7. Xiao J., Wang W., Zhang L., Liu H. (2024) A MobileFaceNet-Based Face Anti-Spoofing Algorithm for Low-Quality Images. Electronics, 13 (14), 2801. https://doi.org/10.3390/electronics13142801 8. Kim M., Tariq S. Woo S. S. (2021). FReTAL: Generalizing Deepfake Detection using Knowledge Distillation and Representation Learning in IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), pp. 1001–1012. https://doi.org/10.1109/CVPRW53098.2021.00111 9. Cao J., Liu Y., Ding J., Li L. (2022). Self-supervised Face Anti-spoofing via Anti-contrastive Learning in: Yu, S., et al. Pattern Recognition and Computer Vision. PRCV 2022. Lecture Notes in Computer Science 13535. Springer, Cham. https://doi.org/10.1007/978-3-031-18910-4_39 10. Fang H., Liu A., Yuan H., Zheng J., Zeng D., Liu Y., Deng J., Escalera S., Liu X., Wan J., Lei Z. (2024). Unified Physical-Digital Face Attack Detection. https://doi.org/10.24963/ijcai.2024/83 11. Wang Y., Han Y., Wang C., Song S., Tian Q., Huang G. (2023). Computation-efficient Deep Learning for Computer Vision: A Survey. https://doi.org/10.48550/arXiv.2308.13998 12. Zhang L., Gungor O,. Ponzina F., Rosing T. (2024). E-QUARTIC: Energy Efficient Edge Ensemble of Convolutional Neural Networks for Resource-Optimized Learning. https://doi.org/10.1145/3658617.3697751 13. Chen D. (2024). A Note on Knowledge Distillation Loss Function for Object Classification. Available at: https://doi.org/10.48550/arXiv.2109.06458. 14. Cheng T., Zhang Y., Yin Y., Zimmermann R., Yu Z., Guo B. (2023). A Multi-Teacher Assisted Knowledge Distillation Approach for Enhanced Face Image Authentication. Proceedings of the 2023 ACM International Conference on Multimedia Retrieval (ICMR 23), pp. 135–143. https://doi.org/10.1145/3591106.3592280 15. Kong C., Zheng K., Liu Y., Wang S., Rocha A., Li H. (2024). M3FAS: An Accurate and Robust MultiModal Mobile Face Anti-Spoofing System. https://doi.org/10.1109/TDSC.2024.3381598 16. Stets O. (2024). SWAP metrics optimization methods for mobile face anti-spoofing neural networks. Materials of the Ⅻ scientific and technical conference “Information models, systems and technologies” (Ternopil., 18–19 December 2024), pp. 91. Available at: http://elartu.tntu.edu.ua/handle/lib/47417. |
| Content type: | Article |
| Aparece nas Coleccións | Вісник ТНТУ, 2025, № 2 (118) |
Arquivos neste item
| Arquivo | Descrición | Tamaño | Formato | |
|---|---|---|---|---|
| TNTUSJ_2025v118n2_Stets_O-SWAP_metrics_optimization_100-108.pdf | 2,91 MB | Adobe PDF | Ver/abrir | |
| TNTUSJ_2025v118n2_Stets_O-SWAP_metrics_optimization_100-108__COVER.png | 1,24 MB | image/png | Ver/abrir |
Todos os documentos en Dspace estan protexidos por copyright, con todos os dereitos reservados