กรุณาใช้ตัวระบุนี้เพื่ออ้างอิงหรือเชื่อมต่อรายการนี้: http://elartu.tntu.edu.ua/handle/lib/50216

ชื่อเรื่อง: SWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation
ชื่อเรื่องอื่นๆ: Оптимізація SWAP метрик у мобільних системах захисту від підміни обличчя із дистиляцією знань
ผู้แต่ง: Стець, Остап
Коноваленко, Ігор Володимирович
Stets, Ostap
Konovalenko, Ihor
Affiliation: Тернопільський національний технічний університет імені Івана Пулюя, Тернопіль, Україна
Ternopil Ivan Puluj National Technical University, Ternopil, Ukraine
Bibliographic description (Ukraine): Stets O. SWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation / Ostap Stets, Ihor Konovalenko // Scientific Journal of TNTU. — Tern. : TNTU, 2025. — Vol 118. — No 2. — P. 100–108.
Bibliographic reference (2015): Stets O., Konovalenko I. SWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation // Scientific Journal of TNTU, Ternopil. 2025. Vol 118. No 2. P. 100–108.
Bibliographic citation (APA): Stets, O., & Konovalenko, I. (2025). SWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation. Scientific journal of the ternopil national technical university, 118(2), 100-108. TNTU..
Bibliographic citation (CHICAGO): Stets O., Konovalenko I. (2025) SWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation. Scientific journal of the ternopil national technical university (Tern.), vol. 118, no 2, pp. 100-108.
Is part of: Вісник Тернопільського національного технічного університету, 2 (118), 2025
Scientific journal of the ternopil national technical university, 2 (118), 2025
Journal/Collection: Вісник Тернопільського національного технічного університету
Issue: 2
Volume: 118
วันที่เผยแพร่: 20-พฤษ-2025
Submitted date: 1-เมษ-2025
Date of entry: 31-ตุล-2025
สำนักพิมพ์: ТНТУ
TNTU
Place of the edition/event: Тернопіль
Ternopil
DOI: https://doi.org/10.33108/visnyk_tntu2025.02.100
UDC: 004.8
คำสำคัญ: захист від підміни обличчя
дистиляція знань
мобільні платформи
виявлення атак на презенатції
згорткова нейронна мережа
оптимізація
Face anti-spoofing
knowledge distillation
mobile
presentation attack detection
convolutional neural network
optimization
Number of pages: 9
Page range: 100-108
Start page: 100
End page: 108
บทคัดย่อ: Для захисту від підміни обличчя (FAS) на мобільних пристроях потрібні моделі, які є не лише точними, але й швидкими, легкими та енергоефективними – інкапсульованими показниками SWAP (швидкість, вага, точність, енергоспоживання). Досліджено, як дистиляція знань може оптимізувати ці показники SWAP для нейронних мереж у FAS. Великі, високопродуктивні моделі вчителів дистилюються у компактні моделі учнів, які зберігають високу точність, суттєво зменшуючи вагу моделі та покращуючи швидкість роботи. Крайні дослідження показали, що дистильовані моделі FAS можуть досягти точності на рівні з найсучаснішими мережами, але зі значно меншими обчислювальними витратами, що робить можливим мобільне розгортання в режимі реального часу. Наведено практичні формули для втрат у дистиляції знань та порівняльні оцінки моделей за критеріями SWAP. Зроблено висновок, що дистиляція знань створює легкі моделі FAS, які ефективно працюють на мобільних платформах (наприклад, досягнення майже в 7 разів швидшої роботи для дистильованої моделі з менш ніж 1 млн параметрів та з точністю приблизно 99% від викладацької), споживаючи при цьому набагато меншу частку енергії пристроюОкреслено майбутні напрямки досліджень, включаючи мультимодальну дистиляцію та адаптивні архітектури, які могли б ще більше сприяти оптимізації показників SWAP у цій галузі
Face anti‐spoofing (FAS) on mobile devices demands models that are not only accurate but also fast, lightweight, and energy‐efficient – encapsulated by SWAP metrics (Speed, Weight, Accuracy, Power consumption). This paper investigates how knowledge distillation can optimize these SWAP metrics for neural networks in FAS. Large, high‐performing teacher models are distilled into compact student models that retain high accuracy while drastically reducing model weight and improving inference speed. Latest researches have shown that distilled FAS models can achieve accuracy on par with state‐of‐the‐art networks but with significantly lower computational cost, making real‐time mobile deployment feasible. The paper presents practical formulas for the knowledge distillation loss, comparative evaluations of models on SWAP criteria. It is concluded that knowledge distillation produces lightweight FAS models that run efficiently on mobile platforms (e.g., achieving nearly 7× faster inference for a distilled model with less than 1 M parameters, at approximately 99% of the teacher’s accuracy) while consuming a fraction of the power. In this article we outline future research directions – including multi-modal distillation and adaptive architectures, that could further push SWAP metrics optimization in this field
URI: http://elartu.tntu.edu.ua/handle/lib/50216
ISSN: 2522-4433
Copyright owner: © Тернопільський національний технічний університет імені Івана Пулюя, 2025
URL for reference material: https://doi.org/10.1109/TIFS.2022.3178240
https://doi.org/10.1109/JSTSP.2020.3001719
https://doi.org/10.48550/arXiv.1503.02531
https://doi.org/10.1016/j.asoc.2024.112237
https://doi.org/10.1007/978-981-99-8469-5_13
https://doi.org/10.1109/TCSVT.2024.3451294
https://doi.org/10.3390/electronics13142801
https://doi.org/10.1109/CVPRW53098.2021.00111
https://doi.org/10.1007/978-3-031-18910-4_39
https://doi.org/10.24963/ijcai.2024/83
https://doi.org/10.48550/arXiv.2308.13998
https://doi.org/10.1145/3658617.3697751
https://doi.org/10.48550/arXiv.2109.06458
https://doi.org/10.1145/3591106.3592280
https://doi.org/10.1109/TDSC.2024.3381598
http://elartu.tntu.edu.ua/handle/lib/47417
References (International): 1. Zhi L., Cai R., Li H., Lam K., Hu Y., Kot A. C. (2022). One-Class Knowledge Distillation for Face Presentation Attack Detection. IEEE Transactions on Information Forensics and Security 17, pp. 1353–1368. https://doi.org/10.1109/TIFS.2022.3178240
2. Haoliang L., Wang S., He P., Rocha A. (2020) Face Anti-Spoofing with Deep Neural Network Distillation. IEEE Journal of Selected Topics in Signal Processing, 14 (5), pp. 933–946. https://doi.org/10.1109/JSTSP.2020.3001719
3. Geoffrey H., Vinyals O., Dean J. (2015). Distilling the Knowledge in a Neural Network. NIPS Deep Learning Workshop. Available at: https://doi.org/10.48550/arXiv.1503.02531.
4. Jun Z., Zhang Y., Shao F., Ma X., Feng S., Zhang S., Wu Y., Zhou D. (2024). Efficient Face Anti-Spoofing via Head-Aware Transformer Based Knowledge Distillation with 5 MB Model Parameters. Applied Soft Computing 166: 112237. https://doi.org/10.1016/j.asoc.2024.112237
5. Zhang J., Zhang Y., Shao F., Ma X., Zhou D. (2024) KDFAS: Multi-stage Knowledge Distillation Vision Transformer for Face Anti-spoofing. In: Liu, Q., et al. Pattern Recognition and Computer Vision. PRCV 2023. Lecture Notes in Computer Science, vol. 14429. Springer. https://doi.org/10.1007/978-981-99-8469-5_13
6. Kong Z., Zhang W., Wang T., Zhang K., Li Y., Tang X., Luo W. (2024). Dual Teacher Knowledge Distillation with Domain Alignment for Face Anti-spoofing. https://doi.org/10.1109/TCSVT.2024.3451294
7. Xiao J., Wang W., Zhang L., Liu H. (2024) A MobileFaceNet-Based Face Anti-Spoofing Algorithm for Low-Quality Images. Electronics, 13 (14), 2801. https://doi.org/10.3390/electronics13142801
8. Kim M., Tariq S. Woo S. S. (2021). FReTAL: Generalizing Deepfake Detection using Knowledge Distillation and Representation Learning in IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), pp. 1001–1012. https://doi.org/10.1109/CVPRW53098.2021.00111
9. Cao J., Liu Y., Ding J., Li L. (2022). Self-supervised Face Anti-spoofing via Anti-contrastive Learning in: Yu, S., et al. Pattern Recognition and Computer Vision. PRCV 2022. Lecture Notes in Computer Science 13535. Springer, Cham. https://doi.org/10.1007/978-3-031-18910-4_39
10. Fang H., Liu A., Yuan H., Zheng J., Zeng D., Liu Y., Deng J., Escalera S., Liu X., Wan J., Lei Z. (2024). Unified Physical-Digital Face Attack Detection. https://doi.org/10.24963/ijcai.2024/83
11. Wang Y., Han Y., Wang C., Song S., Tian Q., Huang G. (2023). Computation-efficient Deep Learning for Computer Vision: A Survey. https://doi.org/10.48550/arXiv.2308.13998
12. Zhang L., Gungor O,. Ponzina F., Rosing T. (2024). E-QUARTIC: Energy Efficient Edge Ensemble of Convolutional Neural Networks for Resource-Optimized Learning. https://doi.org/10.1145/3658617.3697751
13. Chen D. (2024). A Note on Knowledge Distillation Loss Function for Object Classification. Available at: https://doi.org/10.48550/arXiv.2109.06458.
14. Cheng T., Zhang Y., Yin Y., Zimmermann R., Yu Z., Guo B. (2023). A Multi-Teacher Assisted Knowledge Distillation Approach for Enhanced Face Image Authentication. Proceedings of the 2023 ACM International Conference on Multimedia Retrieval (ICMR 23), pp. 135–143. https://doi.org/10.1145/3591106.3592280
15. Kong C., Zheng K., Liu Y., Wang S., Rocha A., Li H. (2024). M3FAS: An Accurate and Robust MultiModal Mobile Face Anti-Spoofing System. https://doi.org/10.1109/TDSC.2024.3381598
16. Stets O. (2024). SWAP metrics optimization methods for mobile face anti-spoofing neural networks. Materials of the Ⅻ scientific and technical conference “Information models, systems and technologies” (Ternopil., 18–19 December 2024), pp. 91. Available at: http://elartu.tntu.edu.ua/handle/lib/47417.
Content type: Article
ปรากฏในกลุ่มข้อมูล:Вісник ТНТУ, 2025, № 2 (118)

แฟ้มในรายการข้อมูลนี้:
แฟ้ม รายละเอียด ขนาดรูปแบบ 
TNTUSJ_2025v118n2_Stets_O-SWAP_metrics_optimization_100-108.pdf2,91 MBAdobe PDFดู/เปิด
TNTUSJ_2025v118n2_Stets_O-SWAP_metrics_optimization_100-108__COVER.png1,24 MBimage/pngดู/เปิด


รายการทั้งหมดในระบบคิดีได้รับการคุ้มครองลิขสิทธิ์ มีการสงวนสิทธิ์เว้นแต่ที่ระบุไว้เป็นอื่น