Будь ласка, використовуйте цей ідентифікатор, щоб цитувати або посилатися на цей матеріал:
http://elartu.tntu.edu.ua/handle/lib/50216
| Назва: | SWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation |
| Інші назви: | Оптимізація SWAP метрик у мобільних системах захисту від підміни обличчя із дистиляцією знань |
| Автори: | Стець, Остап Коноваленко, Ігор Володимирович Stets, Ostap Konovalenko, Ihor |
| Приналежність: | Тернопільський національний технічний університет імені Івана Пулюя, Тернопіль, Україна Ternopil Ivan Puluj National Technical University, Ternopil, Ukraine |
| Бібліографічний опис: | Stets O. SWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation / Ostap Stets, Ihor Konovalenko // Scientific Journal of TNTU. — Tern. : TNTU, 2025. — Vol 118. — No 2. — P. 100–108. |
| Бібліографічне посилання: | Stets O., Konovalenko I. SWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation // Scientific Journal of TNTU, Ternopil. 2025. Vol 118. No 2. P. 100–108. |
| Bibliographic citation (APA): | Stets, O., & Konovalenko, I. (2025). SWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation. Scientific journal of the ternopil national technical university, 118(2), 100-108. TNTU.. |
| Bibliographic citation (CHICAGO): | Stets O., Konovalenko I. (2025) SWAP metrics optimization in mobile face anti-spoofing systems using knowledge distillation. Scientific journal of the ternopil national technical university (Tern.), vol. 118, no 2, pp. 100-108. |
| Є частиною видання: | Вісник Тернопільського національного технічного університету, 2 (118), 2025 Scientific journal of the ternopil national technical university, 2 (118), 2025 |
| Журнал/збірник: | Вісник Тернопільського національного технічного університету |
| Випуск/№ : | 2 |
| Том: | 118 |
| Дата публікації: | 20-тра-2025 |
| Дата подання: | 1-кві-2025 |
| Дата внесення: | 31-жов-2025 |
| Видавництво: | ТНТУ TNTU |
| Місце видання, проведення: | Тернопіль Ternopil |
| DOI: | https://doi.org/10.33108/visnyk_tntu2025.02.100 |
| УДК: | 004.8 |
| Теми: | захист від підміни обличчя дистиляція знань мобільні платформи виявлення атак на презенатції згорткова нейронна мережа оптимізація Face anti-spoofing knowledge distillation mobile presentation attack detection convolutional neural network optimization |
| Кількість сторінок: | 9 |
| Діапазон сторінок: | 100-108 |
| Початкова сторінка: | 100 |
| Кінцева сторінка: | 108 |
| Короткий огляд (реферат): | Для захисту від підміни обличчя (FAS) на мобільних пристроях потрібні моделі, які є не
лише точними, але й швидкими, легкими та енергоефективними – інкапсульованими показниками SWAP
(швидкість, вага, точність, енергоспоживання). Досліджено, як дистиляція знань може оптимізувати ці
показники SWAP для нейронних мереж у FAS. Великі, високопродуктивні моделі вчителів дистилюються
у компактні моделі учнів, які зберігають високу точність, суттєво зменшуючи вагу моделі та
покращуючи швидкість роботи. Крайні дослідження показали, що дистильовані моделі FAS можуть
досягти точності на рівні з найсучаснішими мережами, але зі значно меншими обчислювальними
витратами, що робить можливим мобільне розгортання в режимі реального часу. Наведено практичні
формули для втрат у дистиляції знань та порівняльні оцінки моделей за критеріями SWAP. Зроблено
висновок, що дистиляція знань створює легкі моделі FAS, які ефективно працюють на мобільних
платформах (наприклад, досягнення майже в 7 разів швидшої роботи для дистильованої моделі з менш
ніж 1 млн параметрів та з точністю приблизно 99% від викладацької), споживаючи при цьому набагато
меншу частку енергії пристроюОкреслено майбутні напрямки досліджень, включаючи мультимодальну
дистиляцію та адаптивні архітектури, які могли б ще більше сприяти оптимізації показників SWAP у цій
галузі Face anti‐spoofing (FAS) on mobile devices demands models that are not only accurate but also fast, lightweight, and energy‐efficient – encapsulated by SWAP metrics (Speed, Weight, Accuracy, Power consumption). This paper investigates how knowledge distillation can optimize these SWAP metrics for neural networks in FAS. Large, high‐performing teacher models are distilled into compact student models that retain high accuracy while drastically reducing model weight and improving inference speed. Latest researches have shown that distilled FAS models can achieve accuracy on par with state‐of‐the‐art networks but with significantly lower computational cost, making real‐time mobile deployment feasible. The paper presents practical formulas for the knowledge distillation loss, comparative evaluations of models on SWAP criteria. It is concluded that knowledge distillation produces lightweight FAS models that run efficiently on mobile platforms (e.g., achieving nearly 7× faster inference for a distilled model with less than 1 M parameters, at approximately 99% of the teacher’s accuracy) while consuming a fraction of the power. In this article we outline future research directions – including multi-modal distillation and adaptive architectures, that could further push SWAP metrics optimization in this field |
| URI (Уніфікований ідентифікатор ресурсу): | http://elartu.tntu.edu.ua/handle/lib/50216 |
| ISSN: | 2522-4433 |
| Власник авторського права: | © Тернопільський національний технічний університет імені Івана Пулюя, 2025 |
| URL-посилання пов’язаного матеріалу: | https://doi.org/10.1109/TIFS.2022.3178240 https://doi.org/10.1109/JSTSP.2020.3001719 https://doi.org/10.48550/arXiv.1503.02531 https://doi.org/10.1016/j.asoc.2024.112237 https://doi.org/10.1007/978-981-99-8469-5_13 https://doi.org/10.1109/TCSVT.2024.3451294 https://doi.org/10.3390/electronics13142801 https://doi.org/10.1109/CVPRW53098.2021.00111 https://doi.org/10.1007/978-3-031-18910-4_39 https://doi.org/10.24963/ijcai.2024/83 https://doi.org/10.48550/arXiv.2308.13998 https://doi.org/10.1145/3658617.3697751 https://doi.org/10.48550/arXiv.2109.06458 https://doi.org/10.1145/3591106.3592280 https://doi.org/10.1109/TDSC.2024.3381598 http://elartu.tntu.edu.ua/handle/lib/47417 |
| References: | 1. Zhi L., Cai R., Li H., Lam K., Hu Y., Kot A. C. (2022). One-Class Knowledge Distillation for Face Presentation Attack Detection. IEEE Transactions on Information Forensics and Security 17, pp. 1353–1368. https://doi.org/10.1109/TIFS.2022.3178240 2. Haoliang L., Wang S., He P., Rocha A. (2020) Face Anti-Spoofing with Deep Neural Network Distillation. IEEE Journal of Selected Topics in Signal Processing, 14 (5), pp. 933–946. https://doi.org/10.1109/JSTSP.2020.3001719 3. Geoffrey H., Vinyals O., Dean J. (2015). Distilling the Knowledge in a Neural Network. NIPS Deep Learning Workshop. Available at: https://doi.org/10.48550/arXiv.1503.02531. 4. Jun Z., Zhang Y., Shao F., Ma X., Feng S., Zhang S., Wu Y., Zhou D. (2024). Efficient Face Anti-Spoofing via Head-Aware Transformer Based Knowledge Distillation with 5 MB Model Parameters. Applied Soft Computing 166: 112237. https://doi.org/10.1016/j.asoc.2024.112237 5. Zhang J., Zhang Y., Shao F., Ma X., Zhou D. (2024) KDFAS: Multi-stage Knowledge Distillation Vision Transformer for Face Anti-spoofing. In: Liu, Q., et al. Pattern Recognition and Computer Vision. PRCV 2023. Lecture Notes in Computer Science, vol. 14429. Springer. https://doi.org/10.1007/978-981-99-8469-5_13 6. Kong Z., Zhang W., Wang T., Zhang K., Li Y., Tang X., Luo W. (2024). Dual Teacher Knowledge Distillation with Domain Alignment for Face Anti-spoofing. https://doi.org/10.1109/TCSVT.2024.3451294 7. Xiao J., Wang W., Zhang L., Liu H. (2024) A MobileFaceNet-Based Face Anti-Spoofing Algorithm for Low-Quality Images. Electronics, 13 (14), 2801. https://doi.org/10.3390/electronics13142801 8. Kim M., Tariq S. Woo S. S. (2021). FReTAL: Generalizing Deepfake Detection using Knowledge Distillation and Representation Learning in IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), pp. 1001–1012. https://doi.org/10.1109/CVPRW53098.2021.00111 9. Cao J., Liu Y., Ding J., Li L. (2022). Self-supervised Face Anti-spoofing via Anti-contrastive Learning in: Yu, S., et al. Pattern Recognition and Computer Vision. PRCV 2022. Lecture Notes in Computer Science 13535. Springer, Cham. https://doi.org/10.1007/978-3-031-18910-4_39 10. Fang H., Liu A., Yuan H., Zheng J., Zeng D., Liu Y., Deng J., Escalera S., Liu X., Wan J., Lei Z. (2024). Unified Physical-Digital Face Attack Detection. https://doi.org/10.24963/ijcai.2024/83 11. Wang Y., Han Y., Wang C., Song S., Tian Q., Huang G. (2023). Computation-efficient Deep Learning for Computer Vision: A Survey. https://doi.org/10.48550/arXiv.2308.13998 12. Zhang L., Gungor O,. Ponzina F., Rosing T. (2024). E-QUARTIC: Energy Efficient Edge Ensemble of Convolutional Neural Networks for Resource-Optimized Learning. https://doi.org/10.1145/3658617.3697751 13. Chen D. (2024). A Note on Knowledge Distillation Loss Function for Object Classification. Available at: https://doi.org/10.48550/arXiv.2109.06458. 14. Cheng T., Zhang Y., Yin Y., Zimmermann R., Yu Z., Guo B. (2023). A Multi-Teacher Assisted Knowledge Distillation Approach for Enhanced Face Image Authentication. Proceedings of the 2023 ACM International Conference on Multimedia Retrieval (ICMR 23), pp. 135–143. https://doi.org/10.1145/3591106.3592280 15. Kong C., Zheng K., Liu Y., Wang S., Rocha A., Li H. (2024). M3FAS: An Accurate and Robust MultiModal Mobile Face Anti-Spoofing System. https://doi.org/10.1109/TDSC.2024.3381598 16. Stets O. (2024). SWAP metrics optimization methods for mobile face anti-spoofing neural networks. Materials of the Ⅻ scientific and technical conference “Information models, systems and technologies” (Ternopil., 18–19 December 2024), pp. 91. Available at: http://elartu.tntu.edu.ua/handle/lib/47417. |
| Тип вмісту: | Article |
| Розташовується у зібраннях: | Вісник ТНТУ, 2025, № 2 (118) |
Файли цього матеріалу:
| Файл | Опис | Розмір | Формат | |
|---|---|---|---|---|
| TNTUSJ_2025v118n2_Stets_O-SWAP_metrics_optimization_100-108.pdf | 2,91 MB | Adobe PDF | Переглянути/відкрити | |
| TNTUSJ_2025v118n2_Stets_O-SWAP_metrics_optimization_100-108__COVER.png | 1,24 MB | image/png | Переглянути/відкрити |
Усі матеріали в архіві електронних ресурсів захищені авторським правом, всі права збережені.