论文标题:Combinative Model Compression Approach for Enhancing 1D CNN Efficiency for EIT-based Hand Gesture Recognition on IoT Edge Devices
中文标题:针对物联网边缘设备基于EIT的手部手势识别的1D CNN效率增强的组合模型压缩方法
作者信息:
- Mahdi Mnif,1,2,3
- Salwa Sahnoun,1,2
- Yasmine Ben Saad,1
- Ahmed Fakhfakh,2
- Olfa Kanoun,*3
- National School of Electronics and Telecommunications of Sfax, University of Sfax, Tunisia
- Laboratory of Signals, Systems, Artificial Intelligence and Networks (SM@RTS), Digital Research Center of Sfax (CRNS), Tunisia
- Measurements and Sensor Technology, Faculty of Electrical Engineering and Information Technology, Chemnitz University of Technology, Germany *Corresponding author: olfa.kanoun@etit.tu-chemnitz.de
论文出处:To appear in: Internet of Things
主要内容:
摘要: 本文研究了模型压缩技术,旨在确定它们组合时的兼容性,并找出一种有效的方法来提高物联网边缘设备上的推理速度和能效。研究基于电气阻抗断层扫描(EIT)的手部手势识别(HGR)应用场景,该场景涉及复杂的信号处理,并且需要实时处理和能效。因此,设计了一个定制的一维卷积神经网络(1D CNN)HGR分类模型。通过战略性地结合模型压缩技术,实现了一个为物联网嵌入式设备更快推理和改进能效定制的模型。模型大小压缩至10.42 kB,尺寸减少了98.8%,在个人电脑上推理增益为94.73%,准确度下降了大约8.56%。组合模型压缩技术的方法在一系列处理能力有限的边缘计算物联网设备上应用,显著提高了这些设备的模型执行速度和能效。具体来说,Arduino Nano BLE的平均功耗增益为52%,Raspberry Pi 4为34.05%。对于Arduino Nano BLE Sense、Nicla Sense和Raspberry Pi 4,推理时间减半,ESP32的增益达到了94%。
1. 引言: 随着人工智能(AI)的进步,智能传感器和设备在从物联网(IoT)设备到智能家居和自动驾驶汽车等多种应用中的普及度急剧上升。这些传感器和设备依赖于深度学习技术,如深度神经网络(DNNs)、卷积神经网络(CNNs)和循环神经网络(RNNs),在包括计算机视觉、语音识别、医学诊断和人机交互在内的各个领域取得了重大突破。然而,传感器捕获的值通常发送到功能强大的计算设备(如云服务器)上执行机器学习算法,这种方法引入了数据采集和算法响应之间的显著延迟,可能会影响整体性能。此外,在网络上传输大量数据可能会导致网络拥塞并增加能耗。为了解决这些问题,发展了边缘计算的概念。边缘计算涉及将计算和通信资源从云端转移到网络边缘,有助于避免通信延迟,实现更快的最终用户响应时间,并在安全边缘环境中本地处理数据,减少数据泄露风险。
2. 相关工作: 本研究分析了现有的基于边缘计算的手势识别系统的局限性和挑战,考虑了能耗、模型大小、推理处理时间和模型优化等关键参数。
3. 探索模型压缩技术以实现高效的边缘AI部署: 模型压缩技术已成功应用于优化大型语言模型,通过降低计算成本、提高推理效率和增强可扩展性,这些技术已成为云部署的基本要素。此外,它们在边缘计算场景中的潜力也不容忽视。然而,在物联网边缘设备上实施这些技术面临独特的挑战,如管理有限的内存、处理能力和能耗。
4. 基于电气阻抗断层扫描的手势识别: 设计了一个用于识别美国手语(ASL)手势的系统。使用单独的传感器系统进行EIT数据采集,然后将数据发送到个人电脑(PC)进行处理和特征提取以执行手势分类。当前解决方案有几个局限性,使其不适合作为可穿戴设备使用。首先,分类过程依赖于笔记本电脑或基于云的计算来运行深度学习模型推理,这意味着它不独立,不能完全作为可穿戴设备使用。此外,这种对外部计算的依赖也使解决方案效率低下且能耗不高效,因为它需要能量将数据传输到计算机上运行推理。为了克服这些局限性,应该开发一种新解决方案,可以在可穿戴设备本身上使用边缘设备执行分类和推理任务,这种方法将提供更大的独立性、能效和实时决策能力。
5. 针对CNN优化的组合模型压缩技术: 本节的目标是通过研究和调查TensorFlow框架支持的不同模型压缩技术,找到计算效率和精度之间的最佳权衡,从而开发出更强大的HGR算法,通过提高1D-CNN模型的效率来保持其准确性。
6. 结果和性能评估: 本节详细描述了组合模型压缩技术的效果,并比较了基线模型与组合模型在模型大小、推理时间和准确性方面的性能。通过结合KD、FP和8位PTQ,在准确性、推理时间和最小模型大小之间取得了平衡。推理时间从0.3741 ± 0.0228降低到0.0197 ± 0.0012,模型速度提高了约94.73%。模型大小从871.58 kB显著减少到仅10.42 kB,实现了更适合资源受限环境的更紧凑模型。然而,这些增益的代价是准确性从80.81% ± 1.72降低到72.25% ± 1.05,大约下降了8.56%。
7. 结论: TinyML模型旨在在设备上执行计算,最小化通过网络传输敏感信息的风险。边缘计算和TinyML之间的联系在于它们共同的目标,即将计算能力和智能更接近数据源。边缘计算为本地数据处理提供基础设施,而TinyML通过在资源受限的物联网边缘设备上部署ML模型来补充它。它们共同使一系列从低延迟、隐私保护和高效设备上处理中受益的应用成为可能。这就是为什么需要优化深度学习模型以部署在物联网边缘设备上的原因。这项工作基于调查几种模型压缩技术,战略性地结合它们,并将其应用于基于EIT测量的HGR的1D-CNN模型。主要目标是评估组合模型压缩技术的兼容性,并确定优化不同知名嵌入式物联网设备模型执行时间和能效的最有效方法。通过在一系列物联网设备上实施和评估组合压缩模型技术,具体来说,Arduino Nano BLE的平均功耗降低了约52%,Raspberry Pi 4降低了34.05%。推理时间减半,对于Arduino Nano BLE Sense、Nicla Sense和Raspberry Pi 4,以及ESP32(从119毫秒到7毫秒)的显著增益为94%。这些结果强调了组合模型压缩方法在物联网边缘设备上的快速、节能部署的有效性和适用性。