引用本文:

孔一卜,黎海文,曾庆辉,等. 面向调制格式识别的稀疏CNN FPGA加速器设计[J]. 光通信技术,2026,50(2):103-108.

面向调制格式识别的稀疏CNN FPGA加速器设计

孔一卜1,黎海文2,曾庆辉2,陆 叶2,3*

(1. 中国电子科技集团公司 第三十四研究所,广西 桂林 541004; 2. 广西师范大学 电子与信息工程学院,广西 桂林 541004;3. 广西高校光电信息技术工程研究中心,广西 桂林 541004)

【下载PDF全文】 【下载Word】

摘要:为在逻辑与功耗资源受限的嵌入式场景中实现高效的调制格式识别,设计了一种面向调制格式识别的稀疏卷积神经网络(CNN)现场可编程门阵列(FPGA)的加速器。首先对基准CNN模型进行非结构化剪枝、8比特动态定点量化与层融合,显著压缩模型规模;随后设计基于ABM-SpConv算法的硬件加速架构,采用权重编码与单写多读缓存结构,优化并行卷积与数据访问效率。实验结果表明:在XC7A200 FPGA平台上,该设计以1.455 W的片上功耗实现90.2%的平均识别精度,每帧处理时间为142.48 μs,能效比达0.232 GOP/(s·W-1),优于同任务下的中央处理器(CPU)与图形处理器(GPU)平台。

关键词:卷积神经网络;加速器;现场可编程门阵列;调制格式识别

中图分类号:TN29  文献标志码:文章编号:1002-5561(2026)02-0103-06

DOI:10.13921/j.cnki.issn1002-5561.2026.02.017

论文主要探讨了如何在资源受限的嵌入式环境中实现高效的调制格式识别。以下是对文件核心内容的总结:

  1. 研究背景与动机

    • 光通信网络发展趋势:光通信网络正朝着高速、异构与动态化的方向发展,这对光性能监测(OPM)模块提出了快速生成与灵活部署的要求。

    • 调制格式识别的重要性:调制格式信息的准确识别直接影响光纤传输系统的性能,传统OPM方法因依赖专用硬件难以适应动态光网络的需求。

    • 卷积神经网络(CNN)的应用:图像分类与识别作为人工智能领域的重要研究方向,已广泛应用于各类计算平台,CNN作为其中的核心算法,在图形处理器上取得了显著成果。

    • FPGA的优势:FPGA因其高并行性、可配置数据精度以及低功耗等优势,在嵌入式与物联网设备中受到广泛关注,成为实现高效、绿色计算的重要路径。

  2. 研究内容与方法

    • 调制格式识别网络结构:设计了一个包含4个卷积层、3个池化层和1个全连接层的CNN模型,用于调制格式识别。

    • 模型剪枝与量化:采用软剪枝与非结构化剪枝相结合的方法,对模型进行剪枝;使用8比特定点数值对网络中的权重参数进行量化,减少模型规模和计算量。

    • 网络模型层融合:采用层融合方法优化网络结构,将卷积、批归一化与激活函数层合并为单一计算内核,减少计算延迟和内存读写次数。

    • 稀疏CNN FPGA加速器设计:设计基于ABM-SpConv算法的硬件加速架构,采用权重编码与单写多读缓存结构,优化并行卷积与数据访问效率。

  3. 实验结果与分析

    • 压缩效果:模型经非结构化剪枝、8位动态定点量化及算子融合后,参数量最高压缩比达10.84,计算量最高压缩比达6.67,识别精度从91.6%降至90.2%(下降1.4%)。

    • 性能对比:在XC7A200 FPGA平台上,该设计以1.455 W的片上功耗实现90.2%的平均识别精度,每帧处理时间为142.48 μs,能效比达0.232 GOP/(s·W⁻¹),优于同任务下的CPU与GPU平台。

    • 硬件优化效果:通过权重编码和单写多读缓存结构的设计,提高了数据读取频率和并行效率,减少了缓存Buffer的使用和数据读取时间损耗。

  4. 研究意义与贡献

    • 提供了一种在资源受限环境下实现高能效、高识别率的实时信号处理方案。

    • 设计的稀疏CNN FPGA加速器为边缘端调制格式识别提供了实用参考。

    • 通过剪枝、量化和层融合等技术,显著压缩了模型规模,提高了推理效率,降低了功耗。

  5. 未来工作展望

    • 可以进一步探索更高效的模型压缩和加速技术,以提高调制格式识别的精度和速度。

    • 可以研究如何将该加速器应用于更广泛的光通信场景中,以满足不同应用场景的需求。

    论文通过结合CNN图像识别技术与FPGA硬件加速优势,设计了一种面向调制格式识别的稀疏CNN FPGA加速器,实现了在资源受限环境下的高效、实时信号处理。