当前位置:首页 > 新闻资讯 > FPGA之家动态 >

深度学习算法到FPGA部署全栈式方案——Perf-FPGA

时间:2024-07-31      来源:网络搜集 关于我们 0

嵌入式AI产业落地的不断发展带来对超高计算力的需求,使得相应硬件组成和算法架构也在不断在创新中寻求突破,以达到产业落地过程中所需的算力。就近期的发展而言,软硬协同优化,跨平台方案成为最通用普及的方案,相较于云端计算,终端部署成本优势明显,也成为AI落地的快速通道,硬件的选择至关重要。下文为大家介绍一下PerfXLab嵌入式AI解决方案中的深度学习算法到FPGA部署全栈式方案——Perf-FPGA。

深度学习算法到FPGA部署全栈式方案——Perf-FPGA

通过神经网络模型调优,低比特量化,以及FPGA端算法设计等一系列的优化加速方案,在面向FPGA嵌入式平台,实现了对人脸、形体、车辆、舰船等场景和物体进行检测,具有高速率,高准确性的特点,可以根据用户实际场景进行高度定制。

目前Perf-FPGA AI方案已经成功落地在安防、军民融合、教育科研等领域,加速客户深度学习产品落地实施,在人工智能时代赢得先机。

关于Perf-FPGA开发生态架构——Renaissance

Perf-FPGA开发生态(代号Renaissance),涵盖了从神经网络算法到压缩、量化以及根据部署平台不同自动生成加速器和运行代码的一整套工具链条。其中压缩与量化工具DL-Quantz(代号Da Vinci)可以导入各种主流的DL框架,包括但不限于Caffe、Tensorflow、MXnet等,也可以根据客户需要定制客户自身的DL框架。编译工具DL-Compiler(代号Raffaello),可以根据客户指定的不同平台,快速的动态生成DL加速器和运行代码。加速器母体DL-Accelerator(代号Michelangelo)全部采用RTL实现,底层针对不同平台做了全面的适配和优化,使资源占用和性能达到极致。

●支持TensorFlow、Caffe、MXNet等数据模型

●通过深度神经网络模型自动量化工具DL-Quantz进行压缩和量化

●通过深度神经网络编译器工具DL-Compiler,可以根据资源需求生成AI加速器内核和相关运行代码

●高性能的开发生态实现了AI应用的软硬件系统协同优化

*Perf-FPGA 行人检测演示

*Perf-FPGA 车辆检测演示

*Perf-FPGA 人脸检测演示

AI已经快速的落地到我们的生活工作场景中,算力和硬件技术以及算法当下都存在瓶颈,需要技术层面的突破。嵌入式AI是人工智能落地的最佳选择之一,PerfXLab提供的创新嵌入式AI解决方案,具有跨平台、高性能、低延时、高效率的特性,非常适合嵌入式AI业务场景的硬性需求,希望能通过PerfXLab的产品技术,帮助更多的企业走在人工智能时代前沿。

商务合作:info@perfxlab.com

Discovering Potential. 

Driving Performance.


注明:本内容来源网络,不用于商业使用,禁止转载,如有侵权,请来信到邮箱:429562386ⓐqq.com 或联系本站客服处理,感谢配合!

用户登陆

    未注册用户登录后会自动为您创建账号

提交留言