当前位置:首页 > 新闻资讯 > FPGA之家动态 >

FPGA 在高速 AI 时代找到新的工作负载

时间:2026-01-10      来源:FPGA_UCY 关于我们 0

FPGA 在高速 AI 时代找到新的工作负载

电子产品世界2025.12.2211:08

fpga基础_FPGA在高速无线通信中的应用_FPGA在AI时代应用场景

在人工智能、高速无线通信、医疗与生命科学技术,以及复杂芯片架构的时代,FPGA 正在找到新的应用场景,在这些领域中,它们可以改善数据流动。

现场可编程门阵列(FPGAs)使设计人员能够在芯片部署之后对数字逻辑进行重新编程或重新配置,这在 AI 领域至关重要,因为算法变化的速度远远快于芯片架构的演进。较低的前期成本也使 FPGAs 能够作为固定功能芯片(如 ASIC)的原型工具,或在工作负载尚未稳定之前作为临时解决方案使用。但由于制造成本较高,FPGAs 通常出现在低出货量、高性能的专业应用中,例如战斗机或实验室中的测量设备。

尽管如此,FPGAs 的市场正在扩展。新的应用领域包括:

高端 FPGA 的主要大规模用户包括电信公司(无线与有线)、数据中心、网络设备,以及军事、航空航天和政府部门。Altera 业务管理集团负责人 Venkat Yadavalli 表示:“这些应用的年出货量可以从几千片到超过几十万片不等。在应用层面,更多特性被集成进 FPGA,例如嵌入式 内核和 AI Tensor Block,这使 FPGA 在更广泛的嵌入式和边缘 AI 应用中得到使用。”

一个正在发展的领域是机器人,它们需要确定性的时延以及在边缘侧基于来自摄像头和传感器的异构数据进行实时决策。“可能是语音、视频,或者任何你需要进行传感器融合的东西,”Yadavalli 说。

另一个重要的应用场景是医学成像技术,从验光师扫描视网膜,到 MRI 系统等。“你获取的是原始模拟数据,需要对其进行滤波、处理,并用于图像重建,涉及大量矩阵运算,”AMD 自适应与嵌入式产品营销高级经理 Rob Bauer 表示。“FPGAs 非常适合做这些事情。AI 引擎在矩阵运算方面也非常强,因此它们非常适合这类体成像应用。”

在当今快速变化、高度互联、并由 AI 赋能的环境中,设计人员是否应该使用 FPGA、ASIC 或其他类型的 IC,并不存在唯一答案。

“你不会在某一种解决方案和另一种之间简单切换,”Arteris 产品管理与市场营销副总裁 Andy Nightingale 表示。“真正存在的是一种混合或融合。互连技术促成并支持 FPGA 的混合使用,例如用于网络安全或缓解 I/O 瓶颈。FPGA 使原型设计成为可能,但客户也可能会在系统中保留某些 FPGA。他们可能会说,‘我们希望在 SoC 中实现定制硬件,但我们仍会保留一些 FPGA 技术,因为与为了定制硬件而付出的周转时间相比,其带来的好处更大,而最终可能发现规格或标准已经发生变化。’如果网络安全标准发生变化,他们就必须重新实现并应对,而 FPGA 中的内容是可以重新编程的。即使在功耗方面存在略高的开销,但如果它不在关键路径上,是可以绕开的。”

在权衡选项时,考虑 FPGA 中每个逻辑单元的使用成本是有帮助的。“在将其与 ASIC 比较时,你需要一定的架构设计才能获得成本优势,”Yadavalli 表示。“与 ASIC 或 ASSP 相比,你始终会略处于劣势,因为它们执行的是固定功能,并被优化到极致,只实现你所需要的功能,而不是你自己构建全部可编程性。在这种情况下,无论是以太网还是 PCIe,你都会存在一定的开销。你需要具备所有这些电路,而这会带来相应的代价。归根结底,这取决于投资回报率(ROI),以及市场是否已经稳定到需要使用 ASIC 的程度。”

这本质上是为了特定问题进行设计权衡。“如果你观察 FPGA 的用户,会发现他们正在尝试完成越来越复杂的事情,”Bauer 说。“在物理 AI 场景中,人们试图将 AI 集成到这些边缘系统中,在极低时延下就地处理来自传感器的数据。数据速率在提升,安全需求也在提升。这是一个优化问题。”

AI/ML 模型是一个不断变化的目标。虽然 FPGA 可以通过重新编程来适配它们,但这仍然是一个随着环境变化而不断选择最合适芯片的循环过程。

“如果工作负载经常变化,那么我就需要通用计算,”Movellus CEO Mo Faisal 表示。“我可以不断优化并将其推向极限。最终你会意识到,‘这种高度灵活的通用计算已经不再有价值了,我需要进行定制。’我们正处在这样一个循环中:问题定义变化如此之快,以至于转向可重构计算反而能获得更多收益。最终,这种方式也会走到尽头,回到过去 ASIC 与 FPGA 的模式。当然,你可以为 FPGA 开发特定的算法。例如,在粒子加速器中,他们使用 10,000 个 FPGA 来处理以特定速率输出的数据。但如果你想将其规模化,那世界上只有一个 CERN 和一个 Fermilab。如果你想要 10,000 个这样的系统,就需要重新考虑 FPGA。”

其他人也认为需要具体情况具体分析。ChipAgents 研究负责人 Kexun Zhang 表示:“是否使用可编程 FPGA 取决于你面对的是何种工作负载,在软件领域也是如此。生命科学领域的人正在设计不同的模型架构。我看到有些领域和方向中,模型架构的探索远未收敛,这正是为什么人们仍然需要编译器,也仍然需要能够以合理速度运行其定制模型架构的硬件。这些正是 FPGA 能够大放异彩的领域。”

对于消费级及其他大规模市场而言,其成本和效率结构并不合理。Baya Systems 首席商务官 Nandan Nayampally 表示:“在数据中心中,FPGA 可能在原型设计或非常特定的 AI 变更中具备优势。例如在高频交易中,如果你的算法经常变化,你就需要为其进行优化。如果我既没有足够的出货量,也没有支持 ASIC 的成本结构,那么我可能会继续使用 FPGA。许多新的 AI 架构正在同一芯片或多芯片上使用可编程组件和可编程引擎,这使你既高效又灵活。”

在 FPGA 上,只要资源允许,就可以构建尽可能多的硬连线并行计算单元,具体取决于 FPGA 的规模。“与通用 GPU 核心相比,FPGA 可以针对你的应用进行定制,”Nightingale 说,“你也可以定制并行度。”

基于云的 FPGA 也可用于从数据中心卸载计算密集型工作负载,例如通过使用 Web Services 的 EC2 虚拟服务器。“你可以去 AWS 申请一台虚拟机,” EDA 项目总监 Russell Klein 表示。“那是一台物理机器,使用他们称之为 F2 实例的配置。它配有一张 PCIe 卡,上面集成了八颗 Xilinx FPGA,这些 FPGA 都可以通过 PCIe 总线由主处理器进行编程。我一直在与他们合作,将我们的高级综合工具用于对这些 F1 实例进行编程,并且可以说,‘这是一个函数,让我们把它通过 PCIe 总线推送到 FPGA 架构中。’我们刚刚实现了这样一个流程:我可以将一个函数通过我们的高级综合工具进行编译,然后再通过 Xilinx 工具链,让它与运行在处理器上的软件进行交互。”

此外,F2 实例正在被用于卸载非常复杂的算法。“他们主要在生命科学领域看到这种应用——从事 DNA 分析或化学反应分析的人正在处理非常复杂的三维数学问题,而这些人会对 FPGA 进行编程,并让其与主机上运行的处理器进行交互,”Klein 说。“他们可以通过 PCIe 连接将所有这些整合在一起,从而加速这些极其复杂的算法。我们将在 AI 领域看到大量此类应用,因为它运行得更快、能耗更低。这是构建更快、更高效推理和训练环境的显而易见的下一步。能力已经具备,我们需要推动整个行业开始加以利用。”

F2 实例的另一个应用场景是更低成本的硬件验证。“当 SiFive 还是一家初创公司时,他们需要在制造硅片之前,在其 RISC-V 设计上启动操作系统,”Klein 表示。“他们希望将这一过程作为验证步骤。与其购买一套 FPGA 原型系统,他们选择在 AWS 上以每小时 6 美元的价格租用 FPGA 板卡。他们可以将一个 CPU 实例放进一颗芯片中,然后通过在多颗 FPGA 以及多块板卡中进行编程,运行一个多 CPU、多核设计。他们利用数据中心的 CPU,搭建了一个低成本的自有仿真器。AWS 正看到大量兴趣,并围绕这一点提供了工具,使其能够运行逻辑仿真,同时由 FPGA 架构对系统的一部分进行建模。他们可以将这一切协同运行,而且速度快得多。这就像是一个混合型 FPGA 原型系统。”

一组带有冷却风扇的多块计算机电路板的近景视图,按网格方式排列。

整张卡与服务器中的一个处理器相连。“他们在一台服务器中插入多块这样的板卡,每一块都插在不同的 PCIe 插槽中,因此你可以让多个程序连接到多块板卡上,”Klein 解释说。“你可以非常快速地启动它们,也可以迅速拆除。这些是数据中心中的 FPGA 卡,用于加速硬件验证、加速生命科学和 AI。这是一种可行的技术,用来应对我们今天所面临的计算挑战。”

与此同时,FPGA 也在帮助实现左移设计。“如果你看看由 AI 推动的新芯片开发的爆发,以及 2nm 等先进节点的成本,就会发现一次做对变得前所未有地重要,”AMD 的 Bauer 表示。“你可以让软件工程团队使用这些仿真和原型平台,在流片之前很早就为其最终的 ASIC 开发软件。”

FPGA 在数据中心中节省功耗、提升性能的另一种方式,是通过优化数据移动,帮助缓解 SoC 和小芯片中的存储器和 I/O 瓶颈。

Altera 最近选择了 Arteris 来协助完成这项工作。“FPGA 可以直接放置在数据路径中,用于管理数据流,并最大限度地减少缓冲、优化吞吐量,”Nightingale 表示。“通过对数据进行内联管理,你可以让 FPGA 对正在流动的数据进行预处理,从而减轻 AI 系统性能中最显著的限制,使 CPU、GPU 或其他处理单元的工作量减少。因此,出现的存储器和 I/O 瓶颈也会随之减轻。”

这类似于内联处理,即将 FPGA 直接放入数据流本身。“由于如今这些器件拥有非常大的容量,你可以在数据通过时对同一数据执行更多处理,”Nightingale 说。“我们在整个数据移动过程中都看到这种情况,与 FPGA 技术紧密协同。”

在数据中心中,FPGA 被用作带有本地存储的智能网络卡。“你会看到非常庞大的网状拓扑结构,需要能够快速地将数据从一个点移动到另一个点,”Bauer 表示。“FPGA 的可重构特性,加上超高速互连、存储和时延特性,使其非常适合放置在 AI 计算单元旁边,无论是 GPU 还是 ASIC。然后客户可以精确定义数据的移动方式。我们在计算单元旁边就有大容量存储。在 AI 应用中,存储与计算的邻近性极其重要。这是高端应用。”

在另一个极端,还有非常小的 FPGA,被用于 GPU 集群或服务器板卡中,用于板级协调、管理和电源时序控制。“我们称之为服务器 I/O 类型的应用场景,”Bauer 说。“服务器上有 FPGA,负责控制板卡并确保电源正确开启。然后还有 FPGA 负责将数据移动到存储器中,以及在不同计算单元之间传输数据。”

FPGA 的另一个新角色是 AI 管道处理,用于处理流入 GPU 或 CPU 的基础设施数据。“数据进入系统后,在如何管理这些数据包方面存在大量可编程性,”Yadavalli 说。“你需要一种更智能的网络接口卡方式、智能 NIC 功能,或者某种数据平面管理,在数据进入 CPU 或 GPU 之前完成。FPGA 正在发挥作用,将数据引入系统,并以一种可以被后端大量 GPU 和 CPU 消费的方式对其进行预处理。”

一幅示意图,展示了在 AI/ML 训练与推理中,GPU 与 FPGA 之间的数据流动和工程连接。

数据预处理和清洗是另一个正在出现的领域。AI 应用的效果取决于数据质量。“你可能拥有最先进的模型或 LLM,但如果数据本身噪声很大,无论是业务数据还是任何商业数据,那都是一个‘垃圾进、垃圾出’的情况,”Yadavalli 说。“在进行数据预处理时,当所有这些信息涌入系统,你可以自动判断如何将其转化为标准化信息。你输入 PPT、语音指令、文本等等。而在另一端,LLM 只能消费某些原始数据,这些数据需要以特定方式进行准备,才能输出最佳信息。FPGA 在这里恰好非常匹配,因为它们能够对这些进入系统的多样化数据进行空间层面的处理。”

诸如 5G、6G、Open RAN 以及基带应用等通信协议,是 FPGA 的重要市场。Altera 近期与 BigCat 合作,以扩展基于 FPGA 的无线接入网技术。“随着无线标准的演进,最初的四到五年部署周期几乎总是使用 FPGA,”Altera 的 Yadavalli 表示。“标准尚未完全稳定,因此全球的大型设备提供商,例如 Ericsson、Nokia、Samsung 等,都无法及时构建 ASIC。你需要在两年前就预先获取完整规格,才能开始构建 ASIC。一旦规格最终确定,你就希望这些芯片已经可用,以便将网络过渡到最新、最先进的技术。”

AI 算法在网络领域也在快速变化,为 FPGA 带来了机会。“在 6G 中,有大量与网络相关的 AI 处理正在被讨论,但尚未形成标准化,人们对于 6G 何时部署也存在很大的担忧,”Yadavalli 说。“很多人会落后、领先,或者在某些方向上走偏。他们需要在 AI 计算方面具备灵活性。既有小型也有大型计算系统。有些可以将计算推入基带,其中存在大型云部署。但也有大量部署发生在无线侧,以及位于大型天线下方的基带机箱中。这些都需要 FPGA 作为辅助处理器存在。”

在 5G 领域,AMD 已经看到其自适应 SoC 在波束成形应用中的使用有所增长。“那是标准推广过程中的重要组成部分,”Bauer 表示。

纵向整合的公司可以将特定加速器或功能直接集成进 ASIC,但行业的大部分是横向整合的。一家构建多种嵌入式处理器的公司,往往不会构建固定的加速功能,因为这会缩小其总体市场空间。

“这些公司可以在其器件中集成嵌入式 FPGA 架构,或者使其 SoC 能够与外部 FPGA 进行接口连接,”西门子公司的 Klein 表示。“我们看到越来越多的制造商开始这样做。这可以作为一种方式,向其系统交付定制化硬件功能。尽管与 ASIC 级实现相比,它的规模更大、功耗更高,但它比软件实现要快得多、也更节能。”

例如,如果一家公司的可穿戴设备希望电池在不充电的情况下使用一周时间,就必须开始考虑将部分功能从处理器中卸载。“如果他们是横向整合的,并且不构建自己的 SoC,他们就会希望通过可编程逻辑来卸载这些功能,”Klein 解释说。“无论这种可编程逻辑是嵌入在他们购买的 SoC 中,还是作为一个独立器件存在于旁路位置,FPGA 都将使他们能够获得更高性能、更低能耗。”

嵌入式 FPGA 还提供了通过稀疏化和混淆来保护特定 IP 的能力。“也许有一个软件开发者或软件程序拥有自己的秘密算法,” IP 销售副总裁 Andy Jaros 表示。“他们希望配套一个硬件加速器。他们可以自行开发,并将其放入 ASIC 中的 eFPGA,而无需与任何其他人共享。”

FPGA 可以通过重新编程来跟上不断变化的法规和日益增长的威胁,例如量子攻击的潜在风险。

“我们看到 FPGA 被用于确保这些系统上运行代码的真实性,并确保其免受篡改,”Bauer 表示。“此外,在数据的内联加密方面,一些客户拥有自己的专有技术,而可编程逻辑非常适合实现这一点。其他客户则满足于标准方法,而这些我们已经集成。我们拥有用于内联端到端加密的硬加密模块。”

其他应用场景还包括无线或有线连接,以及防火墙。“人们正在使用 FPGA 进行基于 AI 的数据包检测,以识别威胁,”Bauer 说。“你既需要高速连接,又需要在架构中直接实现模型。”

不过,也存在一些缺点。Rambus 硅 IP 高级技术总监 Scott Best 表示:“独立式和嵌入式 FPGA 提供了极大的灵活性,但如果比特流配置数据的机密性和完整性未得到妥善管理,这种优势可能会引入安全风险,尤其是在数据中心等共享环境中。与数据中心 ASIC 和 SoC 在为不同用户运行半独立虚拟机时所面临的风险类似,数据中心中的 FPGA 需要健全的配置和访问控制机制,以防止未经授权的重新编程或在多用户共享可编程架构时出现侧信道漏洞。”

如今,许多 FPGA 已内置加密系统。“对比特流的保护——也就是对 FPGA 编程本身的保护——已经有所改善。但它们仍然是攻击者的重点目标,试图证明自己能够侵入系统,在 FPGA 的比特流中修改程序并使其运行,” 产品管理高级总监 Dana Neustadter 表示,并指出攻击 FPGA 与安全启动等机制非常相似。“在处理器领域,我们使用安全启动来确保正确的程序正在处理器上运行。在 FPGA 领域,同样的任务是通过加密和认证引擎来完成的,用于验证 FPGA 的编程内容。”

较低的前期成本意味着 FPGA 将继续保有其作为原型工具的角色,但在当今的高科技环境中,它们也正在承担越来越多的新角色。设计人员可能会发现,最佳解决方案是混合使用固定功能器件与可编程器件,以跟上 AI 的发展并抵御黑客攻击。


注明:本内容来源网络,不用于商业使用,禁止转载,如有侵权,请来信到邮箱:429562386ⓐqq.com 或联系本站客服处理,感谢配合!

用户登陆

    未注册用户登录后会自动为您创建账号

提交留言