时间:2025-03-10 来源:FPGA_UCY 关于我们 0
随着大语言模型(LLM)的发展,其硬件加速技术也在不断演進。本文深入探讨了利用 FPGA、ASIC 和内存等芯片加速 LLM 的性能和能效表现。 文章围绕 LLM 的硬件加速器展开,对多项研究进行了全面综述。对于 FPGA 加速器,涵盖了 、多头注意力、FPGA NPE 等研究,详细介绍了其加速机制和性能提升。 在基于 CPU 和 GPU 的加速器部分,重点介绍了 、 Choi 和 等研究,分析了它们在推理速度和效率方面的优化。对于 ASIC 加速器,文章探讨了 A3、ELSA 和 等研究,揭示了它们在计算浪费减少和能效提升方面的优势。 此外,文章还涉及了利用内存硬件加速 LLM 的研究,例如 ATT、 和 iMCAT,...