一、AI芯片的概念和性能比较

1.广义概念

    AI芯片是专门处理人工智能应用中大量计算任务的模块,是诞生于人工智能应用快速发展时代的处理计算任务硬件,广义来讲,凡是面向人工智能应用的芯片均被称为AI芯片。包含基础层、技术层、应用层三个层面:

(1)基础层:AI芯片可以看成人工智能应用中完成大量计算所需的硬件

(2)技术层:人工智能应用常用的算法技术等,用来解决人工智能应用中的核心计算问题(如语音识别、语义分析、视觉处理、知识图谱、推理计算等)

(3)应用层:通过场景应用实践,利用人工智能学科的技术解决实际问题(如智能硬件、智能机器人、智能汽车、智慧城市、智慧金融等)

2.狭义概念

    狭义的AI芯片指的是针对人工智能算法做了特殊加速的芯片。由于深度学习算法在人工智能领域的应用不断加强和提升,AI芯片一般会认为是对大量数据进行训练和推理

一、AI芯片的概念和性能比较

1.广义概念

    AI芯片是专门处理人工智能应用中大量计算任务的模块,是诞生于人工智能应用快速发展时代的处理计算任务硬件,广义来讲,凡是面向人工智能应用的芯片均被称为AI芯片。包含基础层、技术层、应用层三个层面:

(1)基础层:AI芯片可以看成人工智能应用中完成大量计算所需的硬件

(2)技术层:人工智能应用常用的算法技术等,用来解决人工智能应用中的核心计算问题(如语音识别、语义分析、视觉处理、知识图谱、推理计算等)

(3)应用层:通过场景应用实践,利用人工智能学科的技术解决实际问题(如智能硬件、智能机器人、智能汽车、智慧城市、智慧金融等)

2.狭义概念

    狭义的AI芯片指的是针对人工智能算法做了特殊加速的芯片。由于深度学习算法在人工智能领域的应用不断加强和提升,AI芯片一般会认为是对大量数据进行训练和推理设计的芯片。

1.CPU

    CPU又叫中央处理器,是计算机的大脑,主要执行分析,判断和运算功能。全球CPU行业被Inter和AMD两家垄断,国有芯片在PC中市占率约为1%,在服务器中约占2%。

2.GPU

    GPU是图形处理器,也是显卡的计算核心,主要用来解决图形渲染问题,允许大量数据的并行计算,故而可广泛应用于AI训练。全球GPU市场NVIDIA,AMD,Inter三家垄断,NVIDIA的GPU产品A100、H100在AI芯片市场一家独大。英伟达A100在bert等先进对话式AI模型上可将推理吞吐量提升到高达CPU的249倍。从2022年开始,美国已经限制英伟达向中国大陆销售A100/H100显卡,但英伟达推出了A800,成为中国特供版A100平替。






设计的芯片。

AI芯片基本面梳理


本站使用百度智能门户搭建 管理登录