本文共 2146 字,大约阅读时间需要 7 分钟。
1. AI芯片定义2. AI芯片的参数衡量标准3. AI芯片的实现架构4. AI芯片的用途(应用位置云管端/图像语音)5. AI芯片现状(国内外公司与芯片)6. AI芯片和linux的关系
从广义上讲只要能够运行人工智能算法的芯片都叫作 AI 芯片。但是通常意义上的 AI 芯片指的是针对人工智能算法做了特殊加速设计的芯片 现阶段,这些人工智能算法一般以深度学习算法为主,也可以包括其它机器学习算法。AI芯片也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由CPU负责)。
TFLOPSTOPSMLPerfMAPStop-5
如果以设计理念进行划分的话,AI芯片大致可分为两大类别。 第一类是“AI加速芯片”,它是确定性地加速某类特定的算法或任务,从而达到目标应用领域对速度、功耗、内存占用和部署成本等方面的要求。目前,AI加速芯片的研发有两种主要的方式: 一种是利用已有的GPU、众核处理器、DSP、FPGA芯片来做软硬件优化; gpu 英伟达 amd 地平线 fpga 是以FPGA为代表的半定制化芯片,如深鉴科技的DPU 地平线 另一种是设计专用的芯片,也就是ASIC。(soc+ip) ASIC全定制化芯片,如谷歌的TPU 寒武纪的GPU都属于ASIC芯片,和华为开发了一款智能芯片麒麟970,作为模块NPU存在 英伟达的GPU和寒武纪的Cambricon,都是仅限于冯诺依曼架构下做的优化。 比特大陆第二类是“智能芯片”,它让芯片像人一样能使用不同的AI算法进行学习和推导,处理包含感知、理解、分析、决策和行动的一系列任务,并且具有适应场景变化的能力。目前,面向综合、自适应能力的智能芯片研究有两类设计方法, 一种是基于类脑计算的“神经拟态芯片”; 英特尔还通过神经拟态芯片Loihi积极探索新的计算模式。 西井科技 ibm 另一种是基于可重构计算的“软件定义芯片”。 hinker
训练推理 训练 推理应用位置 服务器端 (1)服务器端负责AI算法的芯片走的是超级计算机的路子,一方面要支持尽可能多的网络结构以保证算法的正确率和泛化能力;另一方面必须支持高精度浮点数运算,峰值性能至少要达到Tflops(每秒执行10^12次浮点数运算)级别,所以功耗非常大;而且为了能够提升性能必须支持阵列式结构(即可以把多块芯片组成一个计算阵列以加速运算)。 移动端 (2)移动端(手机、智能家居、无人车等)的AI芯片在设计思路上有着本质的区别。首先,必须保证功耗控制在一定范围内,换言之,必须保证很高的计算能效;为了达到这个目标,移动端AI芯片的性能必然有所损失,允许一些计算精度损失,因此可以使用一些定点数运算以及网络压缩的办法来加速运算图像语音 图像 语音
国外 英伟达和谷歌几乎占据了人工智能处理领域80%的市场份额 其他厂商,如英特尔、特斯拉、ARM、IBM以及Cadence等,也在人工智能处理器领域占有一席之地 学术界国内 地平线深鉴科技、中科寒武纪 比特大陆 学术界
从 AI芯片 应用位置 来看,AI芯片应用可在服务器和移动端那么上面跑的系统 绝大多数的选择 就是 linuxAI芯片有 AI相关的IP ,大多也有用于控制的cpulinux 与 AI 芯片(IP) 如何交互 1. linux运行在哪里 cpu核心 2. linux 与 AI硬件如何交互 linux驱动与AI交互 AI芯片示例: rk3399 cpu:2*cortex-A72+4*cortex-A53 AI :gpu+npu 勘智K210 cpu :2*RISC-V core AI :KPU+APU 全志R329 cpu : 2*cortex-A53 AI : Arm Zhouyi 0.256T AIPU 昇腾910 cpu : 多个CPU,应该是ARMv8 AI : 单Die内建 32 颗达芬奇核心 不同于传统的支持通用计算的CPU和GPU,也不同于专用于某种特定算法的专用芯片ASIC 达芬奇架构本质上是为了适应某个特定领域中的常见的应用和算法,通常称之为“特定域架构(Domain Specific Architecture,DSA)”芯片。 https://blog.csdn.net/evolone/article/details/100061616
2021-3-29 09:46:26 各家最高端芯片苹果 A14高通 骁龙888海思 麒麟9000三星 exynos2100mtk 天玑1200