仿生是模仿生物系统的功能和行为,来建造技术系统的一种科学方法。它打破了生物和机器的界限,将各种不同的系统沟通起来。
从这个角度来看,人工智能芯片可以算作是仿生。我认为目前的人工智能还只是停留在人工阶段,真正的智能应该是具有自我学习能力(不需要依赖大数据训练,会自主学习)。我认为新型的类脑芯片才算得上是真正的仿生芯片。
首先,苹果A12并不是什么仿生芯片(听上去高大上一些),其实际上就是手机SoC当中加入了AI运算加速内核。苹果A11/A12当中都集成了专门用于神经网路计算的独立处理单元(独立的内核),也就是大家常听到的NPU(不同厂商叫法会有差异)。一般在手机的SoC当中,CPU主要负责一些通用计算,能处理各种复杂的任务,适应性强。比如它也能够处理图形任务、进行人工智能计算,只不过效率要比GPU、NPU低。
而GPU则主要负责处理图形任务,它的优势就在于可支持大规模的并行计算架构,非常适合一些简单重复的计算任务。目前也被很多的厂商用于深度学习、数据模型的训练上。虽然大规模部署算力强大,但是功耗也是非常的大。所以,主要被应用于一些对于功耗要求不是很高的人工智能计算领域。
现在大家所说的AI芯片实际上就是专用型的ASIC芯片。它的AI计算能力和计算效率都直接根据特定的AI算法的需要进行定制的,所以相对CPU、GPU,其可以实现体积小、功耗低、高可靠性、保密性强、计算性能高、计算效率高等优势。所以目前在终端侧(特别是移动终端)的AI计算上,很多厂商都开始选择采用专用的AI芯片,或者在SoC当中集成NPU内核。
其次,回过头来说苹果A11/12当中集成的NPU内核,这实际上是一些特定的神经网络类型即AI算法(比如语音/图片识别、人脸识别等算法)的硬件化,主要就是起到针对这些AI算法运算的加速。比如原本做图像识别,一分钟只能识别一百张,而有了NPU加速则可实现一分钟识别数千张图片,不仅速度更快而且功耗也更低。
不过NPU也有其缺点,一旦设计完成,对应的AI算法就无法更改,无法升级。但是它可以与手机SoC当中的CPU/GPU/DSP来协同进行AI计算(高通骁龙845的AI神经网络引擎就是通过调配CPU/GPU/DSP来协同进行AI计算),所以可以在一定程度上弥补灵活性上的缺失。
目前手机芯片上所能提供的AI能力,主要是针对语音、图片、人脸、AR等的一些应用。另外神经网络引擎也拥有一定的机器学习的能力,比如你每天都刷脸解锁,所以AI也学习你脸部面容的一些变化(人的面容会因为慢慢的衰老而发生变化)。
总的来说,我们应该将A12芯片作为一个整体来看,其AI的能力并不仅仅是由NPU提供的,在一些场景下,其他的CPU/GPU等内核也会参与到AI运算当中,而NPU的作用也主要是针对特定的AI算法进行加速。
1分钟知识锦囊是36氪的日更问答新栏目,旨在每天以一分钟为限,快问快答一个重要的商业问题。今天我们解答的是芯片相关的问题。如果你对近期的商业世界还有什么疑问,欢迎在评论区给我们留言,锦囊负责找高手为你解答。