AIPC核心增量:神经网络处理单元NPU产业解析
一. 消息面汇总
随着生成式AI需求在垂直领域不断增长,专为AI定制设计全新计算架构的NPU重要性逐步突显:
(1)2023年12月,英特尔发布了首个内置NPU的第14代酷睿Ultra处理器。
(2)AMD的锐龙8040处理器首次加入独立NPU。
(3)高通的骁龙 X Elite 处理器,集成Oryon CPU、Adreno GPU、Hexagon NPU。
二. NPU概览
NPU,即神经网络处理单元,是一种模拟人脑神经元结构,专门设计用于加速神经网络计算的处理器。
NPU的工作原理是在电路层模拟人类神经元和突触,通过模拟神经元之间的连接和信号传递过程,实现对数据的快速处理和分析。
与CPU、GPU相比,NPU利用其专门设计的硬件结构来执行神经网络算法,在深度学习的处理效率方面优势明显。
NPU的高效能、低能耗特性使得AI技术能在移动设备上实现实时处理,为用户提供更优质的交互体验。
三. NPU、CPU、GPU、FPGA的差别
(1)CPU:通用处理器,协同其他处理器完成各类任务,灵活性和可编程性较好,但计算效率不高。
(2)GPU:擅长高精度的并行计算任务,如高清图像、视频处理,同时算力强大,适合大规模并行计算。
GPU需要CPU协同处理,对于神经网络模型的构建和数据流的传递还是在CPU上进行,所以存在功耗高,体积大的问题。
(3)FPGA:在灵活性和可编程性方面有优势,但制程节点通常在14nm以上,不太适合小型低功耗的PC、手机等消费级设备。
(4)NPU:擅长标量、向量和张量数学运算,能效高,能够以极低功耗实现持续稳定的高峰值性能。
四. NPU优势与应用场景
与CPU、GPU相比,NPU主要优势在于:
4.1 高效能与低功耗
NPU采用针对神经网络运算优化的硬件架构和软件算法,在保证计算精度的同时,实现高效能和低功耗。
这使得NPU在移动设备、嵌入式系统等对功耗要求严格的场景中具有广泛应用前景。
4.2 可扩展性与兼容性
NPU支持多种神经网络模型和算法框架,具有良好的兼容性和可扩展性;还支持与CPU、GPU的协同工作,灵活高效的分配计算资源。
4.3 广泛的应用场景
除了智能手机、PC外,NPU还可以应用于自动驾驶、智能家居等领域。
(1)自动驾驶技术中,NPU可以处理大量传感器数据和算法模型,为车辆提供准确的感知和决策能力。
(2)智能家居场景中,NPU可以实现语音识别、人脸识别等功能。
五. 国内相关厂商梳理
北京君正:围绕嵌入式CPU、神经网络处理器、AI算法等领域形成自主核心技术,NPU技术已应用于T40、T41、A1等芯片。
国科微:主营芯片设计及解决方案,公司NPU已实现前端4T算力、后端NVR/DVR 9T算力。
全志科技:国内音视频SoC主控芯片龙头厂商,基于NPU加速的高性能视觉处理Soc芯片已量产。
芯原股份:国内第一、全球前七的半导体IP授权服务提供商,公司单价较高的GPU/NPU等IP下游需求较好。
寒武纪:围绕服务器、边缘计算设备、终端设备,主营AI芯片研发设计,麒麟970芯片NPU采用寒武纪IP设计。
——END——
往期阅读: