采用芯原NPU IP的AI类芯片已在全球出货超过1亿颗

企业动态
芯原的NPU IP是一款高性能的AI处理器IP,采用了低功耗、可编程和可扩展的架构设计。

2月29日,芯原股份宣布集成了芯原神经网络处理器(NPU)IP的人工智能(AI)类芯片已在全球范围内出货超过1亿颗,主要应用于物联网、可穿戴设备、智慧电视、智慧家居、安防监控、服务器、汽车电子、智能手机、平板电脑、智慧医疗10个市场领域。在过去七年里,芯原在嵌入式AI/NPU领域全球领先,其NPU IP已72家客户用于上述市场领域的128款AI芯片中。

芯原的NPU IP是一款高性能的AI处理器IP,采用了低功耗、可编程和可扩展的架构设计。它可以灵活配置,以满足客户对芯片尺寸和功耗不同要求,使成为具成本效益的神经网络加速引擎。该IP还配备了广泛且成熟的软件开发工具包(SDK,支持所有主流的深度学习框架,确保客户产品能够快速投放市场

芯原最新推出的VIP9000系列NPU IP提供可扩展和高性能的处理能力,适用于Transformer和卷积神经网络CNN)。结合芯原的Acuity工具包,这款强大的IP支持PyTorch、ONNX和TensorFlow在内的所有主流框架。此外,它还具备4位量化和压缩技术,解决带宽限制问题便于在嵌入式设备上部署生成式人工智能(AIGC和大型语言模型(LLM)算法,如Stable Diffusion和Llama 2。

通过利用芯原的FLEXA®技术,VIP9000还能与芯原的图像信号处理器(ISP)视频编码器无缝集成,实现低延迟的AI-ISP和AI-Video子系统,无需DDR内存。它还可以针对特定需求进行定制,以平衡成本和灵活性,从而适应对功耗和空间有严格限制的深度嵌入式应用环境。

“从微控制器到高性能应用处理器,AI功能已成为各类智能设备不可或缺的一部分。基于在图形处理器(GPU)领域深厚技术积累,我们设计了低功耗、可编程可扩展的NPU处理器IP,它能高效地处理各类神经网络和计算任务,最小化数据传输而这些都是推动嵌入式智能设备发展的关键要素。”芯原执行副总裁、IP事业部总经理戴伟进表示,随着AI技术快速演进,我们已经达到了类似人类的推理水平为智能助手的发展提供了坚实的技术基础芯原正利用自有的高效AI计算能力,以及在超过1亿AI芯片中的部署经验,为嵌入式设备带来服务器级别的AIGC功能。

责任编辑:张燕妮
相关推荐

2011-08-25 21:16:20

ARM芯片

2015-03-26 10:24:02

光纤

2022-05-10 10:14:09

物联网蜂窝物联网

2021-11-02 13:43:33

燧原科技

2021-09-12 14:48:05

谷歌薪酬福利

2012-07-30 09:31:17

ARM

2023-09-07 11:32:16

eSIM物联网

2021-06-10 10:21:45

物联网蜂窝物联网IoT

2015-12-24 09:56:49

UbuntuPhoronixOpenCompute

2011-03-09 09:57:29

2010处理器芯片

2023-08-24 21:33:56

AIAI 芯片

2015-06-02 16:54:08

光纤光缆

2022-04-25 16:03:37

移动通信Wi-Fi芯片Wi-Fi 7

2010-03-18 10:22:31

至强5600

2013-03-19 09:55:01

ARM大中华地区处理器

2020-06-30 15:38:17

戴尔

2023-10-11 06:48:45

芯片存算人工智能

2018-04-19 17:43:34

阿里Ali-NPU推理计算

2012-12-27 12:33:44

Wi-FiWLAN

2024-02-27 11:09:04

点赞
收藏

51CTO技术栈公众号