
近日,Google Research 正式宣布开源 Coral NPU 平台,这是一套针对硬件工程师与 AI 开发者的全栈式开源解决方案,旨在克服人工智能在可穿戴设备和边缘设备部署中的主要障碍,例如性能瓶颈、生态系统碎片化以及用户信任危机。
Coral NPU 的核心使命是让全天候 AI 应用能够在电池供电设备上高效运行,并为高性能场景提供可配置选项,从而实现能耗与计算能力的智能平衡。
要让 AI 真正扮演“智能助理”角色,例如自动协助用户管理日程、实时翻译对话或感知周围环境,它必须在用户随身设备上本地运行。这带来了根本性挑战:如何在功率受限的边缘设备中嵌入环境感知型 AI,使设备摆脱云端依赖,实现私密、安全且全天候的智能体验。
Google 研究人员强调,基于 Coral NPU 构建的硬件设备能支持多样化的 AI 应用场景,涵盖用户活动与环境感知、音视频处理(如语音识别、实时翻译、人脸识别)以及手势识别等。
确保用户数据免受未经授权访问,加强隐私保护措施。
在架构设计上,Coral NPU 通过反向工程理念重塑芯片逻辑:不再优先传统标量计算,而是聚焦于机器学习矩阵引擎,从底层硅片开始为 AI 优化,实现更高效的本地推理性能。
在隐私安全方面,Coral NPU 采用 CHERI 等先进技术,通过精细化的内存级安全机制和可扩展软件隔离体系,构建由硬件强制执行的安全沙箱,保障用户数据安全。
该平台基于符合 RISC-V 指令集架构(ISA)的一组 IP 模块构建,其基础设计可在仅消耗数毫瓦功率的情况下,达到每秒 512 GOPS(十亿次运算)的性能。相比之下,早期的非开源版 Google Coral 可实现 4 TOPS(万亿次运算),但功耗约为 1 瓦。
Coral NPU 平台包含三大核心组件:
在编程层面,Coral NPU 架构与现代 C 编译器(如 IREE 与 TFLM)深度集成,并支持多种机器学习框架,包括 TensorFlow、JAX 和 PyTorch。
为提升性能,Google 研究团队开发了全套工具链:使用 TensorFlow、JAX 或 PyTorch 构建的机器学习模型,会先转换为通用中间表示(MLIR),再经过多层次语义降级(progressive lowering),逐步接近硬件底层语言,最终编译为二进制文件,实现高效部署。
值得一提的是,Google Research 与 Synaptics 合作,共同推出了首款基于这一新架构的物联网处理器,为 Coral NPU 的实践应用提供了首个范例。
目前,Coral NPU 平台已在 GitHub 上开源发布。
原文链接:https://www.infoq.com/news/2025/10/google-coral-npu-platform/
本文由主机测评网于2026-01-14发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260117583.html