C114通信网  |  通信人家园

新闻
2022/5/25 09:47

微软联手高通开发新硬件设备,推出 Project Volterra 项目以探索 AI 场景

网易科技  小小

在美国当地时间周二举行的 Build 2022 开发者大会上,微软推出了名为 Project Volterra 的项目。微软计划开发由高通骁龙芯片支持的新硬件设备,旨在让开发者通过高通用于 Windows 的神经处理 SDK 工具包来探索“人工智能(AI)场景”。

与此同时,这款硬件还将帮助 Windows 支持神经处理单元 (NPU),或为特定于 AI 和机器学习的工作负载量身定制的专用芯片。专用 AI 芯片可以加快 AI 处理速度,同时减少对电池续航时间的影响,它们已经广泛用于智能手机等移动设备中。但随着 AI 支持的图像升级器等应用的广泛使用,制造商始终在将此类芯片添加到他们的笔记本电脑产品中。

例如,M1 Mac 配备了苹果的神经引擎,微软 Surface Pro X 配备了 SQ1 (与高通共同开发),英特尔也曾暗示将为 Windows PC 提供 AI 芯片解决方案。但得益于 iOS 和 Android 的支持,AI 驱动的 Arm 架构应用生态系统已经十分成熟,Project Volterra 似乎也在试图利用这个趋势,而不是从头进行开发。

这并不是微软首次与高通合作推出 AI 开发者硬件。2018 年,两家公司联合推出了 Vision Intelligence Platform,该平台对通过微软 Azure ML 和 Azure IoT Edge 服务运行的计算机视觉算法提供“完全集成”支持。Project Volterra 提供的证据表明,四年后,微软和高通在这一领域仍在密切合作,即使在高通关于 Windows on Arm 许可的独家协议到期之后依然如此。

微软 Windows 和设备首席产品官帕诺斯 帕奈(Panos Panay)在一篇博客文章中说:“我们相信 Windows 的开放硬件生态系统为开发者提供了更大的灵活性和更多的选择,并能够支持广泛的场景。因此,我们始终在不断发展该平台,以支持新的和新兴的硬件平台和技术。”

微软表示,Project Volterra 项目的硬件将在今年晚些时候推出,它将配备拥有“同类最佳”AI 计算能力和效率的神经处理器。主要芯片将基于 Arm 架构,由高通提供,将使开发者能够与 Visual Studio、VSCode、Microsoft Office 和 Teams 等工具共同构建和测试 Arm 架构原生应用。

事实证明,Project Volterra 是微软 Arm 原生应用“端到端”开发者工具链的先驱,它将涵盖完整的 Visual Studio 2022、VSCode、Visual C++、Net 6、Windows 终端、Java、Linux 的 Windows 子系统和 Android (用于运行 Android 应用) 的 Windows 子系统。每个组件的预览版将在接下来的几周内开始陆续推出,另外还有些针对 Arm 的开源项目,比如 Python、Node、Git、LLVM 等等。

至于 Windows 版的神经处理 SDK 工具包,帕奈表示,它将允许开发者在装有骁龙硬件的 Windows 设备上执行、调试和分析深度神经网络的性能,并将网络集成到应用程序和其他代码中。作为对神经处理 SDK 工具包的补充,新发布的高通 Windows 神经处理 SDK 除了提供针对具有不同功率和性能配置文件的不同处理器内核 API 外,还提供了用于在基于骁龙的 Windows 设备上转换和执行 AI 模型的工具。

高通的新工具也将使 Project Volterra 以外的设备受益,特别是搭载了高通最近推出的骁龙 8cx Gen 3 处理器的笔记本电脑。骁龙 8cx Gen 3 旨在与苹果基于 Arm 架构的芯片竞争,它拥有 AI 加速器(Hexagon 处理器),可用于支持 AI 处理照片和视频。

高通发言人通过电子邮件表示:“当 Windows 版高通神经处理 SDK 与 Project Volterra 相结合时,将利用高通 AI 引擎强大而高效的性能,推动改善和提供新的 Windows 体验。”高通 AI 引擎是骁龙计算平台的一部分,主要指顶尖骁龙系统芯片中的 CPU、GPU 和数字信号处理器组件的组合 AI 处理能力。

Project Volterra 也有自己的云组件,称为“混合环路”。微软将其描述为一种“跨平台开发模式”,用于构建跨越云和边缘的 AI 应用,其理念是,开发者可以决定是在 Azure 上运行 AI 应用,还是在本地客户端上运行。如果开发者需要额外的灵活性,混合环路还提供了在客户端和云端之间动态转移负载的能力。

帕奈说,混合环路将通过 Azure 机器学习中的“AI 工具链”原型和 ONNX Runtime 中新的 Azure Execution Provider 来运行,ONNX Runtime 是个开源项目,旨在跨框架、操作系统和硬件加速 AI。

帕奈解释称:“越来越多由 AI 支持的神奇体验需要超越传统 CPU 和 GPU 的更强大处理能力,但像 NPU 这样的新硅片将为关键的 AI 工作负载增加扩展的容量。我们新兴的混合计算和 AI 模式,以及支持 NPU 的设备,为开发者创建了一个新平台,以构建雄心勃勃的应用。随着 Arm64 Visual Studio、.NET 支持和 Project Volterra 将于今年晚些时候推出,我们将发布新的工具来帮助开发者迈出这段旅程的第一步。“

给作者点赞
0 VS 0
写得不太好

  免责声明:本文仅代表作者个人观点,与C114通信网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

热门文章
    最新视频
    为您推荐

      C114简介 | 联系我们 | 网站地图 | 手机版

      Copyright©1999-2022 c114 All Rights Reserved | 沪ICP备12002291号

      C114 通信网 版权所有 举报电话:021-54451141