骁龙和 Qualcomm 品牌产品是 Qualcomm Technologies, Inc.和/或其子公司的产品。
在 Qualcomm,我们很高兴地宣布,我们已经与 Meta PyTorch Edge 团队开展合作,分享了新的设备端AI 堆栈 Executorch。借助这个解决方案,PyTorch 模型可以更快、更高效在 Qualcomm 骁龙移动平台上运行。开发人员可以使用 delegate 将机器学习算法的推理任务卸载到 Qualcomm Hexagon NPU(我们专为边缘 AI 推理而构建的 AI 优化引擎)。这是我们的人工智能软件团队做出的又一项贡献,旨在方便开发人员访问我们强大的NPU。
作为推动设备端 AI 的先驱,我们希望开发人员能够充分利用 Qualcomm AI 堆栈的性能、效率和无缝工作流。我们的工程团队直接参与了 Executorch 代码编写,创建 delegate 绑定,将 PyTorch 连接到骁龙上的 AI 优化。
这也是 PyTorch 开发人员第一次能够在移动神经处理单元加速模型,无需转换成专有的 AI软件框架。通过向移动开发人员提供利用边缘 delegate 直接访问 Qualcomm AI 引擎的权限,我们简化了使用 NPU 硬件加速功能的流程。这种简化的工作流程释放了骁龙平台在PyTorch 移动开发方面的全部潜力。
Executorch API 具有一定灵活性,从Qualcomm 的角度来看,是有益处的。这意味着不需要一次编译整个图形,而是可以随着时间的推移逐步添加支持。这一点对于大型及复杂的图形尤其有用。而另一方面,这种灵活性对 PyTorch 用户也有直接的好处。使用一致的 Executorch API,用户可以编译和部署模型,在后台,尽量将图形的某些部分委派给我们强大的Hexagon NPU,而其余部分仍然可以在通用 CPU 中执行。开发人员无需对用户代码进行任何更改,即可以快速迭代和增加模型覆盖,同时性能不打折扣,从而改善了开发体验。
将来我们会扩大网络架构和使用场景的覆盖范围。我们的目标是提供统一的设备端 AI 工作流程——从PyTorch 原型设计到智能边缘平台的优化部署。
如希望使用,请访问以下网站了解 Executorch:
我们期待看到 PyTorch 开发者社区出现越来越多的使用新的边缘加速功能创建的解决方案。由于 AI 堆栈的优化,从模型开发到部署,设备端智能的潜力正在快速增长。Pytorch Edge delegate 是对我们现有产品组合(已经支持 TFlite 和 ONNX)的补充。了解更多:Qualcomm AI 堆栈 | Unified AI 软件组合 | Qualcomm
本文件表达的意见是原作者的个人意见,并非体现 Qualcomm Incorporated 或其子公司(“Qualcomm”) 的意见。骁龙和 Qualcomm 品牌产品是 Qualcomm Technologies, Inc.和/或其子公司的产品。本文内容仅供参考,并非 Qualcomm 作出的陈述,也不代表 Qualcomm 认可其内容。本网站还可能提供非 Qualcomm 网站和资源的链接或引用。对于本网站引用或提供的可以访问的任何非 Qualcomm 网站或第三方资源,或者上述网站或资源的链接,Qualcomm 不作任何声明、保证或其他承诺。