免费安卓手游下载、分享游戏攻略、电脑硬件资讯、数码科技最新资讯
当前位置: 首页 > 数码科技 > 微软通过Azure AI Foundry接入DeepSeek-R1模型,优化NPU性能

微软通过Azure AI Foundry接入DeepSeek-R1模型,优化NPU性能

时间:2025-03-13 15:00

小编:小世评选

近日,微软在其官方博客上宣布,正式通过Azure AI Foundry接入DeepSeek-R1模型的7B和14B蒸馏版本,旨在为搭载高通骁龙X处理器的Copilot+ PC用户提供卓越的AI计算能力。这一消息标志着微软在AI技术领域又向前迈出了一步,同时也兑现了自今年1月以来所做的关于NPU优化版本的承诺。随着这一新模型的上线,用户将体验到更加高效的人工智能应用。

根据IT之家报道称,DeepSeek-R1模型的出色之处在于其能有效利用NPU(神经处理单元)来提升AI计算性能,同时显著降低对PC的电池续航和散热的影响。这意味着用户在使用深度学习应用时不再需要担心设备发热及电力的迅猛消耗,NPU的引入使得CPU和GPU能够腾出更多资源,处理其他任务,从而提升整体的使用体验和效率。

值得注意的是,微软在对DeepSeek模型实施量化时,采用了其内部开发的Aqua自动量化工具,将模型的权重量化为较低的int4格式。这一优化策略在减少模型运行负担的同时,保障了模型在实际应用中的计算力,但也带来了一定的弊端。例如,目前14B模型的标记速度较为缓慢,仅为8个token/秒,而1.5B模型在标记速度方面表现较为理想,达到了接近40个token/秒。虽然速度还有待进一步提升,微软表示将持续进行优化,目标是提高标记速度,以满足更多开发者的需求。

开发者在Copilot+ PC上可以通过AI Toolkit VS Code扩展下载和运行DeepSeek模型的多个版本,包括1.5B、7B和14B版本。这样的举措为开发者提供了更加便捷的工具,使他们能够轻松集成强大的AI功能到自己的应用当中。通过Adaptive AI Framework,开发者们可以快速调整和优化模型性能,确保在不同和设备上都能顺利运行。

随着AI技术的快速发展,如何更高效地利用硬件资源成为了业界关注的重点。微软此次在NPU和模型优化方面的最新进展,为实现更加智能化的计算环境提供了新思路。NPU的引入,不仅让AI计算变得更加高效,而且使得PC等设备在实施复杂计算任务时变得更加灵活。用户能够在更低的功耗下进行高强度的运算,这一切都得益于微软对DeepSeek-R1和NPU优化的深入研究与实践。

在未来几个月,微软预计将会进一步推出更多优化功能,以增强DeepSeek-R1模型的应用场景,从而满足不断增长的市场需求。同时,随着AI技术在各行各业的不断渗透,工具的易获取性和模型的高效性将成为推动行业变革的关键。未来,微软希望借助Azure AI Foundry的力量,赋能开发者,推动其在创意和实践上的创新。

微软通过Azure AI Foundry接入DeepSeek-R1模型是一次路径的探索,不仅为用户带来了更高效的NPU性能体验,也在可持续发展和技术创新方面树立了新的标杆。随着不断的优化和发展,能够预见的是,未来AI技术将会在我们的日常生活和工作中发挥出更为重要的作用,为各个领域带来深刻的变革和颠覆。这样一个充满潜力的领域,值得我们每一个人去关注和深入研究。

精品推荐

相关文章

猜你喜欢

更多

热门文章

更多