微软助力 学习:Copilot+PC本地运行7B和14B模型,DeepSeek引领新潮流

微软助力 学习:Copilot+PC本地运行7B和14B模型,DeepSeek引领新潮流

随着科技的飞速发展, 学习已成为人工智能领域的关键驱动力。微软在推动这一领域的发展中发挥了不可或缺的角色,尤其在最近宣布通过Azure AI Foundry接入DeepSeek-R1 7B和14B蒸馏模型,为Copilot+ PC提供本地运行7B和14B模型的能力。这一举措无疑将 学习带入了更多设备,引领了新的潮流。

首先,让我们回顾一下DeepSeek的背景。DeepSeek是一种新型的神经网络量化方法,它通过使用Aqua内部自动量化工具,将所有DeepSeek模型变体量化为int4权重。这种量化方法不仅提高了模型的运行效率,还降低了模型的内存占用,使得更多的模型能够在更小的设备上运行。

微软此次承诺将DeepSeek-R1模型的NPU优化版本带到搭载高通骁龙X处理器的Copilot+ PC上,如今这个承诺终于兑现。从微软官方博客获知,该模型将从搭载高通骁龙X处理器的Copilot+ PC开始上线,随后是英特尔酷睿Ultra 200V和AMD锐龙的设备。这意味着,无论你使用的是哪种类型的电脑,都有机会体验到 学习的魅力。

值得注意的是,由于模型运行在NPU上,可以减少对PC电池续航和散热性能的影响,同时持续获得AI计算能力,CPU和GPU可用于执行其他任务。这无疑是一种平衡性能和功耗的优秀方案,为PC用户提供了更多的选择。

微软在此过程中扮演了关键角色。它使用了Aqua内部自动量化工具,将所有DeepSeek模型变体量化为int4权重,并正在进一步优化提高标记速度。这一举措无疑提升了模型的运行效率,也展示了微软在 学习领域的专业性和技术实力。

对于开发者来说,使用AI Toolkit VS Code扩展可以在Copilot+ PC上下载和运行DeepSeek模型的1.5B、7B和14B版本。这无疑为开发者提供了更多的选择和灵活性,使得他们能够更好地利用这些模型进行创新性的研究和工作。

总的来说,微软通过Azure AI Foundry接入DeepSeek-R1 7B和14B蒸馏模型,为Copilot+ PC提供本地运行7B和14B模型的能力,标志着 学习进入了新的阶段。这种新型的量化方法和模型部署方式,将 学习带入了更多的设备中,为人们的生活和工作带来了更多的便利和可能。

尽管微软在此过程中扮演了关键角色,但我们也要看到, 学习是一个不断发展的领域,需要来自学术界、工业界和政府的多方努力。我们期待未来微软能够继续在 学习领域进行更多的探索和创新,为人们的生活和工作带来更多的便利和可能。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2025-03-04
微软助力 学习:Copilot+PC本地运行7B和14B模型,DeepSeek引领新潮流
微软助力 学习,接入DeepSeek-R1 7B和14B蒸馏模型,为Copilot+ PC提供本地运行能力,引领 学习新潮流。该量化方法提升了模型运行效率,为PC用户提供了更多选择。微软在 学习领域的技术实力得到展现。

长按扫码 阅读全文

Baidu
map