·人工智能12月7日 当地时间12月6日,谷歌比预期提前发布了Gemini AI模型,并声称其性能将超越OpenAI的大型语言模型(LLM) GPT-4,目前已用于支持谷歌的聊天机器人Bard。
谷歌还透露了其用于AI工作负载的最新TPU芯片的细节,并将在其云平台上提供AI超级计算机,以帮助AI模型的开发和训练。
过去一年,微软得益于与OpenAI的合作,谷歌一直试图赶超微软。在AI领域,谷歌希望Gemini AI模型能够帮助它在市场上获得更大的立足点。
谷歌Gemini AI模型具有三种版本
谷歌在今年早些时候举办的开发者大会上首次宣布将推出Gemini AI,当时据称将于2024年推出。
开发人员可以使用Gemini 1.0初始模型的三个不同版本:用于处理高度复杂任务的Gemini Ultra、跨各种任务扩展的最佳模型Gemini Pro,以及用于设备上AI任务的较小版本Gemini Nano。
谷歌声称,在用于判断LLM表现的32项学术基准中,Gemini AI在30项上的表现优于GPT-4,并称这是第一个在大规模多任务语言理解方面超过人类专家的AI模型。该模型可以使用数学、物理、历史、法律、医学和伦理学等57门学科的组合来测试世界知识和解决问题的能力。
今年早些时候,谷歌重组了其AI业务团队,将其Brain AI研究团队与2014年收购的英国AI公司DeepMind合并,成立了一个单独的AI部门——Google DeepMind。
谷歌CEO Sundar Pichai在推出Gemini AI模型时表示:“这三个版本是Gemini AI的首批模型,也是我们今年早些时候成立Google DeepMind时首次实现的愿景。这个新时代的模型代表了我们作为一家公司所做的最大的科学和工程努力之一。”
Gemini Pro和Gemini Nano将在未来几周内向开发者开放,但Gemini Ultra要到明年才会发布。谷歌表示,这是为了进行进一步的微调和安全检查。
同时发布TPU v5p和AI超级计算机
谷歌在发布的另一份声明中表示,其云平台的用户现在能够在新的内部芯片设计TPU v5p上运行工作负载,该芯片在训练AI模型方面比其前身TPU v4快2.4倍。
值得一提的是,谷歌在公共云领域的竞争对手AWS和微软Azure在最近几周都推出了新的定制芯片。
谷歌还推出一款超级计算机,并声称其具有开创性的超级计算机架构,是一个包括性能优化的硬件、开放软件、行业领先的机器学习框架以及灵活的消费模型的集成系统。同样,开发这款超级计算机是为了使AI训练更快、更有效。
谷歌工程师Amin Vahdat和Mark Lohmeyer在一篇博客中表示:“传统方法通常通过零散的组件级增强来解决AI工作负载面临的性能问题,这可能导致效率低下和瓶颈。相比之下,AI超级计算机采用系统级协同设计来提高AI训练、调优和服务的效率和生产力。”
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )