据TechCrunch披露的内部通信记录显示,谷歌正在使用Anthropic公司的Claude AI模型来辅助改进其Gemini人工智能模型。这一做法引发了关于合规性的讨论,特别是关于谷歌是否获得了Anthropic授权来使用Claude进行测试。
在当前科技公司竞相开发先进AI模型的背景下,AI模型的性能评估通常依赖于行业基准测试,而非通过承包商手动评估竞争对手的AI回复。然而,谷歌Gemini项目的承包商需要根据多个标准对每个回复进行评分,包括真实性和冗长性。根据披露的通信内容,承包商有最多30分钟的时间来判断Gemini或Claude的答案哪个更优。
内部聊天记录显示,承包商注意到Claude的回复在安全性方面似乎更为严格。一位承包商指出:“在所有AI模型中,Claude的安全设置是最严格的。”在某些情况下,Claude拒绝回应其认为不安全的提示词,例如扮演不同的AI助手。在一次测试中,Claude避免了回答某个提示词,而Gemini的回复因包含不当内容而被标记为“严重的安全违规”。
Anthropic的商业服务条款明确禁止客户未经Anthropic批准访问Claude,以构建竞争产品或服务,或训练竞争AI模型。值得注意的是,谷歌是Anthropic的主要投资者之一。这使得谷歌陷入争议之中。
对此,谷歌DeepMind(负责Gemini项目)的发言人McNamara表示,DeepMind确实会“比较模型输出”以进行评估,但并未在Anthropic模型上训练Gemini。
McNamara强调:“按照行业惯例,在某些情况下,我们会比较模型输出作为评估过程的一部分。然而,任何关于我们使用Anthropic模型训练Gemini的说法都是不准确的。”
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )