财联社3月7日讯(编辑 赵昊)当地时间周三(3月6日),人工智能模型评估公司Patronus AI发布了一个名为“CopyrightCatcher”的版权检测工具,用来检测大语言模型(LLM)中潜在的版权侵权行为。
据了解,Patronus AI由Meta的前研究人员创立,专注于评估和测试生成式人工智能产品背后的大语言模型。
在新闻稿中,Patronus AI分别测试了OpenAI的GPT-4、Anthropic的Claude 2、Meta的Llama 2和Mistral AI的Mixtral。结果显示,三本受版权保护的小说几乎没有一本能免受侵犯的影响。
Patronus AI高管告诉媒体,在所有模型的评估中都发现了版权内容,无论是开源还是闭源。“令人惊讶的是,我们发现OpenAI的GPT-4,也就是很多公司和个人开发者正在使用的最强大的模型,在这方面表现最差。”
来源:Patronus AI
Patronus AI的联合创始人兼首席执行官Anand Kannappan表示,“所有大语言模型都在逐字逐句地生成受版权保护的内容,这一事实确实令人惊讶。”Kannappan曾在Meta Reality Labs从事理解人工智能的工作。
事实上,OpenAI曾表示,要训练顶级的AI模型,就必须要用到受版权保护的材料,“将训练数据限制在公共领域的书籍和一个多世纪前创建的图纸可能会得出一项有趣的实验,但不会提供满足当今人们需求的AI系统。”
微软工程师告发AI图像风险
除了版权的护栏,另一项风险也不得不提。日内,微软的人工智能工程师Shane Jones致信美国联邦贸易委员会(FTC)和微软董事会,称公司的AI图像生成工具可能会对社会构成危险。
近几个月,Jones一直在针对Copilot Designer的潜在漏洞进行“红队”测试。“红队”测试是网络安全中的一项关键实践,由专家团队模拟真实世界的对手及其策略,以测试和增强系统的安全性。
公开信
Jones在信中称,Copilot Designer会创建有害内容,包括政治偏见、未成年人饮酒、滥用公司商标和版权、阴谋论等等。Jones指出,“我一再敦促微软停止Copilot Designer的公开使用,直到采取更好的保护措施。”
据Jones的说法,他先前就曾在领英上发布了一封公开信,要求下架DALL-E 3,但在微软法律部门的要求下,他删除了公开的帖文。如今他的担忧与日俱增,这也就是本次致信FTC的原因之一。
他举例称,如果将“pro-choice”(意为“支持堕胎”)一词输入到 Copilot Designer中,该工具就会生成大量描绘恶魔、怪物和暴力场景的卡通图像。另外,该工具还能生成迪士尼角色的图像,违反了版权法和微软的政策。
Jones告诉媒体,“我可以确定,这不仅是版权护栏失效了,而是比这个更重要的护栏失效了。”他补充道:“作为一名关心此事的微软员工,现在问题是,如果该产品开始在全球范围内传播有害的、令人不安的图像,可能没有办法立即解决。”
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )