8月5日消息,据外媒报道,生成式人工智能技术是近两年全球科技领域的一大热点,各种大语言模型和生成式人工智能聊天机器人的推出,给消费者的日常生活和工作带来了便利,例如由OpenAI训练的ChatGPT,在撰写邮件、文案、翻译、代码等方面,就能为用户提供帮助。
但随着生成式人工智能技术不断增强和广泛应用,弊端也日益凸显,被滥用的越来越多,部分学生更是将其用来完成作业、撰写论文等,甚至在部分教授的论文中,也出现了来自生成式人工智能的内容。而在人工智能生成内容越来越普遍的背景下,了解内容的来源、确定是否是来自于生成式人工智能及确保内容的真实可靠也就变得越来越重要。
而从外媒的报道来看,在生成式人工智能领域走在前列的OpenAI,一直在尝试通过新的方式,来确保生成式人工智能文本的真实性。
在最新的报道中,外媒就提到,OpenAI在为ChatGPT测试文本水印,在检测释义等局部变化时,已显现出很高的准确性。
虽然OpenAI方面目前并未公布他们为ChatGPT研发的文本水印是如何运作的,但外媒猜测可能是在生成的文本中嵌入隐藏的标识符,这样更容易追踪和验证一段内容是否由人工智能生成。
不过,也有外媒在报道中提到,OpenAI为ChatGPT测试的文本水印,也面临挑战,使用翻译工具或其他模型改变文本后,不一定能做到万无一失。此外,也有研究表明,文本水印可能会对部分人群造成影响,例如将ChatGPT作为写作辅助工具的母语为其他语言的人群,会对他们的非母语写作造成影响。
当然,外媒在报道中也提到,OpenAI在考虑的不只是文本水印,他们也在探索其他的方式,来确定文本内容的来源,外媒提到的就有元数据和检测分类器。加密签名的元数据,可以提供一种更可靠的方法来跟踪文本的来源。检测分类器是使用人工智能,来识别文本内容是否由OpenAI模型生成的工具。(海蓝)
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )