·人工智能11月20日 Salesforce在进行的一项调查中发现,在缺乏使用生成式AI明确政策的情况下,64%的受访者承认,他们将使用生成式AI完成的工作看作是自己完成的工作。
即使生成式AI的普及程度持续增长,企业也迫切需要明确定义使用生成式AI的策略,以防止员工使用未经授权的这一工具,这可能会使企业面临一些风险。这是Salesforce最近对14个国家约14,000名全职员工进行的一项重要调查结果。
调查表明,四分之一以上(28%)的受访员工在工作中使用生成式AI,其中一半以上在未经雇主批准或授权的情况下使用生成式AI。值得关注的是,另有32%的受访者表示,他们计划很快开始使用生成式AI。这项调查是Salesforce的Generative AI Snapsho研究系列“AI在工作中的承诺和陷阱”的一部分。
越来越多的员工使用生成式AI的一个关键原因是,他们意识到它可以显著提高工作效率。生成式AI的用户意识到了它的重要性,71%的员工表示生成式AI让他们的工作更有效率,58%的员工认为这项技术让他们在工作中更加投入。
有趣的是,近50%的受访员工表示,开发生成式AI的专业知识将有助于提高他们的工作满意度,使他们在工作中更受欢迎,并将提高收入。
所有这些都预示着生成式AI的快速普及和发展。麦肯锡表示,生成式AI每年可能为全球经济增加2.6万亿美元至4.4万亿美元。
政策的缺失使企业容易受到生成式AI安全风险的影响
尽管生成式AI的使用率不断增加,但缺乏安全和授权工具的政策和明确性正在增加企业的安全风险。在Salesforce今年早些时候进行的一项调查中,73%的受访者表示,他们认为生成式AI存在安全风险。不准确的结果和可能侵犯知识产权是使用生成式AI面临的其他一些风险。
Salesforce的调查表明,在其调查的14个国家中,印度使用未经授权和被禁止的生成式AI工具的比例最高,各行业中有64%的受访员工使用这些工具来促进他们的职业发展。另一方面,荷兰未经授权的生成AI工具的使用率最低,只有43%的员工使用。
缺乏明确定义的使用生成式AI政策使企业容易受到这些风险的影响,并使他们无法利用生成性AI的巨大潜力。根据Salesforce的调查,约79%的企业没有明确定义使用生成式AI的政策。其中,15%的受访者表示在工作中使用生成式AI的政策定义不明确,37%的受访者表示没有在工作中使用生成式AI的政策,其余27%的的受访者表示对此一无所知。
不道德地使用生成式AI
随着未经授权的生成式AI的使用率增加,一些员工正在不道德地使用,包括将生成式AI的工作成果据为己有。将近64%的受访者将生成式AI工作视为自己完成的工作,41%受访者可能会夸大自己的生成式AI技能以确保工作机会。
在Salesforce调查中,其中存在的一个重要问题是缺乏培训。近70%的受访者既没有完成也没有接受过任何有关在工作中安全、道德地使用生成式AI的培训。Salesforce首席道德与人道使用官Paula Goldman在一篇博客文章中表示:“有了明确的指导方针,员工才能理解和应对生成式AI的风险,同时利用其创新来促进他们的职业发展。”
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )