人工智能正在改变许多行业,但没有哪个行业像网络安全那样引人注目。随着网络犯罪的激增和技能差距的扩大,越来越明显的是,人工智能是安全的未来,但仍然存在一些挑战。最近人们越来越关注的一个问题是对人工智能可解释性的需求。
随着人工智能工具的出现,人们对人工智能可解释性的担忧日益增加,在网络安全领域,它和其他应用一样重要吗?让我们来仔细看看。
什么是人工智能的可解释性?
要了解可解释性如何影响网络安全,我们必须首先了解为什么它在任何情况下都很重要。可解释性是许多行业采用人工智能的最大障碍,原因主要有一个,就是信任。
如今,许多人工智能模型都是黑匣子,这意味着我们将无法看到它们如何做出决策。相比之下,可解释的人工智能(XAI)为模型如何处理和解释数据提供了完全的透明度。当使用XAI模型时,可以看到它的输出以及导致其得出这些结论的一系列推理,从而建立对此决策的更多信任。
从网络安全的角度来看,可以考虑一个自动网络监控系统。想象一下,这个模型将登录尝试标记为潜在的泄露。一个传统的黑匣子模型会声明它认为该活动是可疑的,但可能不会说明原因。XAI允许进一步调查,以查看哪些具体操作使人工智能将事件归类为违规,从而加快响应时间并潜在地降低成本。
为什么可解释性对于网络安全很重要?
在某些用例中,XAI的吸引力是显而易见的。例如,人力资源部门必须能够解释人工智能决策,以确保它们不存在偏见。然而,有些人可能会认为,只要模型准确,模型如何得出安全决策并不重要。以下是为什么情况不一定如此的几个原因。
1.提高AI准确率
网络安全人工智能可解释性的最重要原因是它提高了模型的准确性。人工智能提供了对潜在威胁的快速响应,但安全专业人员必须能够相信这些响应是有用的。不明白为什么模型会以某种方式对事件进行分类会阻碍这种信任。
通过降低误报的风险,XAI提高了安全AI的准确性。安全团队可以准确地看到为什么一个模型将某些东西标记为威胁。如果是错误的,他们可以看到原因,并根据需要进行调整,以防止类似的错误。
研究表明,安全XAI可以实现95%以上的准确率,同时使错误分类背后的原因更加明显。这使我们可以创建更可靠的分类系统,确保安全警报尽可能准确。
2.更明智的决策
可解释性提供了更多洞察力,这对于确定网络安全的后续步骤至关重要。解决威胁的最佳方法因多种具体情况因素而异。我们可以了解更多关于人工智能模型,为何以某种方式对威胁进行分类的信息,获取关键的背景信息。
黑盒人工智能除了分类之外可能无法提供更多功能。相比之下,XAI可以让我们了解其决策过程,揭示威胁的来龙去脉及其表现方式,从而实现根本原因分析。然后可以更有效地解决它。
3.持续改进
可解释的人工智能在网络安全中也很重要,因为它可以实现持续改进,网络安全是动态的。犯罪分子总是在寻找绕过防御的新方法,因此安全趋势必须做出相应的调整。如果不确定安全人工智能如何检测威胁,这可能会很困难。
仅仅适应已知的威胁也是不够的。在过去十年中,大约40%的零日漏洞攻击发生在2021年。针对未知漏洞的攻击变得越来越普遍,因此必须要能够在黑客之前找到并解决系统中的弱点。
可解释性可以让我们准确地做到这一点。因为可以看到XAI如何做出决策,所以可以找到可能导致错误的差距或问题,并解决它们以增强安全性。同样,可以查看导致各种操作的趋势,以确定应该考虑的新威胁。
4.监管合规性
随着网络安全法规的不断完善,安全人工智能中可解释性的重要性也将随之增长。像GDPR或HIPAA这样的隐私法都有广泛的透明度要求。如果企业属于这个管辖范围,黑盒人工智能很快就会成为法律责任。
安全人工智能可能可以访问用户数据来识别可疑活动。这意味着我们必须能够证明模型,如何使用该信息来遵守隐私法规。XAI提供了这种透明度,但黑盒AI却没有。目前,此类法规仅适用于某些行业和地区,但这种情况可能很快就会改变。
5.建立信任
如果不出意外的话,网络安全人工智能应该可以用来建立信任。许多企业难以获得消费者的信任,许多人怀疑人工智能的可信度。XAI有助于向客户保证,安全AI是安全和合乎道德的,因为可以准确地确定它是如何做出决策的。
对信任的需求超出了消费者的范围。安全团队必须获得管理层和企业利益相关者的支持,才能部署人工智能。可解释性让他们能够展示他们的人工智能解决方案,如何以及为何有效、道德和安全,从而提高获得批准的机会。
获得批准有助于更快地部署人工智能项目并增加预算。因此,与没有可解释性的情况相比,安全专业人员可以更大程度地利用这项技术。
XAI在网络安全方面面临的挑战
可解释性对于网络安全人工智能至关重要,随着时间的推移,它只会变得更加重要。然而,构建和部署XAI带来了一些独特的挑战。组织必须认识到这些,以实现有效的XAI部署。
成本是可解释的人工智能最重要的障碍之一。由于其标记数据的要求,监督学习在某些情况下可能会很昂贵。这些费用可能会限制,一些企业证明安全人工智能项目合理性的能力。
同样,一些机器学习(ML)方法根本无法很好地转化为对人类有意义的解释。强化学习是一种新兴的机器学习方法,超过22%的采用人工智能的企业开始使用它。由于强化学习通常会持续很长一段时间,模型可以自由地做出许多相互关联的决策,因此很难收集模型所做的每个决策,并将其转化为人类可以理解的输出。
最后,XAI模型的计算强度很大。并不是每个企业都有必要的硬件来支持这些更复杂的解决方案,并且扩展可能会带来额外的成本问题。这种复杂性也使得构建和训练这些模型变得更加困难。
在安全领域有效使用XAI的步骤
安全团队应谨慎对待XAI,考虑这些挑战以及网络安全AI可解释性的重要性。一种解决方案是使用第二个人工智能模型来解释第一个模型。ChatGPT等工具可以用人类语言解释代码,提供一种方法来告诉用户模型为何做出某些选择。
如果安全团队从一开始就使用比透明模型慢的人工智能工具,那么这种方法会很有帮助。这些替代方案需要更多的资源和开发时间,但会产生更好的结果。许多企业现在提供现成的XAI工具来简化开发。使用对抗网络来理解人工智能的训练过程也有帮助。
无论哪种情况,安全团队都必须与人工智能专家密切合作,以确保他们了解自己的模型。开发应该是一个跨部门、更具协作性的过程,以确保每个需要的人都能理解人工智能决策。企业必须将人工智能素养培训作为实现这一转变的优先事项。
网络安全人工智能必须是可解释的
可解释的人工智能提供透明度、更高的准确性以及持续改进的潜力,所有这些对于网络安全都至关重要。随着监管压力和对人工智能的信任变得更加重要,可解释性将变得更加重要。
XAI可能会增加开发挑战,但其好处是值得的。安全团队开始与人工智能专家合作,从头开始构建可解释的模型,可以释放人工智能的全部潜力。
- 蜜度索骥:以跨模态检索技术助力“企宣”向上生长
- 爱立信倪子铭:先发市场5G部署基本成型 5G-A演进动能依然强劲
- 加速迈向万兆时代:聚焦5G-A商业成功正当时
- 智赋“中国方案”,酿造“世界味道” ——中企通信助力华润啤酒数字化转型之路行稳致远
- 年度营收将超400亿:超聚变瞄准“城企数智”新机遇
- 专访亨鑫科技宋海燕:“绿色”和“智慧”指引,推动通信行业可持续发展
- 中国移动云化语音网络新通话新建设备集采:4家中标,华为呈最大赢家
- “连接+算力”构筑数智底座:探访中兴通讯2024年PT展之旅
- 中国工程院院士沈昌祥:“六不原则”打造安全可信的算力网络新业态
- 中国移动5G消息系统三期工程设备第一批集采:中兴、华为两家分食
- 上海万兆光网基础设施全国领先 10G PON以上端口占比近99%
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。