百度安全入选权威报告《联邦学习与可信AI市场机会分析》典型厂商

联邦学习作为一种新兴的人工智能基础技术,在国际数据公司(IDC)定义下,联邦学习是一种分布式隐私保护建模方法,在保证所有训练数据不出域的前提下,多个参与方通过与聚合模型协作学习的方式共同训练新的数据模型的方法。这样的建模方式可以充分调动“去中心化数据”和“去中心化算力”等能力,促进数据隐私保护,实现数据利用最小化原则,并以更低的延迟和更低的功耗提高了建模性能。同时,在技术发展的新浪潮下,各国纷纷开始探索人工智能治理机制,在法律监管层面愈发重视人工智能的规范化实施和操作,AI可信被推到前所未有的高度上,各国政府和企业都在进一步探索如何保证AI算法模型可解释、个人/企业数据资产安全等问题。为此,IDC发布了《联邦学习与可信AI市场机会分析》报告,回顾2022年中国联邦学习与可信AI技术、应用进展和市场生态现状,提供终端用户可以依此作为部署企业AI应用的指南。其中,百度安全凭借点石联邦学习平台与PaddleSleeve,在报告中被选为典型厂商,提供了值得借鉴的最佳实践经验。

基于区块链、可信计算、大数据、人工智能等技术,百度安全构建了一整套可信人工智能生态,为城市智能中枢、智管平台、大数据局平台、数据交易所、金融行业实现数据全生命周期可信流通、算法多方协同、可控可溯以及异构算力统一纳管。针对数据流通和隐私保护,百度安全提供多种方案以灵活满足不同业务场景需求。

在数据要素流通上,百度点石联邦学习平台基于密码学方案实现“原始数据不出域”的情况下联合计算或建模,即利用密态计算技术加密传输、保证原始数据可用不可见,严格限定数据区域在全过程保护隐私;在此基础上,点石机密计算平台基于硬件构建虚拟安全区域,实现“数据可用不可见”的情况下联合计算或建模,在运用密文计算的同时,保持了接近完整的硬件性能、兼用机器学习和 学习算法实现联合计算。此外,点石数据安全沙箱基于权限访问控制、数据脱敏、抽样等技术,实现“数据看得见拿不走”的情况下数据拥有方单项开放数据给数据处理方,即利用多重隔离技术手段构筑数据安全区域,分离真实数据环境和模型基础调试环境,由此在特定场景如政务数据开放中,更好地满足客户需求。

在可信AI上,百度安全还发布有模型可解释算法库InterpreteDL、可信AI工具集TrustAI、安全与隐私工具PaddleSleeve。InterpreteDL集成了多种经典的可解释性算法,TrustAI帮助NLP领域开发者了解神经网络模型的预测机制,构建更加可信、效果更强的模型,助力神经网络模型更安全、可靠地落地于实际应用中,PaddleSleeve从自然干扰和对抗扰动两方面评估模型鲁棒性和安全性,并通过图像重建及对抗训练方式进行加固。

举例而言,在营销领域通过分析挖掘用户多维数据特征,构建用户画像,进行精准营销。广告主、广告平台及营销公司各自拥有一部分用户行为,多方数据整合后可以打通用户行为全链路,提升广告投放效果。基于百度点石的联邦学习、多方安全计算技术,为客户提供一个安全可控、自主灵活的工具平台,实现数据要素流通,进行多渠道管理、数据资产管理、数据分析和建模的 应用。

案例中,通过在不同的数据拥有方部署百度点石联邦学习平台,用于接入消费者来自不同渠道的数据,包含企业主自有用户基础数据、业务数据,以及第三方等多方数据。并利用多方安全计算、联邦学习等多种数据安全与隐私保护技术,保障在不交换原始数据的前提下,提供灵活的数据分析、建模等工具,与其CDP 平台结合,提供统一管理数据与丰富用户画像等能力。赋能某营销科技公司在保障数据安全的前提下,实现全触点数据采集与分析,合规地形成企业一方与第三方数据结合的用户洞察,为获客、培育、转化、复购等所有营销活动提供数据驱动,实现安全合规地精细化运营与 洞察服务。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

Baidu
map