360数科:分割式神经网络技术框架在设计上杜绝了数据泄露的问题

9月9日消息,今年,360数科进一步推动隐私数据保护领域研究,提出分割式神经网络技术框架(Spilt Neural Network),并通过自主研发的一套系统实现算法落地。

隐私数据项目主要牵头人、360数科隐私保护研究院院长沈赟博士表示,“我们一直以来都在做一些技术上的创新。在隐私数据保护领域,使用神经网络算法更加灵活,可以把不同类型数据提取出来,在统一架构下去学习,效率上能够大幅提升。”

据介绍,与传统联邦学习不同的是,分割式神经网络技术框架输出层数据的维度远小于原始输入层的维度,即使输出层的数据没有加密也无法反推原始输入层的数据,从而在框架设计上杜绝了数据泄露的问题。由于输出层数据的维度较小,也可以大幅降低服务器端的计算量与内存使用量,减少网络传输量,降低对带宽的要求。

同时,与联邦学习类似,分割式神经网络技术框架不需要上传任何原始数据。在使用原始数据或者上传输出层结果前,可以使用各种加密方式进行加密,从而保障了隐私数据安全。

与联邦学习的不同之处在于,该框架下每个参与学习的客户端各自部署自身的子神经网络,学习后的参数并不需要共享给服务器。每个客户端只需要把最顶层输出层的数据回传给服务器,之后服务器综合各个客户端的结果再由各客户端各自进行更新迭代。

360数科方面表示,由于网络是分裂部署在各客户端上,它们自身的结构并不与其他各方共享,且自身的权重也不需要与服务器交互,因此可以解决联邦学习中庞大的 网络带来的服务器与客户端之间大量数据交互带来的网络传输压力。

据悉,目前,该框架主要满足360数科在与合作方进行数据交互时的需求。未来,在360数科对外输出风控能力的过程中,隐私计算也将作为技术输出的一部分,作为综合解决方案从底层解决数据安全问题。


企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2020-09-09
360数科:分割式神经网络技术框架在设计上杜绝了数据泄露的问题
9月9日消息,今年,360数科进一步推动隐私数据保护领域研究,提出分割式神经网络技术框架(Spilt Neural Network),并通过自主研发的一套系统实

长按扫码 阅读全文

Baidu
map