谷歌发布TensorFlow,用于测试人工智能模型的隐私保护

克日,谷歌公布了隐私珍爱TensorFlow工具包,可以评估种种机械学习分类器的隐私属性。谷歌示意,它旨在成为一个隐私测试套件的基础,不管AI开发者的手艺水平崎岖都可以使用它。

谷歌发布TensorFlow,用于测试人工智能模型的隐私保护

当前,种种人工智能隐私手艺仍然是社区内争论的话题,但还没有一个规范的指南来确立一个私有模子。而越来越多的研究解释人工智能模子可以泄露训练数据集的敏感信息,从而发生隐私风险。TensorFlow隐私珍爱所接纳的缓解方式是差分隐私,它在训练数据中添加噪声以隐藏单个示例。据领会,这种噪声是以学术上最坏的情形去设计的,同时会显著影响模子的准确性。

因此,这促使谷歌的研究人员在追求另一种选择。新的TensorFlow隐私模块支持的成员推断攻击方式,确立分类器来推断训练数据集中是否存在特定样本。分类器越正确,影象就越多,因此模子的隐私珍爱就越少,做出高精度展望的攻击者将乐成找出训练集中使用了哪些数据。

新模块提供的测试是黑盒,这意味着它们只使用模子的输出,而不是内部或输入样本。它们发生一个破绽得分,确定模子是否从训练集中泄露信息,而且它们不需要任何再训练,使得它们相对容易执行。

“在内部使用成员关系推断测试之后,我们将与开发人员共享这些测试,以辅助他们构建更多的私有模子,探索更好的架构选择,使用正则化手艺,如提前住手、退出、权重衰减和输入增强,或网络更多数据。”谷歌Brain的双歌和谷歌软件工程师David Marn在TensorFlow博客上对外示意。

另外,谷歌示意:“往后,它将探索将成员推断攻击扩展到分类器之外的可行性,并开发新的测试。它还设计通过将新的测试与用于部署生产机械学习管道的端到端平台TensorFlow Extended(TFX)集成,探索将新的测试添加到TensorFlow生态系统中。”

雷锋网领会到,谷歌在去年炎天开放的基础差异隐私库中增加了对Go和Java的支持,还提供了Beam上的隐私,基于Apache Beam(一个特定于语言的sdk模子和聚集)构建的端到端差异隐私解决方案,它依赖于差异隐私库的低级构建块,并将它们组合成一个“开箱即用”的解决方案,该解决方案思量了差异隐私所必须的步骤。

此外,谷歌还推出了一个新的隐私损失分配工具,用于跟踪隐私预算,允许开发者对网络差异私人查询的用户隐私总成本举行估量,并更好地评估其管道的总体影响。雷锋

声明: 本文由入驻基智地平台的作者撰写,观点仅代表作者本人,不代表基智地立场;基智地发布此信息的目的在于传播更多信息,与本站立场无关。