取消
加载中...
谷歌发布TensorFlowPrivacy 提升AI模型隐私保护
2019-03-07 18:40

三言财经3月7日消息,据外媒报道,谷歌近日发布了 TensorFlowPrivacy 提升AI模型隐私保护,开发者只需添加几行额外的代码,就能提高其AI模型的隐私性。

TensorFlow是构建机器学习应用最流行的工具之一,目前世界各地的开发人员都使用它来创建文本、音频和图像识别算法等程序。今日,在加州举办的“TensorFlow开发者峰会”上,谷歌又推出了新模块“TensorFlow Privacy”。


伴随着TensorFlow Privacy的引入,这些开发人员能够使用“差异隐私”的统计数据来保护用户的数据。


谷歌产品经理Carey Radebaugh向外媒The Verge透露,发布这款工具是谷歌履行对人工智能的承诺和愿景。他说道:“如果我们没有为TensorFlow引入差异化隐私技术,那么无论是团队内部还是Google外部用户在使用过程中就会发现有些不太简单。因此对于我们来说将其引入TensorFlow是非常重要的,我们还将会对其进行开源,并开始围绕着它创建新的社区。”


差异隐私的机制有点复杂,但它本质上是一种数学方法,这意味着用于培训AI模型的用户数据并不能编码个人可识别信息。这是在AI模型中保护个人信息的常用方法:苹果在iOS 10上引入了自家的AI服务的,而Google在Gmail的Smart Reply等部分AI功能中也使用到了这项技术。



已经在的数据隐私领域工作了20年的谷歌研究科学家lfarErlingsson表示:差异化隐私技术以“数学确定性”消除了编码个人数据的可能性,他表示这是一种从数据集中删除可识别的异常值而不改变数据的聚合含义的技术。


谷歌的研究科学家lfarErlingsson说,他已经在数据隐私领域工作了20年。 Erlingsson告诉The Verge,这是一种从数据集中删除可识别的异常值而不改变数据的聚合含义的技术, “你的结果独立于任何一个人的[数据],但这仍然是一个很好的结果。”

文章总数