查看原文
其他

我们如何利用差分隐私技术帮助开发者

TensorFlow TensorFlow 2021-08-05

文 / Miguel Guevara,产品经理,隐私与数据保护


Google 认为创新和隐私必须携手并进。年初,我们分享了在保障人们网络安全方面所做的工作,包括在差分隐私 (Differential Privacy) 技术等领先隐私技术方面的投入。今天,我们想要分享一些最新进展,介绍在产品中应用差分隐私技术的几种新方式,以及如何使全球开发者和企业更容易使用该技术:为其提供更多获取数据和数据分析的途径,同时保护人们个人信息的私密性和安全性。 

  • 工作
    https://blog.google/technology/safety-security/our-work-keep-you-safe-and-control-your-privacy/



利用差分隐私技术增强核心产品

差分隐私技术是世界一流的匿名化技术,约 7 年前首次在 Chrome 中部署,如今已频繁在 Google 地图和 Google 助理等产品中使用。在去年全球抗击新冠肺炎之际,我们发布了新冠肺炎社区人员流动情况报告,通过差分隐私技术帮助全球公共卫生部门、经济学家和决策者为其社区做出重要决策,同时确保在任何时候都不会泄露个人身份信息。

  • 在 Chrome 中部署
    https://www.chromium.org/developers/design-documents/rappor

  • 流动情况报告
    https://blog.google/technology/health/covid-19-community-mobility-reports/


在今年的 Google Play 管理中心中,我们将以差分隐私方式为开发者提供全新的应用指标和基准。发布后,开发者可以轻松获取相关指标,了解其应用在吸引用户方面的成功程度,如每日活跃用户数量和每位活跃用户带来的平均收入,这种方式有助于确保应用不会识别或重新识别个人用户。在不侵犯用户隐私或损害开发者机密性的前提下,我们在这些全新的应用指标中引入差分隐私技术,提供有效的数据分析,帮助开发者改进应用。未来我们计划使用差分隐私技术为开发者提供更多指标。 



扩大差分隐私技术的使用范围 

我们将隐私保护技术应用于产品并不断取得进展,但对于我们而言,开发者能够使用这项技术同样重要。因此我们在 2019 年开源了差分隐私库,便于全球开发者自由获取和部署,并对他们有所帮助。从那时起,成百上千的开发者、研究人员和机构就将 Google 差分隐私技术算法运用到自己的工作中,以此解决新问题,同时以负责任和保护隐私的方式使用数据。法国医疗保健初创公司 Arkhn 便是其中一例。借助差分隐私技术,Arkhn 很有可能实现利用人工智能改革医疗保健行业的使命,以安全可靠的方式收集、查询和分析跨部门医院数据。

  • 开源了差分隐私库
    https://developers.googleblog.com/2019/09/enabling-developers-and-organizations.html

  • Arkhn
    https://services.google.com/fh/files/misc/arkhn-case-study.pdf


OpenMined 是一个由开源开发者组成的团队,致力于使用隐私保护技术并将其推向全球。为将我们世界一流的差分隐私库分享给更多开发者团队(如 Arkhn 的开发者团队),今天我们很高兴宣布与其建立新的合作伙伴关系。我们将携手 OpenMined,专门为 Python 开发者开发出一版差分隐私库。Python 开发者可复制 Google 的差分隐私技术基础架构,使用世界一流的隐私技术,以独特的全新方式处理其数据。

  • OpenMined
    https://services.google.com/fh/files/misc/casestudy_openmined_final.pdf

  • 差分隐私库
    https://github.com/google/differential-privacy/


与去年的工作一样,我们将继续努力,使现有的差分隐私库更便于开发者使用。例如,本月我们开源了全新的差分隐私数据库查询语言扩展程序,该扩展程序应用于 Google 每天进行的成千上万次查询中。这些查询有助于分析师获取企业数据分析及观察产品趋势。这是迈向隐私安全数据分析大众化的一步,使全球数据科学家能够在保护尊重个人隐私的同时,生成有效的数据分析。

  • 差分隐私数据库查询语言扩展程序
    https://github.com/google/differential-privacy/tree/main/examples/zetasql 



以合作方式推进机器学习水平

两年前,我们推出了开源库 TensorFlow Privacy (GitHub),开发者不仅能借此在保护隐私的前提下轻松训练机器学习模型,还能够轻松让研究人员在强大的隐私保证下推进机器学习水平。去年我们对该开源库进行扩展,新增对 TensorFlow 2、Keras 模型界面和 TensorFlow 预制 Estimator 的支持。我们与滑铁卢大学研究人员合作,改进了其性能,新版本在普通工作负载上的训练速度提升到四倍以上。

  • GitHub
    https://github.com/tensorflow/privacy


我们也认识到,利用隐私进行训练可能成本过高,或者根本行不通,所以便开始了解隐私机器学习模型。为解决这一问题,我们于去年开源了隐私测试库,使测试库的所有使用者都可以更加全面地了解机器模型的隐私行为。从那时起,我们便开始与普林斯顿大学和新加坡国立大学的研究人员合作,他们通过增加新特性扩大库的范围,测试生成模型和非神经网络模型。近期,斯坦福医学院的研究人员尝试在其模型上使用该攻击库测试记忆力。这一测试帮助他们了解模型的隐私行为,这在之前根本不可能实现。


我们还发布了新研究,探讨在差分隐私和稳健性(AI 伦理、隐私和安全方面的另一个核心属性)之间的权衡。

  • 差分隐私和稳健性
    https://arxiv.org/pdf/2011.14580.pdf


我们的工作还在继续:投资世界一流的隐私政策,在培养和扩展健康开源生态系统的同时,为使用产品的用户提供算法保护措施。我们坚信,全球所有人都应享有世界一流的隐私保护,因此我们将继续与组织合作,实现这一使命。 


引用媒体分享:

TensorFlow Privacy 正帮助 Gretel AI (http://gretel.ai/) 等初创公司实现其使命:为隐私和数据共享应用提供解决方案。创始人兼首席执行官 Alex Watson 解释道:“Gretel.ai 正在构建 API,用以简化数据匿名化操作,并解锁此前因隐私问题而无法访问的数据集。TFP 在隐私方面提供了强大的数学保证,使这一切成为可能。”



点击 “阅读原文” 访问 GitHub。

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存