人工智能有一个很大的隐私问题,欧洲的新数据保护法即将暴露它

2018年5月25日上午10:52 UTC

“人工智能”技术最近发展如日中天,但它即将遇到一个重大障碍:欧洲新的《通用数据保护条例》(GDPR)

这项于上周五在欧盟范围内生效的隐私法,有几项内容将会生效让公司的日子很不好过据一位领先的互联网法律学者说,他正在构建机器学习系统。

“大数据完全违背了数据保护的基础,”苏格兰格拉斯哥斯特拉斯克莱德大学(University of Strathclyde)的法学教授莉莲·爱德华兹(Lilian Edwards)说。“我认为,人们说我们可以让两者和解,这是非常狡猾的,因为这非常困难。”

问题来了。机器学习——我们称之为人工智能的基础——涉及逐步改进自身的算法。他们通过大量利用数据来做到这一点。它们消耗欧宝球网站得越多,就越善于发现模式:让机器人更容易听起来像人类的语音模式;帮助自动驾驶汽车系统识别道路上物体的视觉模式;训练银行的人工智能系统更好地发现欺诈行为的客户行为模式。

与此同时,这些算法不断进化,超出了创造者的理解,数据以新的神秘的方式与其他数据结合。

现在让我们来看看GDPR,它说:

  • 当他们收集个人数据时,公司必须说明这些数据将被用于何处,而不是用于其他任何用途。
  • 公司应该尽量减少他们收集和保存的数据量,将其限制在这些目的绝对必要的范围内,他们也应该限制他们保存这些数据的时间。
  • 公司必须能够告诉人们他们持有哪些关于他们的数据,以及他们在用这些数据做什么。
  • 如果有人提出要求,公司应该能够修改或删除人们的个人数据。
  • 如果个人数据被用于对个人进行自动化决策,企业必须能够解释决策过程背后的逻辑。

看到问题了吗?

爱德华兹说:“大数据挑战了目的限制、数据最小化和数据保留——大多数人都无法通过大数据摆脱这些问题。”“它挑战了透明度和同意的概念,因为如果不知道你同意的目的是什么,你就不能合法地同意……算法透明度意味着你可以看到决策是如何达成的,但你不能使用(机器学习)系统,因为它不是基于规则的软件。”

根据这位教授的说法,当公司使用人们的数据来推断关于他们的事情时,这个问题变得更加令人担忧——敏感的个人欧宝球网站数据,包括性取向、政治和宗教信仰等,在GDPR下得到了更强的保护。

通常情况下,GDPR为公司提供了其他法律理由,他们可以利用这些理由来处理人们的数据,比如需要使用这些数据来提供核心服务。但涉及到这种敏感数据,人们必须明确表示同意吗对它的处理。

“如果是敏感数据,就会有‘免罪’卡。人们试图逃避的另一种方式是说,‘我们没有处理个人数据,因为我们是匿名化的,’”爱德华兹说。“但如果你获得足够多的大数据,并将其与其他大数据相结合,你几乎可以重新识别每个人。这不符合GDPR中匿名数据的定义。现在的定义是,如果你可以用你拥有的数据把人挑出来,那么你就拥有了个人数据。”

如果你的机器学习系统充满了个人数据,那么根据GDPR,必须有可能将这些信息从混合中提取出来,改变它,限制对它的处理,并解释系统是如何工作的。

爱德华兹补充说:“公平地说,我正在与那些试图生产可解释系统的人合作,但目前它仍然非常学术。”

阅读更多欧宝球网站

人工智能 Cryptocurrency 元宇宙 网络安全 科技前进