《 1元购健康宝查询方法》 “ 2张70多元的艺术家健康宝藏照片” ...最近,许多名人的核酸检测照片的泄漏再次引起人们对人脸识别信息安全性的担忧。
“一次泄漏,终身风险的面部识别特征”造成这种安全隐患的影响可能是长期的”。
1月14日,中国科学院自动化研究所研究员,北京致远人工智能研究所AI伦理中心主任,《时代周刊》记者曾毅独家采访国家新一代人工智能治理委员会表示,面对诸如挽救生命之类的严重问题,不应在任何程度上放松AI伦理的红线。
在该流行病中,如何避免面部识别技术收集的海量数据泄露隐私已成为公众普遍关注的话题。
曾毅认为,在与人脸识别相关的产品和服务中,设计,研发,使用和部署的整个生命周期都应符合道德要求。
隐私数据保护缺勤周刊:最近,大量名人核酸测试照片从互联网上泄露,其中包括杨幂,鹿寒,李一峰,王媛等众多名人的核酸测试结果,以及照片。
在微信群上不补妆。
这种现象揭示了什么问题?曾毅:通过这种现象,我们可以看到,一方面,一些从事政府信息系统建设的公司未能有效地保护公民。
关键私人数据。
另一方面,有关政府机构迫切需要在包含公民私人数据的应用程序,特别是政府委托的相关应用程序服务的数据保护方面加强管理和监督。
可以看出,通过输入一些信息就可以获得与他人核酸检测有关的详细信息的原因是,从系统设计的角度出发,存在着一种非严格的伦理设计。
他人委托调查的功能仍然具有现实意义。
例如,仍然需要儿童和朋友等非移动电话用户来帮助老人,但是如何确认调查结果是由当事人授权以确保知情同意是系统设计和实施过程。
经过深思熟虑并通过技术实现。
时代周刊:您曾经提到从人工智能模型中删除数据非常困难。
目前,几乎没有公司可以在经过训练的人工智能模型中从模型中删除某些用户数据的影响。
现在仍然是这种情况吗?曾Yi:不幸的是,这仍然是目前的情况。
尽管显然存在此问题,但尚未引起学术界和工业界的足够重视。
安全风险影响长期的《时代周刊》:在人脸识别的应用场景扩展之后,安全的重要性会变得越来越重要吗?我们是否保护数据?曾Yi:目前,人脸识别的应用领域正在迅速发展,但是相关的负责任和道德的设计无法跟上应用领域的扩展需求。
显然,从技术研发部门到监管部门都没有为数据保护做好充分准备。
人脸识别的“一次泄漏,终生风险”的特征增加了风险的不确定性。
在与人脸识别相关的产品和服务中,设计,研发,使用和部署的整个生命周期都符合道德要求,因此,将来对于人脸识别的研究,开发和应用,必须避免潜在的安全隐患。
每周时报:人脸识别的准确性需要大量的人脸数据来“馈送”。
对于某些用户而言,面部数据的收集通常缺乏选择和了解的权利。
人脸识别的使用边界在哪里?我们怎么不能越过AI伦理红线?曾毅:必须在我国的个人数据保护法规中明确规定知情同意。
实际上,没有任何谈判的余地。
下一个重要任务是人工智能研究与开发和服务企业的自律和自主权。
此外,主管当局协调了多方的治理,指导和监督了技术实施政策的实施,并实施了数据和人工智能服务的合规性开发。
中国科学院