《 人民日报 》( 2017年10月27日 20 版)
■人工智能的发展不能以牺牲隐私权为代价,收集要授权,使用有界限,存储应保护,是人工智能时代兼顾高度智能化与隐私安全的重要原则
为保护隐私,人们发布照片或视频时,会打上马赛克覆盖人脸关键敏感信息,但这种模糊处理的方法正面临挑战。不久前,美国一个研究小组开发了一套机器学习算法,通过训练,神经网络可以识别图像或视频中隐藏的信息。让人担忧的是,研究人员用到的只是通用的人工智能机器学习方法,并非只有少数人才能掌握的“黑科技”。
研究人员不是为了窥探隐私而来,但这项研究向人们警示了人工智能时代信息安全和隐私保护的风险。人类正加速走进人工智能时代。与互联网相比,人工智能更需要数据的支撑。可以说,人工智能总体上由数据驱动,没有数据,它无法进行配对训练、识别、预测,也就不能理解人们的需求,人们也享受不到精准、智慧的服务。而随着越来越多的数据被收集、被分析,信息泄露的风险随之增加。
技术更新迭代是推动社会进步的重要力量,人们不能因隐私问题而因噎废食,但人工智能的发展也不能以牺牲隐私权为代价。未来智慧生活中,高度智能化与高度隐私安全如何兼得,笔者认为,至少应当遵守三条原则,即收集要授权,使用有界限,存储应保护。
人们有时必须把信息让渡出去,才能享受到智能化的服务。从一定程度上说,人工智能时代人的“透明化”趋势不可逆转。但必须明确,任何机构或个人在收集、利用个人信息时,需先得到用户授权。用户有知情权和选择权,即知道哪些信息被收集以及选择是否让渡。此外,所有信息应归属于用户本人,诸如互联网公司等商业机构只是“借用”,它们所拥有的应当是数据分析的结果,而不是其所有权和处置权。
即便获得授权,信息收集方也不得滥用用户赋予的数据。人们提交车辆位置信息,可能是为了获得智慧交通出行服务,而不是受到门类繁多的车险产品骚扰;人们完善资料,填写收入、职业信息,可能是为了完善信用体系,而不想接收来路不明的理财信息。信息收集有度,使用也应有边界。而对于敏感的密码、指纹、签名字迹、人脸特征等身份认证信息,更应该有明晰的界限,除特定的情况并征得用户授权外,用户本人应绝对掌控,信息采集方也无权违规使用。
保护隐私,信息收集方也要承担起保障数据安全的义务。不久前出台的《网络安全法》就明确提出了“谁收集、谁负责”的原则。数据已经成为优质资产,过去因为系统漏洞或防护能力不强等原因,一些知名互联网公司都发生过黑客入侵,造成大量用户隐私数据泄露的事故。这种现象不应再重演。
应当看到,人工智能并非隐私保护的天敌。利用得当,它还能成为保护隐私的利器。比如,基于行为分析,人工智能可以快速检测出恶意软件,通过机器学习还能及时检测异常网络流量行为,预警黑客入侵,从而提升网络安全防御水平。
当然,搭好隐私保护的屏障,用户也要提高自身安全意识。如非必要,尽量不要在一些网站上提交个人信息;要访问正规的网站,避免被钓鱼网站骗取个人信息等。只有明确权责,各方协同,人们才能真正畅快无忧地享受人工智能的便捷。
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。