作者:南博一 张逸笑 来源:澎湃新闻 发布时间:2023/3/23 15:04:01
选择字号:
ChatGPT用户聊天标题会被他人看到,引发数据隐私安全担忧

 

近日,在社交平台Reddit和推特上,有用户分享了在聊天机器人ChatGPT上看到了不属于自己的聊天记录。ChatGPT的企业负责人表示,ChatGPT近日被发现存在漏洞,用户可以看到其他用户与ChatGPT对话的标题。

英国广播电视公司(BBC)3月23日报道称,自20日起,有ChatGPT用户就开始看到他们的历史记录中出现了自己不曾与ChatGPT进行过的对话标题。

自去年11月推出以来,已有数百万人使用ChatGPT起草消息、创作歌曲甚至编写代码。与ChatGPT的对话都存储在用户的聊天记录栏中,以便重新访问。

OpenAI首席执行官山姆·奥特曼表示,对于这个漏洞,OpenAI“感觉很糟糕”,很快就会执行“技术事后分析”。21日,该公司告诉彭博社,它已在20日短暂禁用ChatGPT以修复错误,且用户无法访问其他用户除标题以外的实际聊天记录。

不过,该漏洞已经引起了ChatGPT用户的担忧,他们担心私人信息被泄露。

报道称,这个漏洞似乎表明OpenAI可以访问用户的聊天记录。该公司的隐私政策显示,在个人身份信息被删除后,相关的用户数据,例如提示和响应,可能会被用于进一步的模型训练。

未来今日研究所(Future Today Institute)负责人兼纽约大学商学教授艾米·韦伯(Amy Webb)向BBC表示,人工智能在未来 10 年可能有两个发展方向:在乐观情况下,人工智能的发展侧重于公共利益,系统设计透明且个人能够选择是否将他们在互联网上的公开信息纳入AI知识库。该技术作为一种工具来预测用户的需求,并帮助完成几乎任何任务。

而灾难性情况则为,未来数据隐私将变得更少,更多权力集中在少数几个公司,彼时人工智能或错误预测用户需求,或者扼制用户选择。

韦伯认为,乐观情况只有20%的可能会出现。她告诉 BBC,人工智能的发展方向最终在很大程度上取决于公司。他们这样做是否透明?是否揭示并监督聊天机器人的信息来源?另一个因素是政府,它是否可以迅速采取行动以建立法律保障来指导技术发展并防止其被滥用。

“然而,从政府与社交平台公司的过往可见,这并不乐观。”韦伯说道。

 
 
 
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。
 
 打印  发E-mail给: