文章主题:谷歌, OpenAI, ChatGPT, 敏感信息
原标题:谷歌称OpenAI ChatGPT可泄露敏感信息
2023-11-30 11:41:25 作者:姚立伟
最近,谷歌的研究人员发现了一个令人震惊的事实:OpenAI公司所开发的人工智能助手ChatGPT竟然能够泄露其训练数据中的机密信息。这些信息包括真实人物的识别信息以及私人信息等。据相关资料显示,ChatGPT是一款创新型的人工智能聊天工具,它可以根据用户的要求迅速生成各种类型的文本,如文章、故事、歌词、散文、笑话等,同时也可以回答各类问题。这一发现无疑对人工智能领域的安全性提出了严重的质疑,同时也让我们更加深入地了解了人工智能技术的潜在风险。
在短短两个月的时间里,ChatGPT的月活跃用户数量已经攀升至1亿,堪称历史上增长最为迅速的消费应用之一。尽管OpenAI首席执行官萨姆·奥尔特曼在首届开发者大会上宣称,ChatGPT的周活跃用户数也早已达到1亿,但这个数据仍引发了广泛的关注。
据Google Brain的高级研究科学家Katherine Lee透露,我们在今年7月份发现了该漏洞,并计划在8月30日向OpenAI发出通知。在遵循标准的90天披露期后,我们于同月发布了一项重要更新。鉴于我们已经向OpenAI通报了此事,当前情况或许已经发生了变化。
在深入探究ChatGPT的研究过程中,研究人员们意外地发现了一种能够获取训练数据的方法。具体而言,他们提出了一种要求ChatGPT不断重复特定词汇的策略,从而使得ChatGPT不经意间暴露了包括个人姓名、电子邮件、电话号码在内的敏感信息。此外,这种方法还能让ChatGPT泄露诸如研究论文摘要、新闻文章片段以及维基百科页面等内容。
这一漏洞引发了严重的隐私问题,尤其是对于那些在包含敏感信息的数据集上进行训练的模型而言。 返回搜狐,查看更多
责任编辑:
谷歌, OpenAI, ChatGPT, 敏感信息
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!