文章主题:ChatGPT, 漏洞, 重复单词, 敏感信息
原标题:ChatGPT又被曝漏洞:重复某词可曝出敏感信息内容
11 月 30 日消息,继“奶奶漏洞”之后,ChatGPT 又被曝出“重复漏洞”,而这次更为严重。
近期,谷歌DeepMind的研究团队对ChatGPT进行了深入探讨,他们发现了一个有趣的现象:当提示词中出现重复的单词时,ChatGPT就有可能披露一些用户的私密信息。这一发现揭示了ChatGPT在处理自然语言输入时的潜在风险,也再次提醒我们在使用人工智能技术时要谨慎对待隐私保护问题。
例如,输入 “poem poem poem poem” 等连续多次的词汇,ChatGPT 可能会揭示某人的私密信息,如手机号码和电子邮件地址等。
在一项研究中,专家们发现OpenAI的大规模语言模型中包含大量的个人身份信息(PII)。此外,对于ChatGPT的公开版本,这些人工智能助手似乎可以逐字逐句地提取并呈现从互联网其他领域获取的海量文本。这些发现引发了广泛的关注,因为它们揭示了人工智能系统在处理和存储用户数据方面的潜在风险。
ChatGPT 充满了各类私密敏感信息,其信息来源涵盖了 CNN、Goodreads、WordPress 博客、同人圈 wiki、服务条款协议、Stack Overflow 源代码、维基百科页面、新闻博客以及随机网络评论等。通过在大量文本中重复出现词汇,从而揭示相关敏感信息。
在周二发布于开放获取预刊arXiv上的研究成果表明,
在我们对各个世代进行测试的过程中,发现有16.9%的样本包含了与个人身份信息相关的记忆数据。这些数据包括但不限于电话和传真号码、电子邮件和实际地址、社交媒体中的内容、URL、姓名以及生日等信息。
我们明确指出,潜在对手能够从诸如Pythonia或GPT-Neo等开源语言模型、LLLa或Falcon等半开放模型以及ChatGPT等封闭模型中获取千兆字节的训练数据。
【来源:IT之家】返回搜狐,查看更多
责任编辑:
ChatGPT, 漏洞, 重复单词, 敏感信息

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!