在1月31日的新闻报道中,有媒体披露了OpenAI的人工智能聊天机器人ChatGPT存在新的安全漏洞。该机器人于2022年11月30日由OpenAI发布,其功能包括生成文章、故事、歌词、散文、笑话以及代码,还能回答各种问题。生成式AI技术在某些场景下非常有用,但也存在诸多挑战。
本周一,媒体引用了一名用户的截图,报道指出ChatGPT存在泄露私人对话的问题,其中包括非目标用户的用户名、密码以及其他个人信息。泄露的对话内容还涉及某人的演示文稿名称、未发表的研究提案细节以及使用PHP编程语言的脚本。每次泄露的对话对象似乎都是不同的,彼此之间没有关联。
OpenAI对此表示,媒体报道并不准确,用户报告的ChatGPT历史记录是由于其账户被盗用导致的。显示的聊天历史和文件是该账户被滥用的对话,而不是ChatGPT向其他用户显示了他们的历史记录。OpenAI已对此事件展开调查。
值得注意的是,这并非ChatGPT首次面临信息泄露问题。在2023年3月,由于一个漏洞,该网站曾向无关用户展示活跃用户的聊天记录标题。当时,该公司报告称,在将ChatGPT下线前几个小时内,一些用户可以看到另一个活跃用户的姓名、电子邮件地址、支付地址、信用卡号的后四位数字以及信用卡到期时间。随后,OpenAI修复了漏洞并报告了该问题的技术细节。
此次,ChatGPT首次遭遇重大个人数据泄露事件。对此,OpenAI发布声明详细解释了事件经过,并向用户和整个ChatGPT社区致歉。2023年11月,谷歌的研究人员发现,通过特定方式要求ChatGPT重复某些单词,可以使其泄露用于训练的数据,包括个人数据(如姓名、电子邮件、电话号码等)、研究论文和新闻文章片段、维基百科页面等。OpenAI在2023年8月30日修复了这一漏洞。
由于担心专有数据或私人数据泄露,苹果等公司已限制员工使用ChatGPT和类似网站。本周一,意大利数据保护局宣布,OpenAI的ChatGPT及其收集用户数据的技术违反了该国的隐私法。调查已于2023年3月底启动,调查结果已告知OpenAI,该公司有30天时间回应。
(举报)