首页 > 业界 > 关键词  > AI大模型最新资讯  > 正文

AI投毒案!GPT写的代码竟有后门 程序员被骗1.8万元

2024-11-24 07:50 · 稿源: 快科技

随着AI大模型技术的蓬勃发展,各行各业的工作效率正在显著提高。

比如在编程领域,AI工具不仅能辅助编写代码,还能高效解决程序漏洞,成为程序员的得力助手。

然而,近日发生的事件引发了人们对AI安全性的担忧。

据悉,一位英国程序员在使用GPT生成的代码时遭遇损失。他按照GPT提供的代码操作,私钥被泄露给钓鱼网站,导致损失2500美元。

网友"余弦"发文警示,在使用GPT等大型语言模型时需保持警惕,因为它们存在欺骗风险。

分析发现,GPT生成代码时引用了一个来自GitHub的恶意项目,这是一场精心设计的钓鱼"陷阱"。

不幸的是,GPT在事件中成为无辜受害者,但其生成的代码给用户带来了严重后果。

此次事件表明,我们在享受AI便利的同时,也必须关注其潜在安全风险。开发者在使用AI辅助工具时应保持谨慎,避免盲目信任机器生成的代码或建议。

AI投毒第一案!GPT写的代码竟有后门 程序员被骗1.8万元

举报

  • 相关推荐