11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
一项新研究发现,OpenAI的ChatGPT等大型语言模型经常重复阴谋论、有害的刻板印象和其他形式的错误信息。图源备注:图片由AI生成,图片授权服务商Midjourney最近的一项研究中,加拿大滑铁卢大学的研究人员系统地测试了ChatGPT对六个类别的声明的理解。”研究中,研究人员使用了四种不同的调查模板,询问了超过1200个不同的陈述,涵盖了六个类别的事实和错误信息。
对大型语言模型的新研究表明,它们重复了阴谋论、有害的刻板印象和其他形式的错误信息。在最近的一项研究中,滑铁卢大学的研究人员系统地测试了ChatGPT早期版本对六类陈述的理解:事实、阴谋、争议、误解、刻板印象和虚构。”布朗补充道:“毫无疑问,大型语言模型无法区分真实与虚构,这将成为未来很长一段时间内对这些系统信任的基本问题。
加拿大的一位高级网络安全官员表示,黑客和宣传人员正在利用人工智能来创建恶意软件、起草令人信服的网络钓鱼电子邮件并在网上传播虚假信息。这种现象对于网络安全形势来说是一个巨大的威胁。他们还提出了一些建议,包括加强对AI技术的监管和审查,提高网络安全意识和素养,加强网络安全教育和培训。
苹果公司联合创始人史蒂夫·沃兹尼亚克警告说,人工智能可能使诈骗和错误信息更难发现。沃兹尼亚克说,他担心这项技术会被「坏人」所利用。苹果公司的现任+CEO+蒂姆·库克上周告诉投资者,在如何处理人工智能方面「深思熟虑」很重要:「我们认为人工智能是强大的,我们将继续在非常深思熟虑的基础上将其编织到我们的产品中。
一直以来,关于AI是否侵权的相关话题的讨论就没有停止。自从ChatGPT打开了生成式AI新大门,AI侵权的风险被进一步放大。生成式AI是从2022年才开始爆火,时间还很短,但是我们一系列争议和诉讼中也要看到积极的一面,这些都是促使AI版权完善的重要途径。
此前已有无数研究表明,不准确或误导性的视频无处不在,而算法可能盲目地将此类视频推送给更多人...之前一种策略是将人们与来自传统循证科学服务的信息联系起来,其中包括了医院、疾控中心和卫生当局的来源...为了避免人们误入歧途,油管显然需要对个人故事展开科学审查,以从源头阻断虚假信息的传播...所以在一支临床医生团队的帮助下,该平台首先需要确保个人故事没有超出传统循证健康信息的范畴...但在此之外,他们也希望允许人们从健康角度获得各种不同的体验......
接下来几周时间内,谷歌将在波兰与捷克斯洛伐克投放视频广告,旨在帮助网民辨识与驳斥反移民的不实负面报道...接下来几周,Jigsaw 将在波兰和捷克斯洛伐克等地投放一系列视频广告,以帮助人们识别并反驳与难民相关的不实负面报道...需要指出的是,这些视频投放不仅是为了提升 YouTube 声誉,也是 Jigsaw 长达数年的研究项目的一部分...Jigsaw 希望借助视频的力量,给在社交媒体上可能遇到各种错误信息的人打一剂预防针,以免其受到偏执的影响......
在Twitter跟埃隆·马斯克的法律斗争及其前安全主管变成举报人的混乱中,这家公司正在将其打击错误信息和有害内容的团队跟负责删除垃圾邮件账户的团队合并...路透社的报道指出,现任和前任员工认为,团队重组可能无济于事,因为问题上的垃圾邮件账户问题的原因历来比一个团队可以单独管理的问题更深...在今年早些时候提交给美SEC、FTC和DOJ的一份投诉中,该公司的前安全主管Peiter"Mudge"Zatko强调了Twitter对垃圾邮件账户的不当处理......
他写道:“Meta的COVID-19信息中心已经将189个国家的20多亿人与有用的、权威的COVID-19信息联系起来...
毒理学家也对社交媒体上分享的危险的DIY堕胎方法表示担忧...