11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
一项新研究发现,OpenAI的ChatGPT等大型语言模型经常重复阴谋论、有害的刻板印象和其他形式的错误信息。图源备注:图片由AI生成,图片授权服务商Midjourney最近的一项研究中,加拿大滑铁卢大学的研究人员系统地测试了ChatGPT对六个类别的声明的理解。”研究中,研究人员使用了四种不同的调查模板,询问了超过1200个不同的陈述,涵盖了六个类别的事实和错误信息。
对大型语言模型的新研究表明,它们重复了阴谋论、有害的刻板印象和其他形式的错误信息。在最近的一项研究中,滑铁卢大学的研究人员系统地测试了ChatGPT早期版本对六类陈述的理解:事实、阴谋、争议、误解、刻板印象和虚构。”布朗补充道:“毫无疑问,大型语言模型无法区分真实与虚构,这将成为未来很长一段时间内对这些系统信任的基本问题。
加拿大的一位高级网络安全官员表示,黑客和宣传人员正在利用人工智能来创建恶意软件、起草令人信服的网络钓鱼电子邮件并在网上传播虚假信息。这种现象对于网络安全形势来说是一个巨大的威胁。他们还提出了一些建议,包括加强对AI技术的监管和审查,提高网络安全意识和素养,加强网络安全教育和培训。
苹果公司联合创始人史蒂夫·沃兹尼亚克警告说,人工智能可能使诈骗和错误信息更难发现。沃兹尼亚克说,他担心这项技术会被「坏人」所利用。苹果公司的现任+CEO+蒂姆·库克上周告诉投资者,在如何处理人工智能方面「深思熟虑」很重要:「我们认为人工智能是强大的,我们将继续在非常深思熟虑的基础上将其编织到我们的产品中。
一直以来,关于AI是否侵权的相关话题的讨论就没有停止。自从ChatGPT打开了生成式AI新大门,AI侵权的风险被进一步放大。生成式AI是从2022年才开始爆火,时间还很短,但是我们一系列争议和诉讼中也要看到积极的一面,这些都是促使AI版权完善的重要途径。
此前已有无数研究表明,不准确或误导性的视频无处不在,而算法可能盲目地将此类视频推送给更多人...之前一种策略是将人们与来自传统循证科学服务的信息联系起来,其中包括了医院、疾控中心和卫生当局的来源...为了避免人们误入歧途,油管显然需要对个人故事展开科学审查,以从源头阻断虚假信息的传播...所以在一支临床医生团队的帮助下,该平台首先需要确保个人故事没有超出传统循证健康信息的范畴...但在此之外,他们也希望允许人们从健康角度获得各种不同的体验......
他写道:“Meta的COVID-19信息中心已经将189个国家的20多亿人与有用的、权威的COVID-19信息联系起来...
毒理学家也对社交媒体上分享的危险的DIY堕胎方法表示担忧...
YouTube正在逐步为内容创作者提供一种对错误信息发布更正的方式...YouTube正在推出一项名为“更正”(Corrections)的新功能,让创作者轻松地对错误进行澄清...这很容易被错过,而且会有大量的评论强调这个错误并提供更正...但目前还不清楚这种方法是否能帮助内容创作者避免因包含错误信息而受到惩罚...
据报道,Facebook的母公司Meta公司正面临新的举报人投诉,指控该公司在应对气候变化和COVID-19错误信息方面误导了投资者。据《华盛顿邮报》周五报道,这两份新的投诉是由检举人援助组织本月向美国证券交易委员会提交的,该组织是一个非营利组织,代表前Facebook产品经理,同时也是举报人Frances Haugen。 媒体援引经编辑的文件副本报道说,这些投诉指称Facebook在对投资者的声明中作出了"重大失实陈述"并遗漏了有关其努力阻止其平台上的错误信息的叙述。检举人援助组织没有立即回应评论请求。美国证券交易委员会拒绝发表评论。 据《邮报》