11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
美国联邦调查局指控一名美国男子制作了10,000多张儿童色情和虐待图像,据称他使用流行的人工智能工具生成了这些图像。当局还指控这名42岁的男子史蒂文·安德雷格在Instagram上向一名15岁的男孩发送色情的人工智能图像。一些州已经通过了法律,禁止在未经同意的情况下生成露骨图像司法部则表示,生成儿童的性人工智能图像是非法的。
在一份写给政府和技术提供商的报告中,总部位于英国的互联网观察基金周二警告称,互联网上已存在的儿童性虐待图像问题可能会变得更加严重,如果不对生成深度伪造照片的人工智能工具进行控制的话。该监管机构敦促各国政府和技术提供商在深度伪造的儿童性虐待图像席卷执法调查人员、并极大扩大潜在受害者的范围之前迅速采取行动。怎样才能做到让他们不能使用公开可用的软件来创建这种有害内容呢?”大多数人工智能生成的儿童性虐待图像在美国、英国和其他地方的现行法律下都被视为非法,但尚不清楚执法机构是否有能力打击它们。
NBCNews进行了一项关于该平台儿童安全问题的调查后,Discord的信任与安全负责人表示,该平台将对青少年约会和AI生成的儿童性虐待材料等方面的儿童安全政策进行变更和澄清。Discord的信任与安全副总裁JohnRedgrave表示,Discord将扩大其政策范围,以解决可以生成虚假内容的生成性人工智能,以及儿童性化问题。在新的家庭中心工具中,家长和孩子可以选择让家长接收有关孩子在�
据《纽约时报》报道,一位关心此事的父亲称,在用他的Android智能手机拍摄了他的幼儿腹股沟感染的照片后,Google将这些图片标记为儿童性虐待材料(CSAM)。该公司关闭了他的账户并向美国家失踪和被剥削儿童中心(NCMEC)提交了一份报告,这引发了警方的调查。这一情况凸显了在潜在虐待和无辜照片成为用户数字图书馆的一部分后试图区分两者之间的复杂情况。去年,当苹果宣布其儿童安全(Child Safety)计划时,人们对模糊哪些内容应被视为隐私的后果表示关切。作为该计划的一部分,苹果将在苹果设备上的图像上传到iCloud之前进行本地扫描,然后将
根据最新修订的英国数字安全立法,可能要求 WhatsApp 等高度加密的消息服务采用尖端技术来发现儿童性虐待材料,否则会面临巨额罚款...审查虐待儿童材料的私人信息已被证明是有争议的,活动人士警告说会对用户隐私产生负面影响...苹果推迟了引入该技术的计划,该技术将涉及扫描用户图像以查找儿童性虐待材料,然后再将其上传到云端...根据提议的修正案,Ofcom 监管机构将能够要求科技公司部署或开发新技术,以帮助发现滥用材料并阻止其传播......
据国外科技媒体报道:美国一名女子起诉Reddit未能删除儿童性虐待内容,包括前男友发布的她色情图片。她正在进行一场集体诉讼,其中包括Reddit上所有未经请求的色情图片的受害者。