11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
凤凰网科技讯6月20日消息,日前,小红书针对疑似女幼师给幼儿喂避孕药事件回应凤凰网科技,已在第一时间对用户进行封号处理,并已将线索上报警方。有网友表示:“让子弹飞一会,等个警方调查报告”,希望能够有官方介入进行具体的调查以及向公众反馈,确认情况是否属实。
儿童虐待者正在利用人工智能技术制作"深度伪造品"来勒索受害者拍摄自己的虐待行为,从开始一个可持续数年的性勒索循环。制作模拟虐待儿童图像是非法的,工党和保守党一致呼吁禁止所有由人工智能生成的露骨图像。政策文件建议,短期内应针对单一用途"裸体"工具的创建者和宿主采取行动,但长期应对抗明确的人工智能图像问题仍需进一步探讨。
根据斯坦福互联网观察站周三发布的一项新研究,流行的人工智能图像生成器的基础数据库中隐藏着数千张儿童性虐待图片。作为对这一研究的回应,一些最大和最常用的图像数据库的运营商关闭了对它们的访问权限。LAION的创始人是德国研究员和教师ChristophSchuhmann,他今年早些时候表示,公开提供如此庞大的视觉数据库的部分原因是为了确保AI发展的未来不受少数强大公司的�
在一份写给政府和技术提供商的报告中,总部位于英国的互联网观察基金周二警告称,互联网上已存在的儿童性虐待图像问题可能会变得更加严重,如果不对生成深度伪造照片的人工智能工具进行控制的话。该监管机构敦促各国政府和技术提供商在深度伪造的儿童性虐待图像席卷执法调查人员、并极大扩大潜在受害者的范围之前迅速采取行动。怎样才能做到让他们不能使用公开可用的软件来创建这种有害内容呢?”大多数人工智能生成的儿童性虐待图像在美国、英国和其他地方的现行法律下都被视为非法,但尚不清楚执法机构是否有能力打击它们。
韩国法官首次判决一名涉嫌使用人工智能生成儿童虐待图像的男子入狱,标志着南韩对AI技术滥用问题开始采取行动。一名年约40多岁的男子因在今年早些时候被抓获拥有大约360张虐待性质的AI生成儿童图像被判刑两年多监禁。这标志着南韩正在积极应对AI技术滥用问题,以保护儿童和社会免受虚拟儿童虐待图像的侵害。
澳大利亚正在引入一项新的法规,要求科技巨头如Google、Microsoft的Bing和DuckDuckGo等搜索引擎公司采取措施,清除搜索结果中的虐待儿童材料,并防止生成深度伪造图像。这一法规旨在应对人工智能工具可能生成虐待儿童图像和恐怖主义宣传的问题。这一倡议的新工具呼吁成年人提交自己儿童时期的照片,以帮助训练人工智能模型,从更好地应对虐待儿童材料问题。
NBCNews进行了一项关于该平台儿童安全问题的调查后,Discord的信任与安全负责人表示,该平台将对青少年约会和AI生成的儿童性虐待材料等方面的儿童安全政策进行变更和澄清。Discord的信任与安全副总裁JohnRedgrave表示,Discord将扩大其政策范围,以解决可以生成虚假内容的生成性人工智能,以及儿童性化问题。在新的家庭中心工具中,家长和孩子可以选择让家长接收有关孩子在�
据《纽约时报》报道,一位关心此事的父亲称,在用他的Android智能手机拍摄了他的幼儿腹股沟感染的照片后,Google将这些图片标记为儿童性虐待材料(CSAM)。该公司关闭了他的账户并向美国家失踪和被剥削儿童中心(NCMEC)提交了一份报告,这引发了警方的调查。这一情况凸显了在潜在虐待和无辜照片成为用户数字图书馆的一部分后试图区分两者之间的复杂情况。去年,当苹果宣布其儿童安全(Child Safety)计划时,人们对模糊哪些内容应被视为隐私的后果表示关切。作为该计划的一部分,苹果将在苹果设备上的图像上传到iCloud之前进行本地扫描,然后将
根据最新修订的英国数字安全立法,可能要求 WhatsApp 等高度加密的消息服务采用尖端技术来发现儿童性虐待材料,否则会面临巨额罚款...审查虐待儿童材料的私人信息已被证明是有争议的,活动人士警告说会对用户隐私产生负面影响...苹果推迟了引入该技术的计划,该技术将涉及扫描用户图像以查找儿童性虐待材料,然后再将其上传到云端...根据提议的修正案,Ofcom 监管机构将能够要求科技公司部署或开发新技术,以帮助发现滥用材料并阻止其传播......
互联网观察基金会(IWF)表示,一百万张儿童性虐待图片的数字指纹已经被创建。这个负责在网上寻找和删除此类材料的英国慈善机构指出,这些被称为哈希值的指纹将帮助公司和警察找到这些图像的副本。希望通过这样做,执法部门可以防止图像的重复使用。这些图像来自政府的虐待儿童图像数据库。据悉,该数据库包含一些网上出现的最极端的内容--即所谓的A类和B类材料。 哈希值是一种由算法产生的识别代码,作为每个图像或视频的指纹。 许多科技公司使用哈希值列表来搜索其系统中的虐待儿童材料--通过将图像的哈希值跟IWF等组织创建的列表进行比较
研究人员在iOS的内置散列函数算法中发现了碰撞攻击漏洞,引起了人们对苹果公司CSAM扫描系统的新关注,但苹果公司表示,这一发现并没有威胁到该系统的完整性。该漏洞影响了名为NeuralHash的散列算法,该算法允许苹果公司在不拥有任何图片或收集任何非匹配图片信息的情况下,检查图片与已知的虐待儿童图像是否完全匹配。周二,一个名为Asuhariet Ygvar的GitHub用户发布了一个重建的Python版本的NeuralHash代码,他声称已经从以前的iO
苹果昨天宣布了一系列新的儿童安全计划,这些计划与今年秋季将推送的iOS15、iPadOS15 和macOS Monterey一起推出,旨在让儿童更安全地上网。
据国外科技媒体报道:美国一名女子起诉Reddit未能删除儿童性虐待内容,包括前男友发布的她色情图片。她正在进行一场集体诉讼,其中包括Reddit上所有未经请求的色情图片的受害者。
微软最近开发了一项新工具,可以扫描在线聊天记录从而检测报告想要儿童性侵和虐待的行为。这项被称为“Artemis项目”的技术将免费提供给有资格的在线服务公司,这些公司提供聊天功能。Artemis项目的审查会对对上传的文本聊天记录给出概率评级,公司再根据评级提供给人工审核人员进行审核。
苹果首席隐私官 Jane Horvath 在 CES 2020 期间透露,苹果会扫描上传到 iCloud 的照片,以检查其中是否包含虐待儿童的行为。苹果在去年曾对其隐私权政策进行了更改,可能会扫描图像以搜索虐待儿童的图片。目前还不清楚苹果从什么时候开始扫描用户照片。