首页 > 业界 > 关键词  > 苹果最新资讯  > 正文

苹果新功能将上报儿童虐待图片 计划与iOS15一起推出

2021-08-06 08:57 · 稿源:站长之家

站长之家(ChinaZ.com)8月6日 消息:苹果昨天宣布了一系列新的儿童安全计划,这些计划与今年秋季将推送的iOS15、iPadOS15和macOS Monterey一起推出,旨在让儿童更安全地上网。

其中一项新功能“通信安全”引发了用户对隐私问题的担忧,因为它允许苹果扫描Messages应用程序发送和接收的图像以鉴定色情内容,但苹果已确认这是一项仅限于儿童帐户的选择功能并且它必须由父母通过家庭共享功能启用。

如果家长为孩子的Apple ID帐户打开了通信安全,苹果将扫描在Messages应用程序中发送和接收的可能涉及性内容的图像。如果检测到裸体,照片将自动模糊,并警告孩子照片可能包含人体敏感部位。

孩子可以选择查看照片,如果是13岁以下的孩子,孩子点击查看模糊的照片,父母可以选择收到通知。屏幕上会有一段文字提示:“如果您决定查看此内容,您的父母会收到通知以确保您一切正常。”

家长也可以选择是否要开启或关闭该功能,当13至17岁的孩子查看模糊照片时,父母无法收到通知,但这些年龄之间的孩子仍然可以如果打开通信安全,也会有关敏感内容的警告。成人帐户无法启用通信安全,并且仅适用于18岁以下的用户。

另外,苹果还计划推出另一项功能,将检测美国iPhone和iPad上的儿童性虐待材料。苹果将扫描用户手上的设备相册,匹配当前一个不可读的已知CSAM图像哈希数据库,假如这些敏感照片与数据库内的图片匹配,那么用户帐户将被禁用并通知美国国家失踪和受虐儿童中心。苹果表示,这是一种检测 CSAM 和保护儿童的高度准确的方法。

但同时苹果也表示,如果用户关闭了iCloud的相册同步功能,将无法扫描并匹配照片。

举报

  • 相关推荐
  • 大家在看

今日大家都在搜的词:

热文

  • 3 天
  • 7天