儿童安全监督机构指责苹果公司隐瞒CSAM真实数据

发布时间:2024-07-23 02:41  浏览量:19

一家儿童保护组织称,它在英国苹果平台上发现的虐待图片案例比苹果公司在全球范围内报告的案例还要多。2022年,苹果公司放弃了儿童性虐待材料(CSAM)检测计划,因为有人指控该计划最终将被用于监控所有用户。该公司转而使用一套被称为"通信安全"的功能,即模糊发送给儿童的裸照。

据英国《卫报》报道,英国全国防止虐待儿童协会(NSPCC)称,苹果公司对iCloud、FaceTime和iMessage 等服务中发生的 CSAM 事件的统计严重不足。所有美国科技公司都必须向国家失踪与被剥削儿童中心(NCMEC)报告发现的 CSAM 案件,而在 2023 年,苹果公司共报告了 267 起案件。

这些报告声称是为了在全球范围内检测 CSAM。但英国 NSPCC 独立发现,在 2022 年 4 月至 2023 年 3 月期间,仅在英格兰和威尔士,苹果公司就卷入了 337 起犯罪行为。

NSPCC 儿童安全在线政策负责人理查德-科拉德(Richard Collard)说:"苹果公司服务上发生的英国儿童虐待图片犯罪数量与他们向当局报告的全球虐待内容数量之间存在令人担忧的差异。苹果公司在应对儿童性虐待方面显然落后于许多同行,而所有科技公司都应该在安全方面进行投资,并为英国《网络安全法案》的推出做好准备。"

与苹果相比,Google在 2023 年报告了超过 1,470,958 起案件。同期,Meta 在 Facebook 上报告了 17,838,422 起案件,在 Instagram 上报告了 11,430,007 起案件。

苹果公司无法看到用户的 iMessages 内容,因为这是一项加密服务。但国家监测和评估中心指出,Meta 的 WhatsApp 也是加密的,但 Meta 在 2023 年报告了约 1,389,618 起疑似 CSAM 案件。

苹果公司在回应指控时,只向《卫报》提及了其之前关于用户整体隐私的声明。一些虐待儿童问题专家对人工智能生成的 CSAM 图像表示担忧,尤其是即将推出的Apple Intelligence系统是否会生成有害图像。

外部推荐