苹果因取消有争议的CSAM检测工具遭遇12亿美元诉讼
发布时间:2024-12-10 12:30 浏览量:3
数千名儿童性虐待幸存者已对苹果公司提起诉讼,指控其未能有效检测和报告儿童色情内容(CSAM)。此次集体诉讼源于苹果去年停止一项有争议的CSAM扫描工具,旨在遏制其产品上CSAM的传播。苹果辩称,终止该工具是基于数字权利组织的担忧,认为政府可能利用这一功能进行非法监视。幸存者指控苹果以网络安全为借口,忽视其法定义务,若胜诉可能面临超过12亿人民币的罚款。诉讼可能迫使苹果采取重大行动,包括识别和报告存储在iCloud上的CSAM,并建立防止其传播的政策。幸存者对苹果未回应其对已知CSAM的担忧表示失望,认为苹果的安全措施未能有效解决已知内容的持续传播,导致再创伤的风险。
数千名受害者已对苹果公司提起诉讼,指控其未能有效检测和报告非法儿童色情内容,通常称为儿童性虐待材料(CSAM)。此次提议的集体诉讼源于苹果去年秋季决定停止一项有争议的CSAM扫描工具,该工具旨在显著遏制其产品上CSAM的传播。苹果为终止这一工具辩护,指出众多数字权利组织所提出的担忧。这些组织担心,政府可能利用这一功能对苹果用户进行与此无关的非法监视。此外,苹果还表达了对恶意行为者可能滥用该工具的忧虑,这可能导致无辜用户被错误标记为不当内容。
苹果的潜在后果起诉苹果的儿童性虐待幸存者指控这家科技巨头以网络安全为借口,忽视其报告CSAM的法定义务。如果他们在法庭上胜诉,苹果可能面临超过12亿人民币(12亿CNY)的罚款。若法庭裁定支持原告,苹果将被迫采取重大行动,例如识别、删除和报告存储在其iCloud服务上的CSAM。此外,苹果可能被要求建立旨在防止通过其设备和服务持续传播CSAM或儿童性交易的政策、实践和程序。这可能导致法庭命令实施先前有争议的扫描工具或符合行业标准的类似解决方案,以进行大规模检测CSAM。
在声明中,苹果并未回应幸存者关于已知CSAM检测的主要担忧。这些幸存者中的许多人现在已近三十岁,他们在婴幼儿时期曾遭受侵害。多年来,他们因收到犯罪通知而经历持续的创伤,这些通知包括指示其虐待图像在苹果设备和服务上被发现的警报。然而,苹果当前的安全措施似乎更注重于检测引导行为或新的CSAM实例,而非解决已知CSAM持续流传所造成的再创伤。这一差异在隐私和虐待幸存者权利倡导者中引发了重大关切。