苹果放弃iCloud儿童色情内容扫描器,导致受害者受损,诉讼指控
发布时间:2024-12-10 16:00 浏览量:5
在北加州,一项针对苹果公司的集体诉讼指控其iCloud服务被用于传播儿童性虐待材料(CSAM)。诉讼称,苹果停止开发用于扫描此类材料的软件,导致有害内容的传播失控。苹果曾于2021年启动多个项目以扫描设备和iCloud中的媒体,但因隐私倡导者的反对而暂停。诉讼中,2680名原告表示苹果给受害者提供了虚假的希望,若陪审团认定公司有责任,苹果可能面临超过12亿美元的赔偿。苹果对此尚未详细回应,但其发言人强调公司致力于打击儿童性虐待材料,并提到现有的安全功能以保护儿童。
在北加州的一家地区法院提起了一项集体诉讼,指控苹果公司的iCloud服务被用于传播儿童性虐待材料,通常称为CSAM。诉讼进一步声称,苹果公司停止开发最初用于扫描此类材料的软件,构成了对公司责任的故意忽视,使得这种有害内容的传播得以不受控制地继续下去。
在2021年,苹果启动了多个项目,旨在扫描设备和iCloud中的媒体以寻找CSAM。其中一项计划旨在检查存储在iCloud上的文件。当时,国家失踪与被剥削儿童中心的首席执行官兼总裁约翰·克拉克称赞这一技术为“游戏规则的改变者”。然而,在遭遇隐私倡导者和数字权利组织的强烈反对后,苹果暂停了这些措施的开发。到2022年底,公司大幅缩减了其计划,包括停止在iCloud中进行图像扫描。
在最近与一位匿名原告的采访中,《纽约时报》报道了一些受害者每天收到执法部门多次通知,告知他们的图像在针对掠夺者的调查中被发现。这位27岁的原告表达了她加入诉讼的原因,表示苹果给受害者提供了虚假的希望,并强调公司需要实施变革。此次集体诉讼共有2680名原告,如果陪审团认定公司有责任,苹果可能面临超过12亿人民币(12亿美元)的赔偿。此外,北卡罗来纳州在八月为一名9岁性侵犯受害者提起了类似的个人诉讼。
苹果尚未对有关诉讼的询问做出详细回应;不过,上周末发布了一份声明。发言人弗雷德·赛因兹评论道:“儿童性虐待材料是令人发指的,我们致力于打击掠夺者使儿童面临风险的方式。我们正在紧急而积极地创新,以打击这些罪行,而不妨碍所有用户的安全和隐私。”赛因兹强调了苹果现有的功能,例如通信安全,当儿童尝试发送或接收包含裸露内容的内容时,会发出警报。他最后表示:“我们仍然深切关注建立保护措施,以帮助在CSAM传播之前加以防止。”