免费安卓手游下载、分享游戏攻略、电脑硬件资讯、数码科技最新资讯
当前位置: 首页 > 数码科技 > 苹果因取消儿童性虐待材料检测功能面临12亿美元赔偿诉讼

苹果因取消儿童性虐待材料检测功能面临12亿美元赔偿诉讼

时间:2024-12-12 09:40

小编:小世评选

近日,苹果公司因取消儿童性虐待材料(CSAM)检测计划而卷入一起巨额赔偿诉讼,引发舆论的广泛关注。这起诉讼是由一位名为“Jane Doe”的27岁女性提起的,她在童年时期曾遭受性虐待,起诉索赔金额高达12亿美元。这位女性声称,苹果的决定让她被公开的性虐待材料得以在互联网上传播,并使得她受到更大的伤害。

苹果公司在2021年末曾发布公告,计划通过设备端哈希值系统扫描用户的iCloud照片,以探测和阻止CSAM的传播。当时,该计划的主要目标是保护儿童,防止更多的性虐待材料在线上传和分享。但是,苹果在2022年宣布取消了这项计划,这一决定引发了隐私专家、儿童安全组织和的普遍反对。

据诉讼文件显示,起诉者在CSAM检测功能运作时收到了执法部门的通知,告知她一些上传至iCloud的图片涉及她的性虐待经历。这种情况下的通知本应成为维护受害者权益的重要措施。但苹果的撤回决定使她担心,再次遭受伤害的可能性加大,因为她所经历的痛苦和遭遇再次被暴露在公众视野之中。

为了支持其诉讼,该女子的律师团队表示,她并不是唯一的受害者。他们正在寻求对多达2680名其他符合条件的受害者进行赔偿。根据法律规定,每位受害者有权获得至少15万美元的赔偿。如果所有符合条件的受害者都能成功索赔,苹果面临的总金额将超过12亿美元,折合约87.28亿元人民币。

在美国北卡罗来纳州,一名9岁的CSAM受害者也指控苹果公司,称她在通过iCloud链接中收到了陌生人发送的非法视频,并被诱导拍摄和上传类似内容。这一案件的出现,进一步突显出苹果在儿童保护方面面临的巨大责任和挑战。尽管苹果针对这一指控申请了驳回,但法院最近的裁定显示,这一法律保护可能不再适用于那些积极审核用户上传内容的情况,这意味着苹果在法律上的抗辩可能会更加困难。

苹果公司对此案件的回应也引发了舆论的关注。发言人弗雷德·塞恩兹表示:“苹果始终认为儿童性虐待材料令人发指,我们正在努力在不损害用户隐私和安全的前提下,积极打击这类犯罪行为。”他提到苹果公司已经扩展了在信息应用中的裸露内容检测功能,并为用户提供了举报有害材料的途径。起诉者及其律师玛格丽特·马比对此表示强烈反对,认为苹果公司在措施上远远不足以应对日益严重的儿童欺凌和性虐待问题。

马比在其宣言中指出,她通过执法报告和相关文件揭露了80多个与受害者图像及苹果产品相关的案例,其中一名男子在其iCloud账户中存储了超过2000张非法图片和视频。这些事实不仅再次揭示了儿童性虐待在数字时代的隐秘危害,也让公众对科技公司在保护弱势群体,特别是儿童方面的责任提出了质疑。

此次诉讼的发起,反映了大众对于儿童保护问题的高度重视,以及对科技企业在这一方面责任的期待。随着互联网技术的不断发展,越来越多的未成年人暴露在潜在的网络风险中,这也要求科技公司在业务运营中要有更强的社会责任感和道德责任。

苹果这一案例引发了广泛讨论,不仅让人们重新审视科技公司在处理敏感内容方面的政策,也使我们意识到,更有必要建立一个全面的数据处理和内容审核机制,以保护儿童免受潜在的网络伤害。许多专家认为,在确保用户隐私的同时,应当加强对网络内容的监督,特别是那些可能涉及未成年人的敏感信息。

随着此案的不断推进,所有目光将聚焦在苹果如何应对这一系列变化,以及他们是否能在保持用户隐私与保护儿童安全之间找到一个平衡点。无论结果如何,这场法律斗争提醒了我们,在数字化日益加深的今天,儿童的安全问题需要我们的共同关注与努力。

精品推荐

相关文章

猜你喜欢

更多

热门文章

更多