Apple因拒绝监测&ldquframing%20football%20jersey%20--%E3%80%90WhatsApp%20%208615855158769%E3%80%91o;儿童性虐待内容”被起诉,隐私底线再被挑战

- ◎譯 名
- Apple因拒绝监测&ldquframing%20football%20jersey%20--%E3%80%90WhatsApp%20%208615855158769%E3%80%91o;儿童性虐待内容”被起诉,隐私底线再被挑战
- ◎狀 態(tài)
- 27集
- ◎版 本
- TV版
| 內(nèi)容介紹 |
|
《Apple因拒绝监测&ldquframing%20football%20jersey%20--%E3%80%90WhatsApp%20%208615855158769%E3%80%91o;儿童性虐待内容”被起诉,隐私底线再被挑战》是 近日,因隐私Apple收到一项关于CSAM(儿童性虐待材料)的拒绝监测指控,指控对象是童性挑战framing%20football%20jersey%20--%E3%80%90WhatsApp%20%208615855158769%E3%80%91该公司2021年放弃实施的“CSAM监测”功能。受害人表示,虐待内容Apple默许iCloud存储CSAM相关内容,起诉并对自己造成二次伤害。底线
此次案件的再被受害者是一名27岁的女性,她在儿童时期受到亲戚猥亵,因隐私并被记录下来,拒绝监测相关内容一直在网上分享,童性挑战其中一个重要载体就是虐待内容iCloud。她指控道,起诉Apple并没有识别并删除这些照片或视频,底线以至于她现在还能看到那些内容,再被并持续对她造成伤害。因隐私framing%20football%20jersey%20--%E3%80%90WhatsApp%20%208615855158769%E3%80%91 诉讼称,“如果Apple实施其2021年的‘CSAM监测’技术,原告童年性虐待的图像和视频,将被识别并删除。” 这已经不是第一起相关起诉,今年8月,一名9岁女孩和她的监护人也起诉了Apple,理由是该公司未能解决CSAM在iCloud的传播问题。根据现有数据统计,可能有2680名潜在受害者将对Apple提出赔偿要求。
时间回到2021年,Apple当年宣布CSAM监测功能后,因为隐私隐患被迫叫停。该功能在当年引起巨大舆论压力,因为CSAM监测相当于植入一个官方“后门”,一旦被滥用将有巨大隐私泄漏风险,如今该风险又将卷土重来。 粗略统计,Apple全球用户多达20亿,存储在iCloud的图片及视频不计其数,它们现在都是加密状态存储。在CSAM监测功能加入后,相当于在所有加密内容中放入了一个“后门”,只要有需要,就可以随时解密这些数据。
现在的情况是,Apple已经明确表示,在iPhone、Mac或iPad中存储的内容,即使是Apple官方,在任何情况下都无法访问这些数据。也许正是由于端到端加密的特性,连Apple官方也无法查看并处理这些CSAM相关内容。
在回应CSAM相关起诉时,Apple发言人说道:“CSAM相关内容令人憎恶,我们致力于打击这类犯罪行为。我们正在加紧技术创新,积极打击犯罪行为,同时又不损害所有用户的安全和隐私。”最新消息,Apple拟定的初始计划是,在CSAM相关内容发送时发出警告,在传播开始前进行遏制,不过这个方案可能随时会改变。 无论如何,这个诉讼都将关系全体Apple用户,大家都应认真对待,因为加密存储的任何一环被打破,这个隐私壁垒就将彻底崩溃。 |
- 1官方:切尔西欧协联附加赛对手将是布拉加vs塞尔维特的败者
- 210月份“宿州好人”揭榜
- 3科瓦西奇蓝月生涯首次梅开二度,曼城21反超富勒姆!
- 4今夜将首发居勒尔社媒发布皇马对阵黄潜的个人海报
- 5每体:罗克愿意加盟拉齐奥,后者提出2000万欧收购其50%所有权
- 6广东:重拳整治扶贫领域违纪问题 处分344人
- 7差点被进!费尔南德斯禁区中路垫射稍高出横梁,阿森纳逃过一劫
- 8书院文献让文化传承清晰有序
- 9儿童吃什么补钙?牛奶和汤臣倍健牛初乳加钙咀嚼片均可以
- 10云南选手张俊获十四运会田径首金



