Apple 推出新的数据保护功能以提高用户数据安全: iMessage 密钥验证, Apple ID 支持实体 Security Keys 验证,更多 iCloud 数据支持开启端对端加密,放弃 CSAM 扫描用户图片检查儿童色情

2022-12-08 04:22:28 +08:00
 Pazakui1259
https://www.apple.com/newsroom/2022/12/apple-advances-user-security-with-powerful-new-data-protections/

iMessage Contact Key Verification
当另一位联系人添加了未知的新设备时,iMessage 界面会显示提示。另外还可以面对面比对端对端加密密钥。该功能将在 2023 年全球上线。

Security Keys
Apple ID 双重认证将支持实体 Security Keys 。该功能将在 2023 年初全球上线。

Advanced Data Protection for iCloud
iCloud 本来就有 14 项数据默认支持端对端加密,新加入的 Advanced Data Protection 选项开启后,将拓展 iCloud 端对端加密至 23 项,包括 iCloud 照片、iCloud 云盘、iCloud 备忘录和 iCloud 备份等。该功能今日对美国的 beta 系统用户上线,今年底对美国用户全面上线,并于明年初全球上线。

全新的 Advanced Data Protection 技术详情已更新至《 Apple 平台安全防护》文档,见:
https://support.apple.com/en-ca/guide/security/sec973254c5f/web

另外,苹果近日联系 Wired 表示将放弃之前宣布的 CSAM 检测功能,不再计划扫描用户的 iCloud 照片以检查儿童色情内容,见:
https://www.wired.com/story/apple-photo-scanning-csam-communication-safety-messages/
3083 次点击
所在节点    iCloud
22 条回复
n1dragon
2022-12-08 05:20:54 +08:00
挺好的,明年发布了就开启
ltkun
2022-12-08 06:32:19 +08:00
一方面号称保护隐私一方面扫描用户相册 抓犯罪份子是你手机公司应该关注的事情吗
alexkuang
2022-12-08 07:02:55 +08:00
@ltkun 这新闻说的不是放弃扫描了吗
daveh
2022-12-08 07:52:37 +08:00
@ltkun #2 抓犯罪份子是执法机构的事,但如果执法机构要求苹果提供用户 iCloud 照片检查儿童色情照片,苹果得遵守,这不是隐私问题,这是法律问题。这种情况下,用户照片会被执法机构翻个底朝天,不管有没有儿童色情内容,你的所有其他隐私照片也会暴露给被执法机构。
其实苹果完全可以在它服务器上进行 CSAM 检测,这才与它标榜的隐私保护冲突,所以才想在设备端检测标志,这样可以给执法机构只提供问题照片,而不用将 iCloud 照片一锅端。

如果新闻属实,iCloud 照片也启用端到端加密,意味着苹果可能无法再向执法机构提供 iCloud 照片,不清楚苹果怎么去应对法律要求?如果实施设备端检测,这倒是容易满足,因为只需提供问题照片,而问题照片是特殊密钥加密的,不需要用户密钥。

这样看来,如果没有好的手段满足执法机构的正当要求,苹果设备将是儿童色情罪犯的天堂,甚至比以前还差。
shinsekai
2022-12-08 07:59:25 +08:00
在 WWDC2022 中,苹果对隐私相关的新功能较往年少了很多,没想到年底直接放大招。正如 macrumors 中的评论:And I will say that it was very smart of them to NOT announce this publicly first without much time because otherwise they'd have had time to hear from all the usual authoritarian suspects who will complain about it.
Building
2022-12-08 08:03:47 +08:00
@ltkun 是 iCloud 扫描,你放本地啥事没有,iCould 本质是空间服务,你往银行存钱还要来源证明呢
daveh
2022-12-08 09:14:12 +08:00
@Building #6 iCloud 服务器上没有扫描,虽然目前技术上是可行,否则之前也不用整这出在设备本地扫描标记,惹出争议。
后续如果真的实施 iCloud 照片端到端加密,在服务器上想扫也扫不了。
processzzp
2022-12-08 09:25:04 +08:00
@Building 果粉就不要在这里篡改集体记忆了。

CSAM 的原理就是在每台 iPhone 上跑那个鉴黄模型,一旦发现本地的存储儿童色情图片数量超过了阈值,就把涉嫌违规图片的上传到云端,人工审核确认之后,苹果就会通知当地执法部门动手抓人。所以才引起了这么大的反抗,最后迫于公众压力不得不取消该计划。

Dropbox 、OneDrive 、Google Drive 都会扫描儿童色情内容,为什么这些服务没有这抵制,因为人家是真的只在云服务器上扫描。而苹果则是想把触手伸进用户的设备里。

「放本地就啥事没有」了?放本地也要抓!
kappa
2022-12-08 09:33:33 +08:00
iMessage 的 iCloud 备份还是没有 e2e ?
lancev2
2022-12-08 09:44:33 +08:00
不懂就问,中区怎么办?铁拳不会接受失去数据访问权限的
Pierson
2022-12-08 09:58:55 +08:00
@processzzp #8
扫描是在本地扫描的,但只会扫描 iCloud 照片里的图片吧?如果你想说的是本地所有的图片,请提供来源。
“Dropbox 、OneDrive 、Google Drive 都会扫描儿童色情内容,为什么这些服务没有这抵制” 因为这些服务没有宣传自己是隐私友好的。
Pierson
2022-12-08 09:59:53 +08:00
@kappa #9
好像除了联络人,日历和邮件其他都是 E2E
QuinYim
2022-12-08 10:25:18 +08:00
@processzzp 但是儿童色情也太离谱了吧
playtomandjerry
2022-12-08 10:49:45 +08:00
@processzzp 儿童色情在美国是零容忍的, 如果被逮捕,这辈子都要被监视的。隐私安全并不代表无限的隐私安全。针对这方面的审查,没啥可说的。
bubuyu
2022-12-08 10:59:45 +08:00
不知道到时候是不是云上贵州除外
Pazakui1259
2022-12-08 11:01:19 +08:00
@bubuyu 文章里明确说明了会全球可用“will be available globally in 2023”,目前来看国区应该也是会有的。
dingwen07
2022-12-08 11:13:44 +08:00
Apple 大概是大厂里面目前唯一一个不支持 FIDO2 验证器的。。。
momocha
2022-12-08 11:24:52 +08:00
如果实现了端到端加密,我希望看到它的加密协议的白皮书已经实现的证据,比如如何验证离开设备的加密数据是用本地的 key 加密的。这样才能验证是真正做到了端对端。

另外,如果声称了端对端加密之后还能扫描服务器上的内容那就是骗子了,基于这个原因取消照片扫描是没得选择的,因为技术上做不到。
ltkun
2022-12-08 12:33:48 +08:00
@Building 是扫到本地 有问题再上传继续核实
ltkun
2022-12-08 12:35:23 +08:00
@playtomandjerry 万一误扫怎么解决 谷歌就误扫一个父亲远程诊断儿子的照片 结果导致账号永久封禁 警察调查一个月 资料也不能访问等等问题

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/900938

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX