V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
拼车信息请发到 /go/cosub 节点。

如果没有发送到 /go/cosub,那么会被移动到 /go/pointless 同时账号会被降权。如果持续触发这样的移动,会导致账号被禁用。
Pazakui1259
V2EX  ›  iCloud

Apple 推出新的数据保护功能以提高用户数据安全: iMessage 密钥验证, Apple ID 支持实体 Security Keys 验证,更多 iCloud 数据支持开启端对端加密,放弃 CSAM 扫描用户图片检查儿童色情

  •  1
     
  •   Pazakui1259 · 2022-12-08 04:22:28 +08:00 · 3044 次点击
    这是一个创建于 715 天前的主题,其中的信息可能已经有所发展或是发生改变。
    https://www.apple.com/newsroom/2022/12/apple-advances-user-security-with-powerful-new-data-protections/

    iMessage Contact Key Verification
    当另一位联系人添加了未知的新设备时,iMessage 界面会显示提示。另外还可以面对面比对端对端加密密钥。该功能将在 2023 年全球上线。

    Security Keys
    Apple ID 双重认证将支持实体 Security Keys 。该功能将在 2023 年初全球上线。

    Advanced Data Protection for iCloud
    iCloud 本来就有 14 项数据默认支持端对端加密,新加入的 Advanced Data Protection 选项开启后,将拓展 iCloud 端对端加密至 23 项,包括 iCloud 照片、iCloud 云盘、iCloud 备忘录和 iCloud 备份等。该功能今日对美国的 beta 系统用户上线,今年底对美国用户全面上线,并于明年初全球上线。

    全新的 Advanced Data Protection 技术详情已更新至《 Apple 平台安全防护》文档,见:
    https://support.apple.com/en-ca/guide/security/sec973254c5f/web

    另外,苹果近日联系 Wired 表示将放弃之前宣布的 CSAM 检测功能,不再计划扫描用户的 iCloud 照片以检查儿童色情内容,见:
    https://www.wired.com/story/apple-photo-scanning-csam-communication-safety-messages/
    22 条回复    2022-12-10 05:15:26 +08:00
    n1dragon
        1
    n1dragon  
       2022-12-08 05:20:54 +08:00 via iPhone
    挺好的,明年发布了就开启
    ltkun
        2
    ltkun  
       2022-12-08 06:32:19 +08:00 via Android
    一方面号称保护隐私一方面扫描用户相册 抓犯罪份子是你手机公司应该关注的事情吗
    alexkuang
        3
    alexkuang  
       2022-12-08 07:02:55 +08:00
    @ltkun 这新闻说的不是放弃扫描了吗
    daveh
        4
    daveh  
       2022-12-08 07:52:37 +08:00 via iPhone   ❤️ 1
    @ltkun #2 抓犯罪份子是执法机构的事,但如果执法机构要求苹果提供用户 iCloud 照片检查儿童色情照片,苹果得遵守,这不是隐私问题,这是法律问题。这种情况下,用户照片会被执法机构翻个底朝天,不管有没有儿童色情内容,你的所有其他隐私照片也会暴露给被执法机构。
    其实苹果完全可以在它服务器上进行 CSAM 检测,这才与它标榜的隐私保护冲突,所以才想在设备端检测标志,这样可以给执法机构只提供问题照片,而不用将 iCloud 照片一锅端。

    如果新闻属实,iCloud 照片也启用端到端加密,意味着苹果可能无法再向执法机构提供 iCloud 照片,不清楚苹果怎么去应对法律要求?如果实施设备端检测,这倒是容易满足,因为只需提供问题照片,而问题照片是特殊密钥加密的,不需要用户密钥。

    这样看来,如果没有好的手段满足执法机构的正当要求,苹果设备将是儿童色情罪犯的天堂,甚至比以前还差。
    shinsekai
        5
    shinsekai  
       2022-12-08 07:59:25 +08:00
    在 WWDC2022 中,苹果对隐私相关的新功能较往年少了很多,没想到年底直接放大招。正如 macrumors 中的评论:And I will say that it was very smart of them to NOT announce this publicly first without much time because otherwise they'd have had time to hear from all the usual authoritarian suspects who will complain about it.
    Building
        6
    Building  
       2022-12-08 08:03:47 +08:00 via iPhone
    @ltkun 是 iCloud 扫描,你放本地啥事没有,iCould 本质是空间服务,你往银行存钱还要来源证明呢
    daveh
        7
    daveh  
       2022-12-08 09:14:12 +08:00 via iPhone
    @Building #6 iCloud 服务器上没有扫描,虽然目前技术上是可行,否则之前也不用整这出在设备本地扫描标记,惹出争议。
    后续如果真的实施 iCloud 照片端到端加密,在服务器上想扫也扫不了。
    processzzp
        8
    processzzp  
       2022-12-08 09:25:04 +08:00 via iPhone   ❤️ 6
    @Building 果粉就不要在这里篡改集体记忆了。

    CSAM 的原理就是在每台 iPhone 上跑那个鉴黄模型,一旦发现本地的存储儿童色情图片数量超过了阈值,就把涉嫌违规图片的上传到云端,人工审核确认之后,苹果就会通知当地执法部门动手抓人。所以才引起了这么大的反抗,最后迫于公众压力不得不取消该计划。

    Dropbox 、OneDrive 、Google Drive 都会扫描儿童色情内容,为什么这些服务没有这抵制,因为人家是真的只在云服务器上扫描。而苹果则是想把触手伸进用户的设备里。

    「放本地就啥事没有」了?放本地也要抓!
    kappa
        9
    kappa  
       2022-12-08 09:33:33 +08:00
    iMessage 的 iCloud 备份还是没有 e2e ?
    lancev2
        10
    lancev2  
       2022-12-08 09:44:33 +08:00
    不懂就问,中区怎么办?铁拳不会接受失去数据访问权限的
    Pierson
        11
    Pierson  
       2022-12-08 09:58:55 +08:00
    @processzzp #8
    扫描是在本地扫描的,但只会扫描 iCloud 照片里的图片吧?如果你想说的是本地所有的图片,请提供来源。
    “Dropbox 、OneDrive 、Google Drive 都会扫描儿童色情内容,为什么这些服务没有这抵制” 因为这些服务没有宣传自己是隐私友好的。
    Pierson
        12
    Pierson  
       2022-12-08 09:59:53 +08:00
    @kappa #9
    好像除了联络人,日历和邮件其他都是 E2E
    QuinYim
        13
    QuinYim  
       2022-12-08 10:25:18 +08:00
    @processzzp 但是儿童色情也太离谱了吧
    playtomandjerry
        14
    playtomandjerry  
       2022-12-08 10:49:45 +08:00
    @processzzp 儿童色情在美国是零容忍的, 如果被逮捕,这辈子都要被监视的。隐私安全并不代表无限的隐私安全。针对这方面的审查,没啥可说的。
    bubuyu
        15
    bubuyu  
       2022-12-08 10:59:45 +08:00
    不知道到时候是不是云上贵州除外
    Pazakui1259
        16
    Pazakui1259  
    OP
       2022-12-08 11:01:19 +08:00
    @bubuyu 文章里明确说明了会全球可用“will be available globally in 2023”,目前来看国区应该也是会有的。
    dingwen07
        17
    dingwen07  
       2022-12-08 11:13:44 +08:00   ❤️ 1
    Apple 大概是大厂里面目前唯一一个不支持 FIDO2 验证器的。。。
    momocha
        18
    momocha  
       2022-12-08 11:24:52 +08:00 via iPhone
    如果实现了端到端加密,我希望看到它的加密协议的白皮书已经实现的证据,比如如何验证离开设备的加密数据是用本地的 key 加密的。这样才能验证是真正做到了端对端。

    另外,如果声称了端对端加密之后还能扫描服务器上的内容那就是骗子了,基于这个原因取消照片扫描是没得选择的,因为技术上做不到。
    ltkun
        19
    ltkun  
       2022-12-08 12:33:48 +08:00 via Android
    @Building 是扫到本地 有问题再上传继续核实
    ltkun
        20
    ltkun  
       2022-12-08 12:35:23 +08:00 via Android
    @playtomandjerry 万一误扫怎么解决 谷歌就误扫一个父亲远程诊断儿子的照片 结果导致账号永久封禁 警察调查一个月 资料也不能访问等等问题
    SFJ4MEGabMk2
        21
    SFJ4MEGabMk2  
       2022-12-08 20:20:09 +08:00
    已经打开了 Advanced Data Protection 。
    实测有点麻烦:
    1. 名下的所有设备都要升级到最新的测试版。
    2. 要设置恢复联系人和恢复 Key 。
    idrawer
        22
    idrawer  
       2022-12-10 05:15:26 +08:00
    @playtomandjerry 拿儿童权利作为冠冕堂皇的游说借口世界总是如此,中国禁游戏是这样,日本对文化产业也是这样。但回到数据隐私问题如何界定 pedo porn ,譬如那个给孩子在线问诊发送私处照片就被 Google 永封的,以及更抽象的立法问题是否能让渡更广泛的隐私权利去避免少数但更严重的侵害孰轻孰重
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5128 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 27ms · UTC 01:17 · PVG 09:17 · LAX 17:17 · JFK 20:17
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.