児童性的虐待コンテンツをスキャンするAppleの計画、反対する公開書状への署名が7000件突破
2021年8月14日 16:22
headless 曰く、 先日 Apple が発表した米国内のデバイスで児童性的虐待素材 (CSAM) をスキャンする計画に対し、中止を求める公開書状への署名が 7,000 件を超えている。
計画は子供を性的虐待から守る取り組みを強化するもので、CSAM の拡散防止が中心に据えられている。しかし、誤検知やそれを狙った攻撃、テキストへの対象拡大や CSAM 以外への対象拡大、独裁政権による悪用などが懸念され、批判が相次いでいる。
公開書状では Apple に対し、1) コンテンツ監視技術のデプロイ中止と、2) エンドツーエンドの暗号化およびユーザーのプライバシーに関する約束を再確認する声明の発表を求めており、GitHub プロジェクト appleprivacyletter に Issue を送信することで署名できる。署名は Issue を確認の上で公開書状に追加されるため、12 日時点では数百件の署名が処理待ちとなっている。
Apple は懸念を払拭すべく FAQ を公開しているが、プロジェクトオーナーの Nadim Kobeissi 氏は 2 項目を引用して Apple の回答を批判している。まず、iCloud 写真を無効化すればスキャンは行われないとする Apple の説明に対し、Kobeissi 氏は 2021 年の現在に iCloud 写真を無効化することは現実的でないと指摘する。
また、CSAM スキャン技術が CSAM 以外に拡大されることはないとの説明に対しては、既にテロリストコンテンツを検出するハッシュが作られており、FBI の求めに応じて iCloud の暗号化計画を中止した Apple が政府による CSAM 以外のハッシュ追加要求を拒否するとは考えられないなどと述べている。
エンドツーエンドの暗号化やプライバシーに言及する FAQ 項目には触れておらず、公開書状の2番目の要求に応える内容ではないとみなしているようだ。