Apple、米国内のデバイスで子供を守る取り組み強化

2021年8月8日 17:33

印刷

記事提供元:スラド

Apple が米国内の Apple デバイスを対象として、子供を性的虐待から守る取り組みの強化を発表した(Apple - Child Safety9to5Mac の記事Mac Rumors の記事The Verge の記事)。

取り組みの中心となるのは自動性的虐待素材 (CSAM) の拡散防止だ。まず、「メッセージ」アプリでは子供が性的に露骨な写真を送受信しようとすると警告して保護者にも通知し、受信した写真にはぼかしがかけられる。性的に露骨な写真はデバイス上の機械学習によって検出され、Apple に写真が送信されることはない。

また、iOS /iPadOS デバイスで写真を iCloud 写真へ保存する際には、全米失踪・被搾取児童センター (NCMEC) などが提供する既知の CSAM 画像のハッシュとの照合をデバイス上で実行する。照合結果は暗号化されたセーフティーバウチャーに格納されて写真とともに iCloud 写真へ保存される。Apple は iCloud 写真に保存された CSAM コンテンツが閾値を超えた場合にのみセーフティーバウチャーへのアクセスが可能となり、確認の上でアカウントの無効化や NCMEC への通報などを行うとのこと。

最後はオンラインでの危険を避けるための Siri と検索による 児童と保護者へのリソース提供だ。Siri と検索はユーザーが CSAM 関連の検索を実行しようとしたときの介入も行う。これらの機能は iOS 15 / iPadOS 15 / watchOS 8 / macOS Montereyで利用可能になる。米国以外での提供に関しては国や地域ごとに決定するとのこと。

しかし、善意の計画であっても悪用される可能性があるため、EFFエドワード・スノーデン氏、WhatsApp 責任者のウィル・キャスカート氏、ジョンズ・ホプキンズ大学で教鞭をとる暗号専門家のマシュー・グリーン氏などをはじめとして、さまざまな懸念が示されている。主な懸念点としては誤検知やハッシュのコリジョンによる攻撃、独裁政権による悪用、テキストへの対象拡大といったものが挙げられる。 

スラドのコメントを読む | アップルセクション | セキュリティ | MacOSX | アップル | 暗号 | iOS | プライバシ

 関連ストーリー:
NSO Group のスパイウェアがジャーナリスト監視に使われていた問題で、iOS のセキュリティがイメージほど高くないことにも注目が集まる 2021年07月23日
FacebookアプリとInstagramアプリ、iOS 14.5でユーザートラッキング許可を求める理由の表示を開始 2021年05月04日
開発者の正直さに依存するApp Storeのプライバシー情報表示、どれぐらい意味がある? 2021年02月01日

※この記事はスラドから提供を受けて配信しています。

関連キーワード

関連記事