AppleのCSAM論争:慈善団体は同社が報告不足だと主張

AppleのCSAM論争は収まる気配がなく、英国の児童保護団体が同社が自社のプラットフォーム上で発生した事件を過少報告していると非難した。
しかし、この報告書は、少なくとも部分的には、エンドツーエンドの暗号化の仕組みを理解していないことに基づいているようだ…
英国の児童虐待防止協会(NSPCC)は、Appleの児童性的虐待疑惑資料(CSAM)の報告に2つの明らかな矛盾があると指摘した。
1つ目は、ガーディアン紙が指摘しているように、Appleと他のIT大手が報告した感染者数に大きな隔たりがあることだ。
2023年、Appleは世界中の自社プラットフォーム上でCSAMの疑いがあると国立行方不明・被搾取児童センター(NCMEC)にわずか267件報告したが、これは大手テクノロジー企業の報告とは全く対照的だ。NCMECの年次報告書によると、Googleは147万件以上、Metaは3,060万件以上を報告している。
2 つ目は、Apple サービスに関連する CSAM の有罪判決が、同社が全世界で報告した数よりもイングランドとウェールズで実際に多かったことです。
情報公開請求を通じて収集され、ガーディアン紙と独占的に共有されたデータを通じて、児童慈善団体は、2022年4月から2023年3月の間にイングランドとウェールズで記録された児童虐待画像に関する337件の犯罪にアップルが関与していることを発見した[…]
「Appleのサービス上で発生している英国の児童虐待画像犯罪の件数と、同社が当局に報告している世界全体の虐待コンテンツ報告件数がほとんど無視できるほど少ないことの間には、懸念すべき乖離がある」と、NSPCCの児童安全オンライン政策責任者リチャード・コラード氏は述べた。「すべてのテクノロジー企業が安全性への投資を行い、英国におけるオンライン安全法の施行に備えるべきであるにもかかわらず、Appleは児童性的虐待への取り組みにおいて、明らかに多くの同業他社に遅れをとっている。」
9to5Macの見解
NSPCCが引用した裁判例の中には、iMessageやFaceTimeでCSAM素材が送信された事例に関するものがあります。どちらもエンドツーエンドで暗号化されたサービスであるため、Appleはメッセージの内容を確認できず、したがって報告することもできません。これらの訴訟は、違反者が他の手段で逮捕され、デバイスへのアクセスを要求された後に提起されたものと考えられます。
しかし、ここでもう一つ問題となるのはiCloudです。ほぼすべてのクラウドサービスは、顧客がアップロードしたファイルに含まれる既知のCSAM素材のデジタル指紋を定期的にスキャンしていますが、Appleはそうではありません。
同社はプライバシーを理由に挙げており、2021年にはデバイス上でのスキャンのためのプライバシーを尊重するシステムの計画を発表していました。しかし、この計画は事前に漏洩し、抑圧的な政府による悪用の可能性(政治的抗議ポスターなど、他の画像の署名の検索をAppleに強制する可能性がある)が懸念されたため、同社は当初この計画を延期し、最終的に断念しました。その後も、当初の提案に反対する多くの人々が主張したのと同じ議論を繰り返しました。
当時も指摘したように、プライバシーと公共の責任のバランスを取ろうとした試みは、ひどく裏目に出ました。もしAppleが、他社が行っているのと同じ定期的なアップロードスキャンを実施していれば、おそらく大騒ぎにはならなかったでしょう。しかし、今そうすれば、この問題は再びトップニュースになるでしょう。Appleはまさに勝ち目のない状況に陥っています。
写真:プリシラ・デュ・プリーズ/アンスプラッシュ
allifer.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。