Appleは、iCloudの写真を児童性的虐待資料(CSAM)のスキャン計画を放棄したことに関して、12億ドルの損害賠償を求める訴訟に直面しています。この訴訟はカリフォルニア州北部で提起され、2,680人の潜在的な被害者のグループを代表しています。訴状では、Appleが発表した子供の安全に関するツールを実施しなかったため、有害なコンテンツが流通し続けていると主張されています。
2021年にAppleはiCloud PhotosでのCSAM検出の実施を発表しましたが、プライバシー擁護者やセキュリティ研究者からの大きな反発に直面し、最終的にはこの取り組みを延期し、放棄しました。Appleはその決定について、ユーザーのプライベートなiCloudストレージの普遍的なスキャンが重大なセキュリティ脆弱性を引き起こす可能性があると説明しました。
訴訟の原告は、幼少期の虐待画像を持つ人物が起訴されるという通知を今でも受け取っており、Appleの決定によって被害者がトラウマを繰り返し体験させられていると訴えています。Appleは、子どもを守るための既存の機能を挙げた上で、児童搾取への取り組みを強調しました。