Appleは、iCloudの写真を児童性的虐待素材(CSAM)スキャンする計画を放棄したことに対して、12億ドルの損害賠償を求める訴訟に直面しています。この訴訟は北カリフォルニアで提出され、2,680人の潜在的な被害者を代表しています。訴訟では、Appleの児童安全対策ツールの実施を怠ったことが有害コンテンツの流通を許し、被害者に継続的な害をもたらしていると主張しています。2021年にAppleはiCloud PhotosにCSAM検出機能を導入する計画を発表しましたが、プライバシー擁護者やセキュリティ研究者からの強い反発を受け、計画は延期され最終的に放棄されました。Appleは、スキャンの実施がセキュリティ上の重大な脆弱性をもたらし、政府の監視につながる可能性があると懸念を示していました。訴訟の原告は、自らが幼少期に受けた虐待に関連する画像を所有しているとの通報を今も受け続けており、Appleの決定によってトラウマを繰り返し経験させられていると訴えています。Appleの広報は、同社が児童搾取に立ち向かうことにコミットしていると強調し、既存の「コミュニケーション安全」機能などの児童保護の取り組みを例示しました。