Appleが、iCloudの写真を性虐待素材(CSAM)スキャンする計画を放棄したことにより、12億ドルの損害賠償を求める訴訟に直面しています。この訴訟はカリフォルニア州北部で提起され、2,680人の潜在的な被害者を代表するもので、Appleが以前に発表した子供の安全ツールを実施しなかったため、害悪なコンテンツが流通し続け、被害者に継続的な被害をもたらしていると主張しています。2021年、AppleはiCloud PhotosでのCSAM検出を含む子供の安全機能を導入する計画を発表しましたが、プライバシー擁護者やセキュリティ研究者からの強い反発を受け、最終的にこの取り組みを延期し、放棄しました。Appleの代表者は、子供の搾取と戦うことへのコミットメントを強調しつつ、既存の機能が子供の保護に役立っていると述べています。