AppleがiCloudの写真を児童性的虐待資料(CSAM)スキャンする計画を放棄したことに対し、12億ドルの損害賠償を求める訴訟が提起されました。この訴訟は、2600人以上の被害者グループを代表しており、Appleの児童安全対策が実施されなかったために有害なコンテンツが流通し続け、被害者が継続的に苦しんでいると主張しています。Appleは2021年にCSAM検出の計画を発表しましたが、プライバシー保護を求める声からの反発を受け、最終的にこのプロジェクトを中止しました。訴訟の原告は、幼少期の虐待画像に関する法執行機関からの通知を受け続けており、Appleの決定が被害者に再度トラウマを思い出させる結果をもたらしていると訴えています。Appleは、子供の搾取と戦うことへのコミットメントを強調し、現在も行っている子供保護の取り組みを示しました。