AppleがiCloudフォトにCSAM(児童性的虐待素材保護)を導入してから1年が経ったが、これまでのところ同社は今後の方向性や新たな対策が実施されるかどうかについては何も発表していない。
現在、iCloudフォトでは、メッセージアプリとSiriアプリ内の性的に露骨な写真にぼかしが入っています。これは児童搾取対策リソースに該当します。Appleは、iPadOS 15とiOS 15で2021年末までにCSAM検出を有効にすると発表していましたが、「研究者、支援団体、そして顧客からのフィードバック」により延期されました。

昨年9月、Appleは「子どもの安全」ページを更新し、子どもを犯罪者から守り、児童性的虐待コンテンツの拡散を抑制することを目指していると説明しました。しかし、翌年12月にAppleは当該投稿を削除しました。広報担当者は、Appleは引き続き対応策を検討していくと述べましたが、それ以降、公の場でコメントを発表していません。
CSAM は、政策グループ、政治家、EFF、セキュリティ研究者、大学の研究者などから批判されました。