Appleの幹部は最近、同社がCSAM検出機能を放棄する理由について詳しく説明しました。
児童安全団体「Heat Initiative」は、CSAM検出機能の廃止の根拠についてAppleに抗議しました。性的虐待を示唆するコンテンツは、AppleがiCloud検出機能とデバイス内ツールを用いて対処しようとしていた大きな懸念事項です。しかし、この取り組みは昨年12月に中止され、さらなる論争を巻き起こしました。

Appleは、このツールが放棄された理由についてHeatに回答した。ユーザープライバシーと子供の安全担当ディレクターのErik Neuenschwander氏は、この行為は「忌まわしい」ものであり、Appleは「子供たちをその影響を受けやすくする影響力と強制を打破することに尽力している」と述べた。さらに、iCloudのプライベートデータをスキャンすると、「新たな脅威ベクトル」が作成され、それが悪用され、「危険な状況や予期せぬ結果をもたらす可能性がある」と説明した。
iOS 17でもこの機能は引き続き提供され、Appleは今後さらに多くの領域にこの機能を拡張したいと考えています。