Dalam keterangan Apple, merinci tiga perubahan besar. Satu adalah pada Search dan Siri yang menunjuk sumber daya mencegah CSAM jika pengguna mencari informasi terkait.
Kedua, ada perubahan yang berada di bawah pengawasan lebih signifikan. Seseorang akan memperingatkan orang tua saat anak-anak mereka menerima atau mengirim foto eksplisit secara seksual serta mengaburkan gambar untuk anak-anak.
Lainnya adalah memindai gambar yang disimpan di iCloud untuk CSAM dan melaporkannya ke moderator Apple. Setelah itu merujuk laporan ke National Center for Missing and Exploited Children (NCMEC).
Apple menjelaskan lebih rinci mengenai pemindaian foto di iCloud dan tidak melemahkan privasi para pengguna.
Singkatnya, sistem hanya akan memindai foto yang disimpan di iCloud perangkat iOS dan akan menilai foto itu bersama basis data hash gambar CSAS dan diketahui NCMEC serta organisasi keselamatan anak lain.