Apple mempratinjau sistem deteksi CSAM untuk iOS, iPadOS, dan macOS awal bulan ini. Sejak diumumkan, fitur deteksi CSAM telah menjadi topik perdebatan. Tidak hanya peneliti keamanan tapi bahkan Karyawan Apple sendiri dan Anggota parlemen Jerman menyerukannya. Sekarang pengembang telah melaporkan bahwa kode NeuralHash yang digunakan untuk mendeteksi foto CSAM telah ditemukan di iOS 14.3.

Pengembang independen, Asuhariet Ygvar, memposting kode untuk versi Python yang direkonstruksi dari NeuralHash di Github. Dia mengatakan kode yang dia ekstrak berasal dari versi iOS yang dirilis lebih dari enam bulan lalu, meskipun Apple mengklaim bahwa versi iOS saat ini tidak memiliki deteksi CSAM. Ygvar memposting kode di Github untuk peneliti keamanan lainnya untuk menyelam lebih dalam ke dalamnya.

Setelah melihat kode tersebut, beberapa peneliti keamanan dapat menemukan kekurangan di dalamnya. Misalnya, sistem menghasilkan kode hash yang sama untuk dua gambar yang sama sekali berbeda. Peneliti keamanan kemudian memperingatkan pihak berwenang karena potensi tabrakan dapat memungkinkan sistem CSAM dieksploitasi.

Namun, Apple membantah klaim tersebut. Dalam sebuah pernyataan kepada papan utama, Apple mengatakan versi sistem NeuralHash yang diekstraksi oleh pengembang tidak sama dengan yang akan digunakan dalam versi remaining sistem deteksi CSAM. Apple mengatakan bahwa itu membuat kode tersedia untuk umum bagi para peneliti keamanan untuk menemukan kekurangan di dalamnya. Perusahaan mengatakan ada algoritma pribadi yang berjalan di server yang memverifikasi semua kecocokan CSAM setelah ambang batas terlampaui sebelum digunakan untuk verifikasi manusia.

“Algoritma NeuralHash [… is] disertakan sebagai bagian dari kode sistem operasi yang ditandatangani [and] peneliti keamanan dapat memverifikasi bahwa itu berperilaku seperti yang dijelaskan, “salah satu bagian dari dokumentasi Apple berbunyi. Apple juga mengatakan bahwa setelah pengguna melewati ambang batas 30 pertandingan, algoritma non-publik kedua yang berjalan di server Apple akan memeriksa hasilnya.

Matthew Inexperienced, seorang peneliti kriptografi di Universitas Johns Hopkins mengatakan jika tabrakan ada di sistem NeuralHash yang ditemukan oleh pengembang, “mereka akan ada di sistem yang akhirnya diaktifkan Apple.” Ada kemungkinan bahwa Apple dapat “me-respin” fungsi sebelum diluncurkan, “tetapi sebagai bukti konsep, ini pasti legitimate,” katanya tentang informasi yang dibagikan di GitHub.

Nicholas Weaver, seorang peneliti mengatakan papan utama, bahwa jika Apple terus menerapkan kode NeuralHash yang telah bocor, orang dapat “mengganggu tim respons Apple dengan gambar sampah sampai mereka menerapkan filter” untuk menghilangkan positif palsu.

Untuk referensi Anda, Apple tidak langsung memindai foto yang diunggah ke iCloud. Sebaliknya, sistem deteksi CSAM membagi foto menjadi hash yang dicocokkan dengan hash yang dihasilkan oleh foto yang disediakan oleh NCMEC. Jika ada lebih dari 30 foto di mana hash yang sama ditemukan, peninjauan dipicu setelah tim Apple melihat foto tersebut. Namun, menurut Apple, ada pemeriksaan lain antara foto yang memicu sistem peninjauan dan foto yang benar-benar masuk ke tim respons, yang akan menghilangkan database CSAM agar tidak terekspos.

Apa pendapat Anda tentang pemindaian foto iCloud? Apakah menurut Anda deteksi CSAM harus opsional, atau Anda yakin Apple harus dapat memindai foto untuk keselamatan anak? Beri tahu kami pendapat Anda di bagian komentar di bawah!




Seorang insinyur berdasarkan gelar, reporter berita berdasarkan profesi, dan pecinta olahraga yang rajin. Anda akan menemukan saya menggulir Soccer Twitter ketika saya tidak menulis tentang teknologi mutakhir. Punya tip? Dicatat kesalahan? Anda dapat menghubungi menggunakan e-mail yang diberikan di bawah ini.

Kontak: [email protected]