Teknologi

Rencana Apple Pindai Perangkat Pengguna Tuai Tuduhan Pelanggaran Privasi

Irfan — Asumsi.co

featured image
Unsplash

Rencana Apple untuk memeriksa setiap arsip foto yang terekam di iPhone dan iCloud untuk mencegah praktik eksploitasi dan kekerasan terhadap anak diapreasiasi banyak pihak. Namun, tak sedikit juga yang khawatir akan hal itu. Soalnya, meski di sisi lain pemeriksaan ini punya tujuan baik, keberadaannya bisa disalahgunakan untuk memata-matai pengguna iPhone.

Seperti diketahui, sebelumnya Apple akan memasang deteksi khusus terkait child sexual abuse material (CSAM) untuk memeriksa foto-foto yang dinilai menggambarkan aktivitas seksual secara eksplisit dan melibatkan anak-anak. Deteksi ini akan memindai foto-foto yang dianggap mencurigakan untuk kemudian dilaporkan kepada National Center for Missing and Exploited Children (NCMEC).

Dalam laporan BBC, pemindaian dilakukan sebelum foto disimpan di iCloud. Sistem ini juga diakui memiliki level akurasi yang sangat tinggi.

Langgar Privasi

Kekhawatiran pelanggaran privasi dari pendeteksian ini diungkapkan salah satunya oleh profesor dan kriptografer dari Johns Hopkins University, Matthew Green. Green melalui akun twitternya, dia menyebut di satu sisi teknologi seperti ini patut disyukuri. Namun di sisi lain, Apple harus berhati-hati kalau teknologi tersebut jatuh ke pemerintah yang otoriter.

Green khawatir teknologi ini justru digunakan pemerintah sebagai sarana untuk memata-matai data pribadi pengguna.

“Alat deteksi ini adalah anugerah untuk menemukan pornografi yang melibatkan anak-anak di handphone orang-orang. Tapi bayangkan jika itu jatuh ke tangan pemerintah yang otoriter?,” cuit Green.

Kepada Asumsi, Kepala Divisi Akses Informasi SAFEnet, Unggul Sugena, menyebut sampai saat ini pihaknya belum mengetahui apakah CSAM ini sudah atau akan digunakan untuk pemakai produk Apple di Indonesia. Namun, menurut dia, patut dijelaskan apa urgensinya terhadap perlindungan anak di dunia siber.

Menurut Unggul, di Indonesia, foto yang disimpan predator anak lebih banyak menggunakan platform sosial media seperti grup di Facebook. Ini sama seperti terbongkarnya grup Facebook Lolita beberapa waktu ke belakang. Sementara terkait CSAM, hendaknya sejak awal Apple bisa memberi kepastian perlindungan pengguna mengingat adanya prinsip privasi yang berpotensi dilanggar.

“Seharusnya aturan penggunaan sudah menjelaskan dan akan terkait dengan aturan hukum negara bersangkutan. Kalau tindakan preventif, harus jelas alasan hukum, tidak hanya logis saja,” kata Unggul.

Baca Juga: Lindungi Anak dari Paparan Asusila, Apple Bakal Rilis Pemindai Keamanan Konten

Kejelasan di awal ini penting karena kalau deteksi ini dilakukan, belum ada jaminan data yang dipindai tidak disalahgunakan. Sementara teknologi ini rentan pelanggaran karena memindai semua material yang diunggah oleh pengguna.

“Entah ketemu si CSAM atau enggak, faktanya dokumen pribadi kita satu persatu sudah direkam untuk pelacakan. Satu, dia melanggar privasi, dua, tidak ada jaminan data kita “cukup” hanya di-scan, tapi tidak disalahgunakan,” kata dia.

Padahal lewat fasilitas iCloud yang dimiliki Apple, pengguna berharap keamanan yang lebih ketika memutuskan untuk menyimpan foto dan dokumen. Beberapa di antaranya bahkan membayar untuk ruang penyimpanam yang lebih besar. Oleh karena itu, hendaknya Apple tidak mencederai kepercayaan pelanggan dengan hadirnya teknologi ini.

“Definisi CSAM perlu dicek apa dan seperti apa contohnya sebelum langkah ini dilakukan. Dan perlu juga opt-out dari users yang tidak mau, apabila harus diterapkan, misalnya memang sudah jadi kesepakatan dari otoritas Apple di negara bersangkutan dengan pemerintah selaku penegak hukum. Syarat dan ketentuan yang sudah jelas seharusnya sudah cukup untuk memberikan rasa aman dan nyaman kepada pengguna,” ucap dia.

Tanpa aturan dan definisi yang jelas, survaillance tech software memang rentan disalahgunakan dan berpotensi melanggar hak asasi. Oleh karena itu, SAFEnet dan berbagai organisasi sedang mendorong moratorium penjualan produk dan jasa piranti lunak ini.

“Perlindungan pengguna melalui aturan data pribadi, dan penegakan hukum karena berbicara konten CSAM, maka harus juga berbicara soal predator anak. Dipelajari pola predator anak dan ditegakkan hukum. Setahu kami, mereka lebih banyak berjejaring di media sosial, pesan singkat; sedangkan tempat penyimpanan katakanlah di cloud, itu barang netral. Penjahatnya yang harus ditrackdown bukan semua users,” ucap dia.

Sebelumnya, lewat CSAM ini foto-foto yang dianggap memiliki konten eksplisit pelecehan seksual terhadap anak akan ditandai dengan hashes, atau kode dari hasil penyandian yang biasanya terdiri dari huruf dan angka. Hasil dari deteksi ini akan diperiksa secara manual. Jika dari hasil pemeriksaan dinilai foto tersebut mengindikasikan eksploitasi anak maka Apple akan melaporkannya kepada National Center for Missing & Exploited Children (NCMEC) untuk ditindaklanjuti secara hukum.

Sistem pendeteksi CSAM diklaim sudah dilatih dengan memanfaatkan 200 ribu foto milik NCMEC dan organisasi keselamatan untuk anak-anak lainnya.

Apple mengatakan deteksi teknologi CSAM tetap mempertimbangkan hak privasi pengguna. Apple juga menambahkan bahwa sistem deteksi CSAM sangat akurat dalam memindai akun. Jika pengguna merasa akunnya salah ditandai oleh deteksi CSAM, mereka dapat mengajukan banding untuk dilakukan pemulihan.

Share: Rencana Apple Pindai Perangkat Pengguna Tuai Tuduhan Pelanggaran Privasi