
Ketika Apple mengumumkan pendekatannya terhadap pemindaian CSAM, banyak dari kita yang memperingatkan bahwa proses yang digunakan untuk memeriksa materi pelecehan seksual terhadap anak pada akhirnya akan disalahgunakan oleh pemerintah yang represif untuk memindai hal-hal seperti rencana protes politik.
Perusahaan Cupertino menolak alasan tersebut pada saat itu, namun ironisnya kini justru menggunakan argumen ini sebagai tanggapan terhadap pemerintah Australia …
Rencana pemindaian CSAM asli Apple
Apple awalnya berencana melakukan pemindaian CSAM pada perangkat, menggunakan teknik sidik jari digital.
Sidik jari ini adalah cara untuk mencocokkan gambar tertentu tanpa ada yang harus melihatnya, dan dirancang agar cukup kabur untuk terus mencocokkan gambar yang telah dipotong atau diedit, sekaligus menghasilkan sedikit kesalahan positif.
Untuk lebih jelasnya, proposal Apple adalah pendekatan yang menghormati privasi, karena pemindaian akan dilakukan oleh perangkat kami sendiri, dan tidak ada seorang pun yang akan melihat foto kami kecuali beberapa kecocokan ditandai.
Masalah pemerintahan yang represif
Masalahnya, seperti yang kita amati, adalah potensi penyalahgunaan oleh pemerintah yang represif.
Sidik jari digital dapat dibuat untuk semua jenis materi, tidak hanya CSAM. Tidak ada yang bisa menghentikan pemerintah otoriter menambahkan gambar poster kampanye politik atau sejenisnya ke dalam database.
Alat yang dirancang untuk menargetkan penjahat serius dapat dengan mudah diadaptasi untuk mendeteksi mereka yang menentang pemerintah atau satu atau lebih kebijakannya. Apple – yang akan menerima database sidik jari dari pemerintah – tanpa disadari akan membantu penindasan atau lebih buruk lagi terhadap aktivis politik.
Apple mengklaim bahwa mereka tidak akan pernah mengizinkan hal ini, namun janji tersebut didasarkan pada kebebasan hukum Apple untuk menolak, padahal hal tersebut tidak akan terjadi. Di Tiongkok, misalnya, Apple diwajibkan secara hukum untuk menghapus VPN, berita, dan aplikasi lainnya, serta menyimpan data iCloud warga Tiongkok di server milik perusahaan yang dikendalikan pemerintah.
Tidak ada cara realistis bagi Apple untuk berjanji bahwa mereka tidak akan mematuhi persyaratan di masa mendatang untuk memproses database “gambar CSAM” yang disediakan pemerintah yang juga mencakup kecocokan dengan materi yang digunakan oleh kritikus dan pemrotes. Seperti yang sering dikatakan perusahaan ketika membela tindakannya di negara-negara seperti Tiongkok, Apple mematuhi hukum di setiap negara tempatnya beroperasi.
Tiga tahap U-turn
Apple awalnya menolak argumen ini, tetapi mengatakan bahwa sebagai tanggapan atas kekhawatiran yang meluas tentang hal itu, Apple tetap memutuskan untuk membatalkan rencananya.
Perusahaan kemudian mengubah pendiriannya dengan mengakui bahwa masalahnya ada.
Erik Neuenschwander, direktur privasi pengguna dan keselamatan anak Apple, menulis: “Ini akan […] menimbulkan potensi konsekuensi yang tidak diinginkan. Memindai satu jenis konten, misalnya, membuka pintu bagi pengawasan massal dan dapat menimbulkan keinginan untuk mencari sistem pesan terenkripsi lainnya di seluruh jenis konten.”
Sekarang kita telah mencapai tahap ketiga: Apple sendiri menggunakan argumen yang awalnya ditolaknya.
Apple menggunakan argumen menentang pemerintah Australia
Pemerintah Australia mengusulkan untuk memaksa perusahaan teknologi memindai CSAM, dan The Guardian melaporkan bahwa Apple kini menggunakan argumen lereng licin untuk melawan rencana tersebut.
Apple telah memperingatkan proposal Australia untuk memaksa perusahaan teknologi memindai layanan cloud dan perpesanan untuk mengetahui adanya risiko materi pelecehan anak yang “merusak privasi mendasar dan perlindungan keamanan” dan dapat mengarah pada pengawasan massal dengan dampak global […]
“Memindai secara khusus konten membuka pintu bagi pengawasan massal terhadap sistem komunikasi dan penyimpanan yang menyimpan data yang berkaitan dengan urusan paling pribadi banyak warga Australia,” kata Apple.
“Kemampuan seperti itu, tampilan riwayat, pasti akan meluas ke jenis konten lain (seperti gambar, video, teks, atau audio) dan kategori konten.”
Apple mengatakan alat pengawasan tersebut dapat dikonfigurasi ulang untuk mencari konten lain, seperti aktivitas politik, agama, kesehatan, seksual, atau reproduksi seseorang.
Pemerintah mengatakan bahwa mereka telah mendengarkan “banyak masukan bagus” dari Apple dan pihak lain, dan akan “memasukkan apa yang kami bisa” ke dalam versi revisi rencana tersebut.
Itulah konten tentang Pemindaian CSAM akan disalahgunakan, kata Apple – menggunakan argumen yang awalnya ditolak, semoga bermanfaat.