Dijelaskan: Bagaimana Apple akan memindai gambar eksploitasi anak di perangkat, dan mengapa itu membuat alis
Diharapkan untuk ditayangkan di Amerika Serikat pada awalnya, fitur-fiturnya termasuk penggunaan teknologi baru untuk membatasi penyebaran CSAM online, terutama melalui platform Apple.

Apple telah mengumumkan bahwa pembaruan perangkat lunak akhir tahun ini akan membawa fitur baru yang akan membantu melindungi anak-anak dari pemangsa yang menggunakan alat komunikasi untuk merekrut dan mengeksploitasi mereka, dan membatasi penyebaran Materi Pelecehan Seksual Anak (Child Sexual Abuse Material/CSAM).
Diharapkan untuk ditayangkan di Amerika Serikat pada awalnya, fitur-fiturnya termasuk penggunaan teknologi baru untuk membatasi penyebaran CSAM online, terutama melalui platform Apple.
Kemudian akan ada perlindungan di perangkat untuk anak-anak dari mengirim atau menerima konten sensitif, dengan mekanisme untuk memperingatkan orang tua jika pengguna berusia di bawah 13 tahun. Apple juga akan melakukan intervensi ketika Siri atau Pencarian digunakan untuk mencari topik terkait CSAM .
Teknologi apa yang dilakukan Apple untuk mencegah penyebaran CSAM online?
Dalam sebuah posting blog, Apple menjelaskan bahwa mereka akan menggunakan aplikasi kriptografi melalui iOS dan iPadOS untuk mencocokkan gambar CSAM yang diketahui yang tersimpan di Foto iCloud. Teknologi ini akan mencocokkan gambar di iCloud pengguna dengan gambar yang diketahui yang disediakan oleh organisasi keselamatan anak. Dan ini dilakukan tanpa benar-benar melihat gambar dan hanya dengan mencari apa yang mirip dengan sidik jari. Jika ada kecocokan yang melewati ambang batas, Apple akan melaporkan kejadian ini ke National Center for Missing and Exploited Children (NCMEC).
Apple mengklarifikasi bahwa teknologinya menjaga privasi pengguna, dan karenanya database diubah menjadi kumpulan hash yang tidak dapat dibaca yang disimpan dengan aman di perangkat pengguna. Ia menambahkan bahwa sebelum gambar apa pun diunggah ke iCloud, sistem operasi akan mencocokkannya dengan hash CSAM yang diketahui menggunakan teknologi kriptografi yang disebut persimpangan set pribadi. Teknologi ini juga akan menentukan kecocokan tanpa mengungkapkan hasilnya.
Pada titik ini, perangkat membuat voucher keamanan kriptografi dengan hasil kecocokan dan data terenkripsi tambahan dan menyimpannya ke iClouds dengan gambar. Teknologi berbagi rahasia ambang batas memastikan bahwa voucher ini tidak dapat ditafsirkan oleh Apple kecuali akun Foto iCloud melewati ambang batas konten CSAM yang diketahui. Ambang ini, klaim blog, telah diberlakukan untuk memberikan tingkat akurasi yang sangat tinggi dan memastikan kurang dari satu dalam satu triliun peluang per tahun untuk salah menandai akun tertentu. Jadi satu gambar tidak mungkin memicu peringatan.
Tetapi jika ambang batas terlampaui, Apple dapat menafsirkan isi voucher keamanan dan secara manual meninjau setiap laporan untuk kecocokan, menonaktifkan akun pengguna, dan mengirim laporan ke NCMEC. Apple mengatakan pengguna akan dapat mengajukan banding jika mereka merasa telah salah ditandai.
Bagaimana cara kerja fitur lainnya?
Keamanan komunikasi baru Apple untuk Pesan akan mengaburkan gambar sensitif dan memperingatkan anak tentang sifat konten. Jika diaktifkan dari backend, anak juga dapat diberi tahu bahwa orang tua mereka telah diberi tahu tentang pesan yang telah mereka lihat. Hal yang sama akan berlaku jika anak memutuskan untuk mengirim pesan sensitif. Apple mengatakan Messages akan menggunakan pembelajaran mesin pada perangkat untuk menganalisis lampiran gambar dan menentukan apakah sebuah foto eksplisit secara seksual dan bahwa Apple tidak akan mendapatkan akses ke pesan tersebut. Fitur ini akan hadir sebagai pembaruan pada akun yang diatur sebagai keluarga di iCloud untuk versi sistem operasi terbaru.
Juga, dengan pembaruan, ketika pengguna mencoba mencari topik CSAM potensial, Siri dan Pencarian akan menjelaskan mengapa ini bisa berbahaya dan bermasalah. Pengguna juga akan mendapatkan panduan tentang cara mengajukan laporan eksploitasi anak jika mereka memintanya.
| Dijelaskan: Bagaimana dan mengapa Google akan menawarkan lebih banyak perlindungan kepada anak-anak secara online
Mengapa Apple melakukan ini dan apa kekhawatiran yang diangkat?
Perusahaan teknologi besar selama bertahun-tahun berada di bawah tekanan untuk menindak penggunaan platform mereka untuk eksploitasi anak. Banyak laporan selama bertahun-tahun menggarisbawahi betapa tidak cukupnya upaya yang dilakukan untuk menghentikan teknologi agar konten CSAM tersedia secara lebih luas.
Namun, pengumuman Apple telah mendapat kritik dengan banyak yang menggarisbawahi bagaimana ini adalah jenis teknologi pengawasan yang ingin dimiliki dan disalahgunakan oleh banyak pemerintah. Fakta bahwa ini datang dari Apple, yang telah lama menjadi pemilih privasi, telah mengejutkan banyak orang.
Juga, ahli kriptografi seperti Matthew Green dari Universitas Johns Hopkins telah menyatakan kekhawatiran bahwa sistem dapat digunakan untuk membingkai orang yang tidak bersalah mengirimkan gambar yang dimaksudkan untuk memicu kecocokan untuk CSAM. Para peneliti telah dapat melakukan ini dengan cukup mudah, katanya kepada NPR, seraya menambahkan bahwa algoritma semacam itu dapat dikelabui.
Tetapi The New York Times mengutip kepala petugas privasi Apple Erik Neuenschwander yang mengatakan fitur-fitur ini tidak akan berarti apa-apa bagi pengguna biasa.
Jika Anda menyimpan koleksi materi CSAM, ya, ini buruk bagi Anda, katanya kepada publikasi.
Buletin| Klik untuk mendapatkan penjelasan terbaik hari ini di kotak masuk Anda
Apakah perusahaan teknologi besar lainnya memiliki teknologi serupa?
Ya. Faktanya, Apple adalah pendatang yang relatif terlambat di tempat kejadian karena Microsoft, Google dan Facebook telah memperingatkan lembaga penegak hukum tentang gambar CSAM. Apple telah tertinggal di belakang karena teknologi semacam itu akan bertentangan dengan komitmennya yang banyak dipuji terhadap privasi pengguna. Akibatnya, pada tahun 2020, ketika Facebook melaporkan 20,3 juta pelanggaran CSAM ke NCMEC, Apple hanya dapat melaporkan 265 kasus, The New York Times melaporkan.
Baru sekarang ia dapat menemukan sweetspot teknologi untuk melakukan ini tanpa memengaruhi pengguna biasa, atau setidaknya menakuti mereka. Namun, seperti reaksi awal yang telah ditunjukkan, ini masih merupakan jalan yang sulit.
Bagikan Dengan Temanmu: