Sukses

Apple Tunda Peluncuran Fitur Anti Pelecehan Anak yang Kontroversial

Apple memutuskan menunda peluncuran fitur anti pelecehan seksual anak setelah menuai pro dan kontra

Liputan6.com, Jakarta - Apple mengumumkan pada hari Jumat pekan ini, mereka menunda peluncuran fitur anti pelecehan anak yang sempat menuai pro dan kontra.

Beberapa pihak menilai, fitur perlindungan dari pelecehan anak yang diumumkan Apple beberapa waktu lalu dapat mengancam privasi perangkat dan layanan.

Mengutip Channel News Asia, Sabtu (4/9/2021), Apple mengatakan mereka menerima respon dari para pelanggan, kelompok advokasi, peneliti, dan lain-lain.

"Kami telah memutuskan untuk mengambil waktu tambahan selama beberapa bulan mendatang untuk mengumpulkan masukan dan melakukan perbaikan sebelum merilis fitur keselamatan anak yang sangat penting ini."

Dikutip dari Engadget, Apple awalnya berencana meluncurkan sistem deteksi CSAM (Child Sexual Abuse Material) ini sebagai bagian dari pembaruan di sistem operasi yang akan datang, yaitu iOS 15, iPadOS 15, watchOS 8, dan macOS Monterey.

* Untuk mengetahui kebenaran informasi yang beredar, silakan WhatsApp ke nomor 0811 9787 670 hanya dengan ketik kata kunci yang diinginkan.

* Follow Official WhatsApp Channel Liputan6.com untuk mendapatkan berita-berita terkini dengan mengklik tautan ini.

2 dari 4 halaman

Fitur Kontroversial

Fitur yang direncanakan salah satunya disertakan dalam aplikasi Pesan atau Messages, di mana anak dan orangtua akan diberitahu ketika Apple mendeteksi foto eksplisit seksual yang dibagikan di aplikasi.

Gambar yang dikirimkan pada anak akan diburamkan dan disertai dengan peringatan.

Apple juga mau menyertakan informasi mengarahkan pengguna bagaimana cara melaporkan CSAM, atau mencari informasi terkait pencegahan hal itu di Siri dan aplikasi pencari mereka.

Namun, fitur iCloud Photos dianggap paling kontroversial dibanding lainnya.

Awalnya, Apple berencana menggunakan sistem pada perangkat untuk mencocokkan foto dengan database CSAM yang dikelola National Center for Missing and Exploited Children (NCMEC) AS dan organisasi lainnya.

Analisa ini dilakukan sebelum gambar diunggah ke iCloud. Jika sistem mendeteksi CSAM dan kajian dari ahli mengonfirmasi kecocokan, Apple akan menonaktifkan akun pengguna itu dan melaporkannya ke NCEMC.

3 dari 4 halaman

Menuai Pro dan Kontra

Apple mengatakan, pendekatan itu memberikan "manfaat privasi atas teknik yang ada karena Apple hanya mengetahui foto pengguna jika mereka memiliki koleksi CSAM yang dikenal di akun iCloud Photos mereka."

Meski didukung oleh sejumlah organisasi tentang langkah tersebut, namun beberapa merasa pemindaian tersebut bisa dipakai penegak hukum atau pemerintah untuk mendorong Apple mencari jenis gambar lain.

Dua peneliti di Princeton University yang mengatakan sedang membangun sistem serupa, menyebut teknologi itu berbahaya karena sistem mereka bisa digunakan untuk pemantauan dan sensor.

"Desainnya tidak terbatas pada kategori konten tertentu; sebuah layanan dapat dengan mudah bertukar dalam basis data pencocokan konten apa pun, dan orang yang menggunakan layanan itu tidak akan menjadi lebih bijaksana."

Di sisi lain, Andy Borrows, Head of Child Safety Online di National Society for the Prevention of Cruelty of Children menyayangkan penundaan peluncuran fitur itu.

"Apple telah mengadopsi pendekatan proporsional yang berusaha menyeimbangkan keamanan dan privasi pengguna, sudah seharusnya mereka tetap teguh pada pendirian," kata Borrows.

(Dio/Ysl)

4 dari 4 halaman

Infografis Eksploitasi Seksual Anak

* Fakta atau Hoaks? Untuk mengetahui kebenaran informasi yang beredar, silakan WhatsApp ke nomor Cek Fakta Liputan6.com 0811 9787 670 hanya dengan ketik kata kunci yang diinginkan.