Berikut adalah perincian tiga ciri keselamatan kanak-kanak yang baru diumumkan Apple dan cara kerjanya.

Apple baru-baru ini telah mengumumkan perlindungan keselamatan kanak-kanak baru yang akan datang pada musim gugur ini dengan pengenalan iOS 15, iPadOS 15, dan macOS Monterey.

Kami akan melihat lebih dekat ciri keselamatan kanak-kanak yang diperluas ini dan teknologi di belakangnya di bawah.

Pengimbasan Bahan Penderaan Seksual Kanak-kanak

Perubahan yang paling ketara ialah Apple akan mula menggunakan teknologi baru untuk mengesan gambar yang menggambarkan gambar penderaan kanak-kanak yang tersimpan dalam Foto iCloud.

Gambar-gambar ini dikenali sebagai Bahan Penderaan Seksual Kanak-kanak, atau CSAM, dan Apple akan melaporkan kejadian tersebut ke Pusat Nasional Kanak-kanak Hilang dan Dieksploitasi. NCMEC adalah pusat pelaporan untuk CSAM dan bekerjasama dengan agensi penguatkuasaan undang-undang.

Pengimbasan CSAM Apple akan dihadkan ke Amerika Syarikat semasa pelancaran.

Apple mengatakan sistem ini menggunakan kriptografi dan dirancang dengan mempertimbangkan privasi. Imej diimbas pada peranti sebelum dimuat naik ke Foto iCloud.

Menurut Apple, tidak perlu risau pekerja Apple melihat gambar sebenar anda. Sebagai gantinya, NCMEC menyediakan Apple dengan hash gambar CSAM. Hash mempunyai gambar dan mengembalikan rentetan huruf dan nombor yang unik dan panjang.

Apple mengambil hash tersebut dan mengubah data menjadi satu set hash yang tidak dapat dibaca yang disimpan dengan selamat pada peranti.

Sebelum gambar diselaraskan ke Foto iCloud, gambar tersebut diperiksa terhadap gambar CSAM. Dengan teknologi kriptografi khas – persimpangan set persendirian – sistem menentukan apakah ada pertandingan tanpa mengungkapkan hasilnya.

Sekiranya ada kecocokan, peranti akan membuat baucar keselamatan kriptografi yang menyandikan perlawanan bersama dengan lebih banyak data yang dienkripsi mengenai gambar. Baucar itu dimuat naik ke Foto iCloud dengan gambar.

Kecuali akaun iCloud Foto melepasi ambang tertentu kandungan CSAM, sistem memastikan bahawa baucar keselamatan tidak dapat dibaca oleh Apple. Itu berkat teknologi kriptografi yang disebut rahsia perkongsian.

Menurut Apple, ambang yang tidak diketahui memberikan ketepatan yang tinggi dan memastikan kemungkinan kurang dari satu dalam satu trilion menandakan akaun dengan salah.

Apabila ambang melebihi, teknologi akan membolehkan Apple mentafsirkan baucar dan gambar CSAM yang sepadan. Apple kemudian akan menyemak setiap laporan secara manual untuk mengesahkan kesesuaian. Sekiranya disahkan, Apple akan mematikan akaun pengguna dan kemudian menghantar laporan ke NCMEC.

Akan ada proses banding untuk pengembalian semula jika pengguna merasa bahawa akaun mereka telah salah ditandai oleh teknologi.

Sekiranya anda mempunyai masalah privasi dengan sistem baru, Apple telah mengesahkan bahawa tidak ada foto yang akan diimbas menggunakan teknologi kriptografi jika anda mematikan Foto iCloud. Anda boleh melakukannya dengan menuju ke Tetapan> [Your Name] > iCloud> Foto.

Terdapat beberapa kelemahan ketika mematikan Foto iCloud. Semua foto dan video akan disimpan di peranti anda. Itu mungkin menimbulkan masalah jika anda mempunyai banyak gambar dan video dan iPhone lama dengan penyimpanan terhad.

Juga, foto dan video yang dirakam pada peranti tidak akan dapat diakses pada peranti Apple lain menggunakan akaun iCloud.

Apple menerangkan lebih lanjut mengenai teknologi yang digunakan dalam pengesanan CSAM di PDF kertas putih. Anda juga boleh membaca Soalan Lazim Apple dengan maklumat tambahan mengenai sistem.

Dalam Soalan Lazim, Apple menyatakan bahawa sistem pengesanan CSAM tidak dapat digunakan untuk mengesan perkara lain selain CSAM. Syarikat itu juga mengatakan bahawa di Amerika Syarikat, dan di banyak negara lain, pemilikan gambar CSAM adalah suatu kejahatan dan bahawa Apple wajib memberitahu pihak berkuasa.

Syarikat itu juga mengatakan bahawa ia akan menolak tuntutan pemerintah untuk menambahkan gambar bukan CSAM ke senarai hash. Ia juga menjelaskan mengapa gambar bukan CSAM tidak dapat ditambahkan ke sistem oleh pihak ketiga.

Kerana tinjauan manusia dan fakta bahawa hash yang digunakan adalah dari gambar CSAM yang sudah diketahui dan yang ada, Apple mengatakan bahawa sistem ini dirancang agar tepat dan mengelakkan masalah dengan gambar lain atau pengguna yang tidak bersalah dilaporkan kepada NCMEC.

Protokol Keselamatan Komunikasi Tambahan dalam Mesej

Satu lagi ciri baru akan ditambah protokol keselamatan dalam aplikasi Mesej. Ini menawarkan alat yang akan memberi amaran kepada anak-anak dan ibu bapa mereka ketika menghantar atau menerima mesej dengan gambar yang berunsur seksual.

Apabila salah satu daripada mesej ini diterima, foto tersebut akan kabur dan anak itu juga akan diberi amaran. Mereka dapat melihat sumber yang bermanfaat dan diberitahu bahawa tidak mengapa jika mereka tidak melihat gambar.

Ciri ini hanya untuk akaun yang disiapkan sebagai keluarga di iCloud. Ibu bapa atau penjaga perlu memilih untuk mengaktifkan ciri keselamatan komunikasi. Mereka juga dapat memilih untuk diberitahu ketika anak berusia 12 tahun atau lebih muda mengirim atau menerima gambar seks yang eksplisit.

Bagi kanak-kanak berumur 13 hingga 17 tahun, ibu bapa tidak diberitahu. Tetapi kanak-kanak itu akan diberi amaran dan ditanya sama ada mereka ingin melihat atau berkongsi gambar seks yang tidak jelas.

Mesej menggunakan pembelajaran mesin pada peranti untuk menentukan sama ada lampiran atau gambar itu eksplisit secara seksual. Apple tidak akan menerima akses ke mesej atau kandungan gambar.

Ciri ini akan berfungsi untuk kedua-dua pesanan SMS dan iMessage biasa dan tidak dihubungkan dengan ciri pengimbasan CSAM yang kami jelaskan di atas.

Lebih Banyak Perubahan Akan Datang Dengan Perisian Terbaru Apple

Dibangunkan bersama dengan pakar keselamatan, tiga ciri baru dari Apple direka untuk membantu menjaga keselamatan anak-anak dalam talian. Walaupun ciri-ciri tersebut dapat menimbulkan keprihatinan di beberapa kalangan yang berfokus pada privasi, Apple telah menyampaikan tentang teknologi dan bagaimana ia akan menyeimbangkan masalah privasi dengan perlindungan anak.

Leave a Reply

Your email address will not be published.