PORTAL SATRIA – Akun milik seorang pria yang menandai gambar medis berupa foto selangkangan putranya ditolak dipulihkan oleh Google.
Alasan Google menolak untuk memulihkan akun, karena gambar yang diambil pria tersebut sebagai Materi Pelecehan Seksual Anak (CSAM).
Menanggapi hal tersebut, para pakar digital mengatakan, bahwa itu adalah jebakan yang tak terhindarkan dalam mencoba menerapkan solusi teknologi untuk masalah sosial.
Sebelumnya, ahli digital telah lama memperingatkan tentang keterbatasan sistem deteksi gambar pelecehan seksual anak otomatis.
Terutama karena perusahaan Google menghadapi tekanan peraturan publik untuk membantu mengatasi keberadaan materi pelecehan seksual.
Dilaporkan laman The Guardian, pria tersebut diketahui bernama Mark. Ia mengambil gambar selangkangan putranya yang mengalami peradangan untuk dikirim ke dokter.
Dokter pun menggunakan foto yang diambil Mark itu untuk mendiagnosis penyakit yang diderita putranya, sehingga dapat memberikan resep antibiotik untuk mengobati putranya. Namun, saat foto diunggah secara otomatis ke cloud, sistem Google mengidentifikasinya sebagai CSAM.
Dua hari kemudian, Gmail Mark dan akun Google lainnya, termasuk Google Fi, yang menyediakan layanan teleponnya dinonaktifkan.
Gambar Mark tersebut disebut sebagai konten berbahaya yang merupakan pelanggaran berat terhadap kebijakan perusahaan dan mungkin ilegal.
Mark kemudian mengetahui bahwa Google telah menandai video lain yang dia miliki di teleponnya dan bahwa departemen kepolisian San Francisco membuka penyelidikan terhadapnya.
Namun Mark dibebaskan dari segala kesalahan kriminal, tetapi Google telah mengatakan akan tetap pada keputusannya, menonaktifkan semua akun milik Mark.
“Kami mengikuti hukum AS dalam mendefinisikan apa yang dimaksud dengan CSAM,” kata Christa Muldoon, juru bicara Google.
“Kemudian menggunakan kombinasi teknologi pencocokan hash dan kecerdasan buatan untuk mengidentifikasi dan menghapusnya dari platform kami,” lanjut dia.