RAKYATKU.COM - Raksasa media sosial, Facebook mengklaim bahwa pihaknya menerima sekitar 500 ribu laporan porno balas dendam per bulan.
Tetapi jumlah ini tampaknya rendah, mengingat Facebook sekarang memiliki sekitar 2,6 miliar pengguna aktif bulanan.
Awal tahun ini, Facebook meluncurkan alat kecerdasan buatan (AI) yang dapat menemukan porno balas dendam, yang juga dikenal sebagai 'gambar intim tanpa persetujuan'. AI ini bisa mendeteksi gambar sebelum dilaporkan oleh pengguna.
Selain itu, Facebook memiliki tim yang terdiri dari sekitar 25 orang (tidak termasuk moderator konten) yang bekerja penuh waktu untuk menangani porno balas dendam.
Tugas tim ini tidak hanya untuk menghapus gambar atau video dengan cepat begitu mereka dilaporkan, tetapi mendeteksi gambar menggunakan AI pada saat mereka diunggah, untuk mencegahnya dibagikan.
"Dalam mendengar betapa mengerikannya pengalaman penyebaran gambar Anda, tim produk sangat termotivasi dalam mencoba mencari tahu apa yang bisa kami lakukan, yang lebih baik daripada hanya menanggapi laporan," kata Radha Plumb, kepala riset kebijakan produk Facebook, dikutip NBC News.