Internasional, – Semakin banyak konten buatan kecerdasan buatan (AI), terutama gambar dan video, beredar di internet dan menimbulkan kekhawatiran.
Hal ini disebabkan oleh kemampuan konten AI yang seringkali mengecoh pengguna, terutama mereka yang tidak mengetahui fakta di balik konten tersebut.
Salah satu contoh yang mengkhawatirkan adalah di Korea Selatan, di mana kasus pornografi yang dihasilkan oleh teknologi AI deepfake menjadi masalah serius.
Banyak warga Korea Selatan, termasuk anak-anak di bawah umur, telah menjadi korban kejahatan seksual berbasis deepfake.
Kasus ini semakin ramai setelah beberapa ruang obrolan di Telegram viral karena diduga memproduksi dan menyebarkan materi pornografi deepfake.
Hal ini telah memicu ketakutan dan kemarahan publik di Korea Selatan. Berdasarkan data dari Badan Kepolisian Nasional Korea Selatan, ada 297 laporan terkait kejahatan pornografi deepfake dari Januari hingga Juli.
Dari 178 terdakwa, 113 di antaranya adalah remaja. Di Seoul sendiri, polisi telah menangkap 10 remaja berusia 14 tahun yang terlibat dalam kasus ini.
Menanggapi kekhawatiran atas maraknya konten buatan AI yang meresahkan, Google kini sedang mengembangkan alat untuk mendeteksi dan menandai konten AI.
Pada awal tahun ini, Google bergabung dengan Coalition for Content Provenance and Authenticity (C2PA) untuk bekerja sama mengembangkan teknologi yang dapat mengidentifikasi konten yang dihasilkan oleh AI.
Google berencana untuk mengintegrasikan teknologi deteksi ini ke dalam “Content Credentials,” sebuah ekstensi yang berfungsi melacak asal usul konten, baik foto maupun video.
Dalam beberapa bulan mendatang, Google akan meluncurkan versi terbaru dari Content Credentials ini ke berbagai produk utamanya, sehingga pengguna dapat lebih mudah mendeteksi konten AI saat melakukan pencarian.