c

Selamat

Minggu, 16 November 2025

KULTURA

11 November 2025

13:31 WIB

Peneliti Menjajal Peluang Memerangi Deepfake Dengan "Peracunan Data" AI

Peneliti Australia mengembangkan alat anti deepfake AI yang bekerja dengan cara "meracuni" data gambar dan video yang berisiko, sehingga AI tak bisa melakukan rekayasa visual dengan presisi.

Editor: Andesta Herli Wijaya

<p id="isPasted">Peneliti Menjajal Peluang Memerangi <em>Deepfake</em> Dengan &quot;Peracunan Data&quot; AI</p>
<p id="isPasted">Peneliti Menjajal Peluang Memerangi <em>Deepfake</em> Dengan &quot;Peracunan Data&quot; AI</p>

Ilustrasi deepfake atau kebohongan menggunakan wajah orang lain. Shutterstock/MDV Edwards.

JAKARTA - Para peneliti Universitas Monash di Australia, bekerja sama dengan Kepolisian Federal Australia (Australian Federal Police/AFP), mengembangkan alat kecerdasan buatan (artificial intelligence/AI) baru untuk memerangi gambar deepfake yang berbahaya. Alat ini berfokus pada upaya pengamanan data, lewat metode peracunan data visual berisiko.

Deepfake merupakan teknik memanipulasi gambar atau video menggunakan AI untuk membuat konten baru yang terlihat asli dan meyakinkan. Kejahatan semacam ini makin marak terjadi di era AI, karena pelaku kejahatan bisa makin mudah untuk melakukan rekayasa visual.

Karena itu, kehadiran alat anti deepfake menjadi sangat relevan. Alat yang tengah dikembangkan di Australia diklaim dapat memperlambat dan menghentikan para pelaku kejahatan visual. Sasaran alat ini termasuk untuk memerangi memproduksi material pelecehan anak yang dihasilkan oleh AI, gambar serta video deepfake dan sebagainya, menurut pernyataan Universitas Monash yang dirilis pada Senin (10/11), dilansir dari Antara.

Dikenal sebagai "peracunan data" (data poisoning), teknik itu melibatkan perubahan halus pada data untuk membuat praktik memproduksi, memanipulasi, dan menyalahgunakan gambar atau video menggunakan program AI menjadi jauh lebih sulit. Proyek yang dikembangkan melalui AI for Law Enforcement and Community Safety (AiLECS) ini merupakan kolaborasi antara AFP dan Universitas Monash.

Sebagaimana diketahui, alat AI dan pembelajaran mesin (machine learning) mengandalkan kumpulan data daring yang besar. Meracuni data ini dapat mengakibatkan keduanya memproduksi output yang tidak akurat, bias, atau rusak.

Dengan begitu, lebih mudah untuk mengidentifikasi gambar atau video palsu yang dimanipulasi oleh pelaku kejahatan. Alat ini juga dapat membantu para penyidik dengan mengurangi volume material palsu yang harus diperiksa, kata para peneliti.

Baca juga: Mengenal Cara Kerja Deepfake

Alat pengacau AI yang disebut Silverer itu saat ini masih dalam tahap prototipe. Alat tersebut dirancang untuk mengembangkan dan terus meningkatkan teknologi yang akan mudah digunakan bagi masyarakat umum Australia yang ingin melindungi data mereka di media sosial, ujar para peneliti.

"Sebelum seseorang mengunggah gambar ke media sosial atau internet, mereka dapat memodifikasinya menggunakan Silverer. Hal ini akan mengubah piksel untuk mengecoh model AI, dan hasil produksinya akan memiliki kualitas yang sangat rendah, dipenuhi pola buram, atau bahkan tidak dapat dikenali sama sekali," papar Elizabeth Perry, peneliti sekaligus pemimpin proyek AiLECS dan kandidat PhD di Universitas Monash.

AFP melaporkan adanya peningkatan material pelecehan anak yang dihasilkan oleh AI. Material itu dapat dengan mudah diproduksi dan disebarkan oleh pelaku kejahatan menggunakan teknologi sumber terbuka (open-source) dengan pembatasan akses yang sangat rendah, menurut Campbell Wilson, ahli forensik digital yang juga salah satu direktur AiLECS.


KOMENTAR

Silahkan login untuk memberikan komentarLoginatauDaftar