Search
Close this search box.

VISI | Ketika Anda Tak Bisa Mempercayai Mata Anda Lagi

Bagikan :

Oleh Scarlett Seow Jia Wen (360info)

  • Universitas Monash Malaysia

INI DIMULAI pada tahun 2017 ketika pengguna Reddit mengunggah video seksual eksplisit yang menggunakan wajah selebriti wanita yang ditumpangkan pada tubuh aktris film dewasa.
Munculnya video-video mengganggu tersebut adalah hasil dari algoritma pembelajaran mendalam yang canggih yang dikenal sebagai “deepfake”.

Hal ini mengirimkan gelombang kejutan ke seluruh dunia, mengancam privasi dan keamanan masyarakat. Dalam setahun, Reddit dan platform online lainnya melarang video porno deepfake ini, tetapi masalahnya tidak berhenti di situ.

Teknik canggih ini memungkinkan penggantian kemiripan seseorang dengan kemiripan lainnya. Beberapa contoh populer mencakup penerapan filter untuk mengubah atribut wajah; bertukar wajah dengan selebriti; menyampaikan ekspresi wajah; atau membuat selfie baru berdasarkan foto asli.

Penggunaan deepfake yang jahat berpotensi menyebabkan kerugian psikologis yang parah dan merusak reputasi, menjadikannya sebagai alat yang ampuh yang mampu memicu kepanikan sosial dan mengancam perdamaian dunia.

Pengembangan detektor deepfake canggih yang dilatih untuk mengidentifikasi fitur-fitur berbeda yang membedakan gambar palsu dari gambar asli sangatlah penting.

Pendekatan tradisional berfokus pada analisis ketidakkonsistenan dalam distribusi piksel, yang menyebabkan artefak biometrik dan tekstur wajah yang tidak biasa, seperti tekstur kulit yang tidak alami, bayangan yang aneh, dan penempatan atribut wajah yang tidak normal, yang berfungsi sebagai indikator utama untuk deteksi deepfake.
Namun, evolusi teknologi pembelajaran mendalam, seperti model difusi, transformator, dan Generative Adversarial Networks (GANs), telah membuat pendekatan konvensional menjadi rentan.
GAN adalah teknik terdepan dalam generasi deepfake. Ini terdiri dari dua model: generator yang menghasilkan gambar dan diskriminator yang mencoba membedakan apakah gambar tersebut asli atau palsu.

Baca Juga :  Mengapa Masyarakat Indonesia Tidak Fasih Berbahasa Belanda?

Awalnya, gambar deepfake mungkin menunjukkan kelemahan nyata dalam distribusi piksel. Namun, berdasarkan umpan balik dari diskriminator, generator belajar dari keberhasilan dan kegagalannya untuk menyempurnakan tekniknya. Seiring waktu, melalui pelatihan berkelanjutan, generator menjadi semakin mampu menghasilkan gambar yang tidak dapat dibedakan.

Seiring berkembangnya lanskap digital, perjuangan melawan deepfake telah membuka era baru dalam metode deteksi. Ini semakin berfokus pada pendekatan pembelajaran mendalam daripada menjalani proses yang membosankan dalam membuat fitur secara manual.

Metode ini menggunakan pendekatan “kotak hitam” melalui jaringan saraf konvolusional untuk ekstraksi fitur. Pendekatan ini memungkinkan model untuk secara otomatis mempelajari dan memperoleh fitur diskriminatif langsung dari data pelatihan atau fitur masukan melalui jaringan saraf dalam, sehingga menyederhanakan proses deteksi deepfake.

Dalam skenario transformatif ini, para peneliti mendedikasikan upaya untuk mengembangkan model deteksi yang secara khusus menargetkan gambar deepfake dari berbagai sumber untuk meningkatkan efektivitas model dalam skenario dunia nyata sekaligus meminimalkan sumber daya komputasi yang diperlukan selama pelatihan.

Tujuan mereka adalah mentransformasi model-model ini dengan merestrukturisasi model menjadi alat yang mudah digunakan dan dapat diintegrasikan dengan platform dan aplikasi media sosial.

Namun perjalanannya tidak berakhir di situ. Bagi pengembang dan peneliti, pembelajaran dan adaptasi berkelanjutan adalah hal yang terpenting.

Sangat penting untuk memastikan bahwa model pendeteksian tetap efektif terhadap teknik yang terus berkembang yang digunakan dalam pembuatan deepfake, yang menghadirkan tantangan dalam pendeteksian dan penggunaan yang bertanggung jawab.

Untuk mengatasi tantangan-tantangan ini memerlukan inovasi teknis yang signifikan serta pandangan ke depan yang etis, koordinasi kebijakan, penyelarasan alat-alat, dan keterlibatan dalam dialog publik yang luas.

Strategi komprehensif inilah yang diperlukan untuk benar-benar memajukan teknologi dan melakukannya secara bertanggung jawab dan luas agar menjadi efektif sehingga dapat digunakan dan diterima secara luas.

Baca Juga :  China Bantah Menteri Pertahanan Dong Jun Diselidiki atas Dugaan Korupsi

“Melihat berarti percaya”, di era ketika deepfake mengaburkan batas antara kenyataan dan fiksi, pencarian kebenaran menjadi lebih penting dari sebelumnya.
Perkembangan teknologi deteksi deepfake tidak hanya sekedar tantangan teknis.

Sebaliknya, hal ini muncul sebagai mercusuar dalam upaya kita yang tak henti-hentinya mengejar keaslian.
Di sini, kita diingatkan bahwa meskipun mata kita mungkin tertipu, dedikasi kita untuk menjaga keakuratan memastikan bahwa kenyataan akan selalu terlihat.

Dalam perang melawan penipuan digital, peran utama dan penting deteksi deepfake tetap menjadi penjaga kami, memastikan bahwa bahkan di era deepfake, melihat tetap berarti percaya.

  • Dr Scarlett Seow menerima gelar PhD di bidang Teknologi Informasi dari Monash University pada tahun 2023. Penelitiannya berfokus pada desain dan pengembangan model deteksi yang andal dan tahan terhadap sebagian besar metode pembuatan deepfake dan serangan musuh. Dia saat ini menjadi tutor sesi di Monash University Malaysia.
    Awalnya diterbitkan di bawah Creative Commons oleh 360info™.

Baca Berita Menarik Lainnya :