Gemar berbagi melalui ragam teks fiksi dan nonfiksi.

Begini Cara Mengenali Deepfakes yang Dihasilkan AI: Mengesankan tapi Berbahaya

Senin, 11 Desember 2023 06:39 WIB
Bagikan Artikel Ini
img-content0
img-content
Iklan
Dukung penulis Indonesiana untuk terus berkarya

Permainan Deepfake bergerak sangat cepat sehingga mencari tanda-tanda yang biasa --seperti sepasang mata yang mengganggu atau tangan dengan enam jari-- bukanlah mekanisme pertahanan terbaik Anda.

Pada musim semi lalu, sebuah video Instagram muncul yang menampilkan Britney Spears sedang menari. Tidak ada yang aneh di sana. Namun kemudian, para pengamat media menyadari bahwa ketika bintang pop ini mengangkat kedua tangannya ke atas kepala, wajahnya tiba-tiba berubah dalam sekejap, seperti sedang menghapus topeng. Tidak mengherankan, rekaman tersebut tersebar luas, dan dengan cepat dihapus dari akun tersebut.

Tak pelak, video Britney Spears mengundang perdebatan. Ada yang dengan gigih mengklaim bahwa video tersebut adalah sebuah Deepfake-atau sebuah media sintetis yang telah diubah dengan cara yang menipu dengan menggunakan jenis AI atau kecerdasan buatan tertentu. Sementara yang lainnya, mengklaim bahwa itu adalah filter Instagram sederhana yang mulai mengalami gangguan saat Spears bergerak.

Iklan
Scroll Untuk Melanjutkan

Insiden Spears mengilustrasikan betapa berbahayanya internet apabila Anda mengambil gambar secara mentah-mentah. Matt Crisara melalui artikel di laman popularmechanics.com, menulis bahwa hal tersebutmerupakan kesalahan besar, karena internet dipenuhi dengan Deepfake.

Dibandingkan dengan periode yang sama pada tahun 2022, ada tiga kali lebih banyak video Deepfake dan 8 kali lebih banyak suara Deepfake yang diunggah secara daring pada tahun 2023, menurut DeepMedia, sebuah perusahaan yang bekerja sama dengan Departemen Pertahanan A.S., Perserikatan Bangsa-Bangsa, dan perusahaan-perusahaan teknologi global untuk mendeteksi Deepfake.

Jadi bagaimana cara kerja tipuan ini? Bagaimana kita bisa mengetahui video Britney Spears yang asli dan yang telah direkayasa?

Deepfake

Deepfakes sudah ada sejak tahun 2014, ketika Ian Goodfellow pertama kali menemukannya saat menjadi mahasiswa Ph.D. dalam bidang pembelajaran mesin di Universitas Montréal. Sebagai catatan,  Goodfellow adalah seorang ilmuwan peneliti di DeepMind, sebuah laboratorium penelitian AI yang dijalankan oleh Google.

Untuk membuat Deepfakes, ia menemukan model pembelajaran mesin yang disebut generative adversarial networks, atau GAN. Pembelajaran mesin adalah subbidang kecerdasan buatan yang berfokus pada pembuatan algoritme statistik yang dapat melakukan tugas tanpa instruksi eksplisit.

GAN membantu algoritme bergerak melampaui tugas sederhana untuk mengklasifikasikan data ke dalam arena penciptaan data-dalam hal ini, media yang menipu. Hal ini terjadi ketika dua jaringan saraf mencoba menipu satu sama lain untuk berpikir bahwa sebuah gambar itu nyata. Dengan hanya menggunakan satu gambar, GAN yang sudah teruji dapat membuat klip video, misalnya, Richard Nixon yang mengatakan sesuatu yang sangat salah dan bahkan tidak pernah dikatakannya.

Seiring dengan perkembangan AI, penipuan ini menjadi lebih meyakinkan dan lebih mudah dibuat. Para pembuat Deepfakes dulunya harus berkutat dengan perangkat lunak seperti Adobe Photoshop atau AfterEffects, mengedit setiap frame video dalam proses yang sulit dan memakan waktu.

Saat ini, jaringan syaraf tiruan telah berkembang untuk membantu GAN beroperasi lebih akurat, dan basis data publik yang besar serta metode pembelajaran yang mendalam sekarang tersedia secara luas berkat alat yang dapat diakses secara online dan gratis. Hasilnya, membuat Deepfake menjadi lebih murah: baru-baru ini pada akhir 2022, sebuah klon suara menghabiskan biaya sekitar $10.000 untuk biaya server dan pelatihan AI, tetapi sekarang Anda dapat membuat Deepfake dengan perangkat lunak siap pakai hanya dengan beberapa dolar saja, menurut DeepMedia.

"Ini mendemokratisasi akses ke alat yang secara historis berada di tangan segelintir orang dan sekarang berada di tangan banyak orang," kata Hany Farid, Ph.D., Profesor Ilmu Komputer dan Teknik Elektro di University of California, Berkeley, kepada Popular Mechanics.

 

Cara Menemukan Deepfakes

Banyak sumber daya daring yang menunjukkan petunjuk yang harus dicari ketika memecahkan rekaman yang Anda curigai telah dirusak untuk membuat Deepfake. Ini tampak sebelumnya dengan generator gambar AI yang berjuang untuk mereplikasi tangan secara akurat, sering kali memberikan jari-jari tambahan yang kadang-kadang berkerut dengan kejam.

Namun, masalah ini telah membaik, dengan generator gambar seperti MidJourney yang mampu menggambarkan tangan manusia secara akurat. Apakah tips deteksi ini berasal dari Reddit atau MIT Media Lab, artefak visual yang dipermasalahkan mungkin sudah tidak ada lagi pada saat ditemukan.

"Cara terbaik untuk melindungi diri Anda dari penipuan dan disinformasi daring adalah dengan cara kuno, yaitu dengan memikirkan dari mana Anda mendapatkan informasi," jelas Farid.

Lihatlah sebagian besar konten yang Anda serap dari media sosial dengan hati-hati; ada kemungkinan yang jauh lebih kecil bahwa gerai editorial tepercaya seperti New York Times, NPR, Washington Post, BBC  akan dengan sengaja mempublikasikan berita palsu-apalagi menerima begitu saja. Sebagian besar gerai memiliki proses untuk memverifikasi (sejauh yang mereka bisa) bahwa video tersebut asli.

Salah satu metode tersebut adalah pencarian gambar terbalik yang sederhana-efektif untuk video dan gambar-untuk memverifikasi rekaman/foto yang dikirimkan. Proses yang cukup mudah ini memungkinkan Anda untuk menemukan dari mana gambar atau video berasal, dan di mana saja gambar atau video tersebut digunakan (atau mungkin dijiplak).

Ini adalah salah satu bentuk forensik digital paling dasar yang dapat Anda gunakan untuk mengecek konten dengan cepat. Forensik digital adalah cabang ilmu forensik yang berfokus pada identifikasi, akuisisi, pemrosesan, analisis, dan pelaporan data yang disimpan secara elektronik.

Menghasilkan video yang meyakinkan masih membutuhkan banyak waktu, daya pemrosesan, dan uang. Sebagian besar komputer tingkat konsumen tidak akan memiliki kekuatan pemrosesan yang cukup untuk menghasilkan Deepfake dengan cukup cepat agar efektif. Deepfake dapat memakan waktu berminggu-minggu, terkadang berbulan-bulan untuk menghasilkannya dengan sempurna.

Foto Deepfake jauh lebih mudah-dan lebih cepat-dibuat. Generator gambar AI seperti Dall-E, Stable Diffusion, dan Midjourney sangat dekat untuk menciptakan gambar yang benar-benar fotorealistik berdasarkan petunjuk teks sederhana.

"Jadi, ini hanya masalah waktu saja, yang mungkin bisa kita ukur dalam hitungan bulan, sebelum semua ini melewati apa yang kita sebut sebagai lembah yang luar biasa," kata Farid.

"Lembah yang luar biasa" ini mengacu pada perangkat lunak yang dapat menciptakan gambar yang tidak dapat dibedakan dari kenyataan. Kita belum sampai di sana, tapi kita sudah sangat dekat.

Pemalsuan audio bahkan lebih dekat ke lembah yang luar biasa, dengan kemampuan untuk membuat klip menggunakan sampel pendek dari suara seseorang-bahkan hanya beberapa detik saja. Farid mengatakan bahwa tidak lama lagi kita akan hidup di dunia. Para peretas dapat memalsukan suara seseorang secara real-time saat melakukan panggilan telepon.

Pemalsuan Suara dalam Berita

Seluruh bencana Britney Spears adalah bukti bahwa Deepfakes dapat memiliki konsekuensi yang nyata dan sah. Jika kita melihat kembali ke tujuh bulan yang lalu, rekaman Spears menyebabkan klaim bahwa dia sudah meninggal.

Bahkan dilaporkan bahwa beberapa orang sampai memanggil polisi untuk melakukan pemeriksaan kesehatan terhadapnya-sebuah pelanggaran privasi yang jelas. Pertaruhannya menjadi lebih tinggi lagi ketika menyangkut Deepfake yang digunakan sebagai senjata politik.

Aktor-aktor jahat telah tertangkap menggunakan generator gambar AI untuk menciptakan Deepfake adegan "shock and awe" dari konflik Gaza yang sedang berlangsung, yang sebenarnya tidak pernah terjadi. Kedua belah pihak telah menggunakan Deepfakes sebagai alat untuk mempengaruhi narasi dari momen yang penuh emosi dalam sejarah.

Membaca makalah penelitian Farid pada November 2022, "Melindungi Pemimpin Dunia dari Deep Fakes," yang diterbitkan dalam Prosiding Akademi Ilmu Pengetahuan Nasional Amerika Serikat, ia menyebutkan contoh yang sangat menarik dari komedian dan pembuat film Jordan Peele.

Ini adalah video yang dimodifikasi dari banyak pidato kepresidenan Obama. Audionya telah diubah-dengan bibir yang disinkronkan agar sesuai. Kesimpulan utamanya adalah bahwa kita akan dapat merekayasa balik Deepfakes... setelah kita memahami sepenuhnya bagaimana mereka dibuat.

Lalu?

Kita memaklumi, forensik digital adalah solusi yang layak untuk mendeteksi Deepfakes secara teori. Namun,  tidak dapat diskalakan untuk mengaduk-aduk firehose Deepfakes yang menyirami platform media sosial.

"Deepfake tidak dirancang untuk bekerja pada skala tersebut, pada skala 500 jam video yang diunggah ke YouTube setiap menitnya," kata Farid.

Beberapa pekerjaan yang paling menjanjikan melibatkan sistem yang menambahkan label digital ke konten asli yang Anda buat di perangkat.

 "Perangkat ini akan menentukan siapa Anda, di mana Anda berada, kapan Anda berada di sana, dan apa yang Anda rekam," katanya. Hal ini akan memberikan solusi yang cepat dan mudah bagi platform media sosial untuk mengotentikasi konten asli dari yang palsu. ***

Bagikan Artikel Ini

Baca Juga











Artikel Terpopuler