Tautan-tautan Akses

‘Deepfake’: Tipu Muslihat Canggih dengan Manfaatkan Video


Gambar yang dicuplik dari sebuah video palsu yang menampilkan mantan Presiden Barack Obama yang menampilkan elemen-elemen pemetaan wajah yang digunakan dalam teknologi ini yang memungkinkan siapapun membuat video dari orang sungguhan yang tampak seolah-olah mengucapkan kata-kata yang sebenarnya tidak pernah mereka ucapkan (foto: AP Photo)
Gambar yang dicuplik dari sebuah video palsu yang menampilkan mantan Presiden Barack Obama yang menampilkan elemen-elemen pemetaan wajah yang digunakan dalam teknologi ini yang memungkinkan siapapun membuat video dari orang sungguhan yang tampak seolah-olah mengucapkan kata-kata yang sebenarnya tidak pernah mereka ucapkan (foto: AP Photo)

Hey, apakah anggota kongres partai saya benar-benar mengatakan hal itu? Apa itu benar-benar Presiden Donald Trump di video, atau saya sedang diperdaya?

Teknologi baru di internet memungkinkan semua orang menciptakan video dengan menggunakan seseorang yang nyata yang tampak mengucapkan sesuatu yang sesungguhnya tidak pernah mereka ucapkan. Anggota Partai Republik dan Demokrat memprediksi cara dengan memanfaatkan teknologi tinggi ini dengan membuat seseorang seolah-olah mengucapkan kata-kata tertentu menjadi senjata dalam perang disinformasi terbaru terhadap Amerika Serikat dan negara-negara demokrasi Barat lainnya.

Kita tidak sedang berbicara video dengan sinkronisasi gerak bibir. Teknologi ini memanfaatkan pemetaan wajah dan kecerdasan buatan untuk menghasilkan video yang tampak begitu asli sehingga sulit mengenali video palsu. Para pembuat undang-undang dan pejabat intelijen khawatir akan video-video palsu ini – yang disebut dengan deepfake – yang dapat digunakan untuk mengancam keamanan nasional atau mencampuri pemilihan umum.

Sejauh ini, hal ini belum terjadi, namun para pakar mengatakan bukan masalah bila itu terjadi, tapi kapan akan terjadi.

“Saya memperkirakan di sini di Amerika Serikat kita akan mulai menyaksikan konten-konten dalam pemilihan sela mendatang dan pemilihan nasional dua tahun sejak saat ini,” ujar Hany Farid, seorang pakar forensik digital di Dartmouth College di Hanover, New Hampshire. “Teknologi, sudah barang tentu, tidak mengenal batas, jadi saya memperkirakan dampak dari permasalahan ini akan tersebar ke seluruh dunia.”

Saat orang biasa dapat menciptakan video palsu yang realistik contohnya video presiden yang mengatakan apapun yang mereka inginkan, Farid mengatakan, “maka kita telah memasuki sebuah dunia baru dimana akan sangat sulit untuk mengetahui cara kita untuk mempercayai apa yang kita saksikan.” Demikian pula kebalikannya akan menjadi permasalahan juga. Liputan asli akan dianggap palsu oleh orang, katakanlan kekejaman yang nyata, untuk maksud mendapatkan keunggulan politik.

Menyadari akan implikasi dari teknologi ini, U.S. Defense Advanced Research Projects Agency (DARPA) sudah memulai sebuah progam yang telah berjalan dua tahun dari empat tahun yang direncanakan untuk mengembangkan teknologi yang dapat mendeteksi gambar dan video palsu. Sekarang ini, butuh analisis ekstensif untuk mengidentifikasi video palsu. Masih belum jelas apabila cara baru untuk memeriksa keaslian gambar atau mendeteksi gambar atau video palsu akan dapat mengejar kemajuan teknologi deepfake.

Deepfake mendapatkan namanya karena teknologi ini memanfaatkan apa yang disebut dengan deep learning, sebuah bentuk kecerdasan buatan. Mereka dibuat dengan memasukkan alogritma ke komputer, atau seperangkat instruksi, serta gambar dan suara dalam jumlah banyak dari orang tertentu. Program komputer ini kemudian belajar bagaiman menirukan ekspresi wajah orang tersebut, kebiasaan gerak tubuh, suara, dan intonasi suara. Apabila anda memiliki cukup banyak kumpulan video dan suara dari seseorang, anda dapat menggabungkan video palsu dari orang itu dengan suara palsu dan anda dapat membuat mereka mengatakan apapun yang anda inginkan.

Sejauh ini, deepfake kebanyakan hanya digunakan untuk memperburuk citra pesohor atau sebagai lelucon, namun tidak sulit untuk memprediksi pemanfaatannya oleh negara tertentu guna melakukan aktivitas jahat terhadap Amerika Serikat, ujar Sen. Marco Rubio, R-Fla, satu dari beberapa anggota komite intelijen Senat yang mengutarakan kekhawatirannya tentang teknologi deepfake.

Sebuah lembaga intelijen asing dapat memanfaatkan teknologi ini untuk membuat video plasu dari seorang politisi Amerika yang mengucapkan julukan yang bersifat rasis atau menerima suap, ujar Rubio. Mereka dapat memproduksi video palsu yang menggambarkan seorang serdadu Amerika melakukan pembantaian terhadap warga sipil di luar negeri, atau salah satu pejabat AS yang mengakui adanya rencana rahasia untuk melakukan konspirasi. Bayangkan sebuah video dari seorang pemimpin AS – atau pejabat Korea Utara atau Iran – yang memperingatkan Amerika Serikat akan bencana yang akan terjadi.

“Ini adalah senjata yang dapat dimanfaatkan – yang apabila digunakan dalam saat dan tempat yang tepat – dengan cara yang sama berita palsu disebarkan, kecuali dalam bentuk video, akan menciptakan kekacauan yang nyata dan instabilitas sehari sebelum pemilihan umum atau sebelum dikeluarkannya sebuah keputusan penting apapun,” ujar Rubio kepada The Associated Press.

Namun teknologi deepfake masih memiliki beberapa kelemahan. Contohnya orang berkedip dalam video palsu akan terlihat tidak alami. Namun teknologi ini terus disempurnakan.

“Dalam waktu satu atau dua tahun, akan sulit sekali bagi seseorang untuk membedakan mana video asli dan mana yang palsu,” ujar Andrew Grotto, seorang rekanan keamanan internasional di Center for International Security and Cooperation di Stanford University di California.

“Teknologi ini, saya rasa, akan sangat menarik bagi berbagai negara untuk dimanfaatkan dalam kampanye disinformasi untuk memanipulasi opini publik, memperdaya populasi, dan merongrong kepercayaan kepada lembaga-lembaga kita,” ujar Grotto. Ia menyerukan kepada para pimpinan pemerintahan dan politisi untuk secara gamblang menyatakan teknologi itu tidak diterima dalam debat politik yang beradab.

Video-video palsu telah dimanfaatkan untuk tujuan politik jahat selama bertahun-tahun, jadi tidak ada alasan untuk mempercayai video palsu yang memanfaatkan teknologi tinggi, yang terlihat lebih realistis, dan teknologi ini tidak boleh digunakan dalam kampanye disinformasi di masa depan.

Rubio mencatat pada tahun 2009, Kedubes AS di Moskow mengajukan keberatan kepada Kementrian Luar Negeri Rusia tentang video seks palsu yang ditujukan untuk merusak reputasi dari seorang diplomat AS. Video ini menunjukkan sang diplomat yang sudah menikah, yang menjadi penghubung dengan grup keagamaan dan HAM, sedang menelpon di sebuah jalanan gelap. Video itu kemudian menunjukkan sang diplomat berada di kamar hotelnya, yang tampaknya diambil dengan kamera tersembunyi. Kemudian, video itu memperlihatkan seorang pria dan wanita berhubungan intim di kamar yang sama dengan lampu mati, meskipun tidak jelas apakah pria dalam video itu adalah sang diplomat.

John Beyrle, yang saat itu adalah Duta Besar AS di Moskow, menyalahkan pemerintah Rusia atas tersebarnya video itu, yang ia katakan jelas-jelas adalah sebuah rekayasa.

Michael McFau, yang adalah soerang mantan Duta Besar AS di Rusia antara tahun 2012 dan 2014, mengatakan Rusia telah terlibat dalam video disinformasi terhadap berbagi aktor politik selama bertahun-tahun dan ia sendiripun telah menjadi sasaran. Ia menyatakan propraganda pemerintah Rusia menyisipkan wajahnya ke dalam berbagai foto dan “memotong-motong pidatonya sehingga tampak ia mengatakan berbagai hal yang tidak pernah ia ucapkan dan bahkan menuduh saya sebagai seorang pedofil.” [ww]

XS
SM
MD
LG