Melihat yang Tak Lagi Berarti Percaya: Krisis Kebenaran di Era Deepfake
Dr. Firman Kurniawan S.
Pemerhati Budaya dan Komunikasi Digital
Pendiri LITEROS.org
"MELIHAT BERARTI PERCAYA" adalah ungkapan yang mengemuka saat khalayak Amerika menyaksikan Kepala Polisi Vietnam Selatan Brigadir Jenderal Nguyễn Ngọc Loan menembak secara brutal tawanan Viet Cong, Nguyễn Văn Lém. Peristiwa di jalanan Saigon itu terekam dalam foto karya jurnalis Associated Press, Eddie Adams, pada 1 Februari 1968. Karya jurnalistik ini kemudian dikenal sebagai Saigon Execution dan ramai diperbincangkan sehari setelah peredarannya.
Khalayak, terutama warga Amerika yang pemerintahnya mengirim pasukan militer, membela Vietnam Selatan dalam kecamuk perang dengan Vietnam Utara itu, jadi bergeser opininya. Dukungan yang semula diberikan untuk mencegah penyebaran ideologi komunis, berubah jadi kecaman. Mereka juga meminta segera menarik pasukan militer Amerika dari Vietnam.
Pesan kebiadaban yang terpancar lewat gambar saat itu, produk visual tak terancam keasliannya oleh manipulasi deepfake, mampu ditangkap secara utuh. Rasa percaya terbangun. Perang tak punya sedikit pun sisi kemanusiaan untuk dibela. Lewat foto itu, walau tanpa narasi berlebihan maupun konteks yang lengkap realita diantarkan. Opini yang berubah jadi indikasinya.
Netanyahu Posting Video Lagi, Netizen Soroti Manset Kemeja: Ini AI!
Ungkapan soal empirisme visual ada gambarnya maka layak dipercaya, juga terepresentasi lewat siaran langsung telvisi yang diselenggarakan NASA. Siaran ini disaksikan jutaan pasangan bola mata penduduk bumi. Pada hari itu, 20 Juli 1969, diluncurkan Apollo 11 dan pendaratan pertama manusia di Bulan. Neil Armstrong, Buzz Aldrin, dan Michael Collin, diperlihatkan benar-benar menginjakkan kakinya di atas permukaan benda langit, tetangga dekat Bumi itu.
Peristiwanya dicatat sebagai supremasi luar angkasa Amerika, walaupun lewat ungkapan diperhalus sebagai pencapaian seluruh umat manusia. Ini termenifestasi lewat penyataan Neil Amstring, "That's one small step for a man, one giant leap for mankind". Sebuah langkah kecil bagi manusia, namun lompatan besar bagi umat manusia.
Hasil FP2 MotoGP Brasil 2026: Ai Ogura Kalahkan Marc Marquez di Detik Terakhir!
Soal diperlukannya gambar sebagai sarana percaya ini, memang bukan hal baru dalam sistem berpikir manusia. Realitasnya dikonfirmasi oleh banyak psikolog, walaupun ada koreksi di sana-sini. Koreksi soal penglihatan, yang bukan satu-satunya sumber pembangun kepercayaan. Salah satunya, diungkapkan Nuala G. Walsh, 2023, lewat tulisannya: "Misjudgement: Why We Trust What We See vs. What We Hear. Tuning out voices that matter slowly degrades our decisions”. Disebutkannya kurang lebih, ribuan gambar di smartphone dengan aplikasi TikTok, juga Instagram, mampu merangsang otak. Hal yang terlihat lebih dapat dipercaya daripada yang didengar. Namun hal yang telah menjadi kelaziman khalayak ini, dapat menjadi kesalahan umum. Dengan hanya bertumpu pada penglihatan untuk percaya, dapat secara langsung menurunkan kualitas keputusan. Keputusan yang prosesnya mengabaikan hal-hal yang disediakan pendengaran.
AS Tuding Pendukung Mojtaba Khamenei Palsu, Hanya Rekayasa AI
Namun dari seluruh pernyataan itu tersirat khalayak biasa membangun kepercayaan, terutama dengan bertumpu pada penglihatannya. Kebiasaan ini dapat menyesatkan. Dengan mengandalkan penglihatan saja, informasi khas yang hanya dapat diterima masing-masing indera jadi terbendung. Ini yang dimaksud Walsh sebagai menurunnya kualitas keputusan. Sebab bisa jadi, informasi dari sumber lain justru memperbaiki, bahkan membatalkan informasi yang ditangkap penglihatan. Mengabaikan keragaman sumber informasi, berarti membiarkan realitas tak hadir utuh.
Hari ini pernyataan Walsh itu jadi relevan dengan kehadiran deepfake beserta ekosistemnya. Terdapat unsur ekosistem untuk menerima deepfake sebagai sarana pembentuk kepercayaan.
Netanyahu Unggah Video Baru Sapa Warga usai Dituding Pakai AI, Cincinnya Bikin Netizen Curiga
Pertama, teknologi berbasis AI yang makin sempurna. Ini menyebabkan formulasinya makin tak mudah dikenali dengan hanya mengandalkan mata telanjang. Juga, ketika hanya berbekal pengetahuan awam. Kedua, cara berpikir manusia yang telah mengalami perubahan, seiring membanjirnya informasi. Perubahan akibat adaptasi, untuk merespons cepat kedatangan informasi yang tak pernah berhenti. Dan ketiga, makin sempurnanya penerapan strategi penggunaan deepfake. Sering kali deepfake ditumpangkan pada konten dengan konteks yang telah diterima khalayak, bahkan ketika formulasinya tak punya acuan di dunia nyata.
Bekerjanya deepfake beserta ekosistemnya itu, dapat dengan mudah disaksikan dalam kecamuk perang antara Iran dengan Amerika-Israel yang berlangsung hingga hari ini. Kerap beredar video deepfake yang menarasikan dihancurkannya permukiman-permukiman sipil oleh luncuran peluru kendali. Luluh lantaknya tempat tinggal, diikuti penyebutan jumlah korban usia anak maupun warga yang tak bersalah. Walaupun pada akhirnya disadari merupakan konten manipulasi, namun telah berhasil mengaduk-aduk emosi khalayak. Produsennya, para pihak yang terlibat dalam pertikaian: Iran maupun Amerika-Israel. Tujuan diedarkannya deepfake semacam itu, adalah melunturkan dukungan pada pihak yang dianggap membabi-buta menghancurkan tempat-tempat yang tak seharusnya diserang. Timbulnya korban, memperdalam kegeraman.
Deepfake juga diproduksi untuk menggelorakan keberhasilan serangan pada instalasi strategis lawan. Ini bertujuan memperkuat moral pasukan atas keberhasilan yang telah dicapai. Setidaknya memperbesar harapan meraih kemenangan. Deepfake jadi alat propaganda ampuh hari ini.
Lantaran kerapnya peredaran deepfake di tengah perang itu, tanpa disadari keprihatinan pada krisis kemanusiaan tereduksi, jadi sekadar permainan tebak-tebakan global. Tebak-tebakan, “ini deepfake atau asli?” Ini nyata, saat beredar video-video Benjamin Netanyahu yang dikabarkan telah tewas. Tewas akibat serangan bertubi-tubi peluru kendali Iran. Untuk menepisnya, Perdana Menteri Israel itu dihadirkan lewat tayangan video oleh berbagai media berita. Judulnya seputar: “Netanyahu Asli atau AI?” Artinya tak pasti Netanyahu masih hidup atau tinggal formulasi AI-nya?
Propaganda yang memanfaatkan teknologi mutakhir di atas, bisa membangun kepercayaan ketika ekosistem penerimaan pabrikasi deepfake-nya, telah terbentuk. Ketiga unsurnya telah hadir. Penerimaan realitas palsu ini, justru mengacaubalaukan kepastian.
Seluruhnya kemudian menjadi tantangan manusia hari ini. Yang bukan saja mengancam eksistensinya, akibat sistemnya yang makin sempurna dan siap mengambil alih peran manusia. Namun kekerapan kehadiran material manipulasi deepfake yang turut membangun realitas, memengaruhi kualitas keputusan manusia dalam menentukan jalan hidupnya.
Nadia Naffi, 2025, dalam “Deepfakes and The Crisis of Knowing”, menyebut kurang lebih: di dunia media sintetis tingkat lanjut, literasi AI bukan hanya tentang menggunakan perangkat AI, tapi tentang bertahan hidup dalam realitas yang dimediasi AI. Dalam keadaan ini, melihat dan mendengar bukan lagi berarti percaya. Pernyataan Naffi ini dapat ditafsir sebagai makin longgarnya kepastian. Kepastian yang dikacaubalaukan oleh kehadiran produk-produk manipulasi AI, berwujud deepfake. Kekerapan kehadirannya dinormalisasi sebagai kelaziman. Sementara tanpa kehadirannya, jelas ada perbedaan yang signifikan.
Dalam konteks perang yang merupakan keadaan ekstrem dibanding kehidupan sehari-hari, status pasti hidup-matinya seorang pemimpin, lebih mudah digunakan sebagai acuan menyusun strategi menyerang atau bertahan. Ini ketika dibandingkan dengan keadaan yang dibangun oleh peredaran video sang pemimpin yang dicurigai sebagai produk manipulasi. Kekerapannya justru meniadakan kepastian. Kehidupan sehari-hari yang diwarnai kekerapan manipulasi deepfake pun akan berubah gamang. Kepastiannya sulit segera ditetapkan.
Melihat gejala makin longgarnya kepastian, Naffi kemudian menumpukan harapannya soal bertahan hidup dalam realitas yang dimediasi AI itu, kepada dunia pendidikan. Menurutnya, bidang ini harus berperan mengajarkan melampaui sekadar deteksi manipulasi deepfake. Alih-alih hanya mampu menggunakannya, para siswa diajarkan cara menavigasi kebenaran, pengetahuan, maupun ketidakpastian yang dimediasi oleh AI. Pengajaran yang sekadar memampukan siswanya mendeteksi manipulasi deepfake, memunculkan ancaman. Wujudnya berupa kebutaan pada gangguan yang lebih mendalam, sebagai krisis epistemologis. Krisis kebenaran dan pengetahuan. Ini secara mendasar memengaruhi cara menetapkan kebenaran dan pengetahuan. Kebenaran yang diabaikan landasan acuannya di dunia nyata. Juga pengetahuan, yang dibangun oleh material manipulatif.
Pada dunia yang makin longgar kepastian pengetahuan dan kebenarannya yang merupakan fenomena luas hari ini, memperketat syarat pembentukannya, merupakan jalan yang harus ditempuh untuk memulihkannya. Pengetahuan dan kebenaran yang alih-alih hanya bertumpu pada citra visual, dituntut pelampauannya. Tak hanya mengandalkan representasi, sebatas citra yang dapat ditangkap pancaindera. Ketika “melihat yang tak lagi berarti percaya”, pengetahuan dan kebenaran tidak boleh direduksi hanya “pada yang tampak” maupun “pada yang didengar”. Epistemologinya harus diuji lintas perspektif. Ada jaringan logis yang menggabungkan bukti empiris, konsistensi logis, maupun verifikasi sosial.
Maka, untuk memastikan Netanyahu masih hidup, harus disaksikan secara langsung, punya bukti logis yang disaksikan bukan samarannya, dan ada pernyataan hal yang sama lebih dari satu orang. Tanpa itu semua, sosok yang disaksikan belum terbukti kebenarannya.
Memang, hidup di era deepfake jadi makin runyam bukan?
Editor: Maria Christina