Sukses

Waspada Video Hoaks Bantuan Rp1,5 Miliar untuk Pekerja Migran Mencatut Kepala BP2MI

BP2MI dengan tegas mengklarifikasi bahwa video singkat yang menampilkan Kepala BP2MI, Benny Rhamdani, yang memberikan bantuan sebesar Rp1,5 miliar kepada 20 Pekerja Migran Indonesia adalah informasi yang tidak benar atau hoaks.

Liputan6.com, Jakarta- Viral di media sosial, video pendek yang menunjukkan Kepala BP2MI, Benny Rhamdani, memberikan bantuan Rp1,5 miliar kepada 20 Pekerja Migran Indonesia ternyata adalah berita bohong alias hoaks.

Kepala Biro Hukum dan Humas BP2MI Hadi Wahyuningrum, menegaskan bahwa video tersebut disebarluaskan oleh oknum yang tak bertanggung jawab melalui akun Facebook palsu yang mengatasnamakan BP2MI.

"Akun tersebut dapat dipastikan dan nyatakan, adalah video palsu atau hoaks yang dibuat secara manipulatif menggunakan teknologi deepfake atau AI. Terkait hal ini kami dari BP2MI telah bersurat ke Kominfo dan melapor ke Polda Metro Jaya," ujar Wahyuningrum, melalui keterangan tertulis, Jumat (6/9/2024).

Wahyuningrum menegaskan, BP2MI tidak pernah memberikan uang seperti yang ditampilkan dalam video tersebut. Jika Anda menemukan video atau informasi serupa, itu adalah hoaks.

 "Kami mengimbau seluruh Pekerja Migran Indonesia agar tetap waspada terhadap informasi mencurigakan yang berpotensi menipu, khususnya yang berasal dari akun palsu yang mengatasnamakan BP2MI," tuturnya.

Wahyuningrum pun mengingatkan masyarakat, informasi resmi mengenai Pekerja Migran Indonesia hanya dapat diakses melalui akun resmi BP2MI.

BP2MI, sesuai mandat UU 18/17 tentang Perlindungan Pekerja Migran Indonesia, akan terus berkoordinasi dan berkomunikasi intensif dengan Kementerian/Lembaga terkait, termasuk Polri, Kementerian Komunikasi dan Informatika (Kominfo), serta Badan Siber dan Sandi Negara (BSSN) untuk memberantas hoaks yang merugikan Pekerja Migran Indonesia.

2 dari 3 halaman

Teknologi Deepfake

Deepfake adalah sebuah inovasi teknologi yang memanfaatkan kecerdasan buatan atau AI untuk menciptakan atau memodifikasi gambar, video, dan audio sehingga tampak atau terdengar persis seperti seseorang, meskipun kenyataannya tidak demikian.

Dengan kemampuan yang sangat realistis, deepfake sering kali digunakan untuk mengganti wajah atau suara individu dalam video, sehingga seolah-olah orang tersebut benar-benar melakukan atau mengucapkan sesuatu yang sebenarnya tidak pernah terjadi.

Meskipun teknologi ini dapat digunakan untuk tujuan hiburan, seperti membuat video parodi yang lucu, potensi penyalahgunaannya juga sangat mengkhawatirkan. Misalnya, deepfake dapat digunakan untuk menyebarkan informasi palsu atau manipulasi dalam konteks politik.

Cara kerja deepfake melibatkan teknik pembelajaran mesin, seperti jaringan saraf tiruan, yang "belajar" dari data wajah dan suara seseorang. Setelah itu, teknologi ini mampu mereproduksi karakteristik tersebut dalam berbagai situasi yang berbeda. Dengan demikian, meskipun deepfake bisa menghadirkan hiburan, kita juga perlu waspada terhadap dampak negatif yang mungkin ditimbulkannya.

3 dari 3 halaman

Tentang Cek Fakta Liputan6.com

Melawan hoaks sama saja melawan pembodohan. Itu yang mendasari kami membuat Kanal Cek Fakta Liputan6.com pada 2018 dan hingga kini aktif memberikan literasi media pada masyarakat luas.

Sejak 2 Juli 2018, Cek Fakta Liputan6.com bergabung dalam International Fact Checking Network (IFCN) dan menjadi partner Facebook. Kami juga bagian dari inisiatif cekfakta.com. Kerja sama dengan pihak manapun, tak akan mempengaruhi independensi kami.

Jika Anda memiliki informasi seputar hoaks yang ingin kami telusuri dan verifikasi, silahkan menyampaikan di email cekfakta.liputan6@kly.id.

Ingin lebih cepat mendapat jawaban? Hubungi Chatbot WhatsApp Liputan6 Cek Fakta di 0811-9787-670 atau klik tautan berikut ini.

Disclaimer: Artikel ini ditulis ulang oleh redaksi dengan menggunakan Artificial Intelligence

Video Terkini