Sukses

Studi: Kecerdasan Artifisial Berisiko Disalahgunakan Peretas

Liputan6.com, London - Kemajuan pesat di bidang kecerdasan artifisial meningkatkan risiko dari para pengguna yang berniat tidak baik untuk melakukan serangan peretasan otomatis.

Hal tersebut dapat membuat kendaraan nirpengemudi atau self driving car bertabrakan, atau mengubah drone komersial menjadi senjata yang dapat memilih sasaran, demikian peringatan yang dikeluarkan sebuah laporan.

Dikutip dari VOA Indonesia, Minggu (25/2/2018), studi tersebut yang dipublikasikan oleh 25 peneliti teknis dan kebijakan publik dari Universitas Cambridge, Oxford, dan Yale bersama dengan para pakar privasi dan militer.

Mereka mengeluarkan peringatan atas adanya potensi pemanfaatan kecerdasan artifisial oleh negara-negara pembangkang, kalangan kriminal, dan para penyerang yang beroperasi secara sendiri-sendiri.

Para peneliti mengatakan, penggunaan kecerdasan artifisial untuk maksud-maksud jahat menimbulkan ancaman nyata pada keamanan digital, fisik, dan politik. Studi tersebut berfokus pada pengembangan yang masuk akal dalam jangka waktu lima tahun.

"Kami semua setuju ada banyak aplikasi kecerdasan artifisial yang bersifat positif," ujar Miles Brundage, seorang peneliti pada Oxford Future of Humanity Institute. "(Namun) ada kesenjangan dalam literasi tentang persoalan penggunaan untuk maksud-maksud jahat."

Laporan setebal 98 halaman tersebut menyerukan kepada pemerintah dan para pakar kebijakan dan teknis untuk bekerjasama dan menanggulangi potensi bahaya yang ditimbulkan dari kecerdasan artifisial.

1 dari 2 halaman

Pro Kontral Kecerdasan Artifisial

Kecerdasan artifisial melibatkan penggunaan komputer untuk melakukan tugas-tugas yang pada umumnya membutuhkan kecerdasan manusia, seperti mengambil keputusan atau pengenalan teks, perkataan, atau citra visual.

Namun, kecerdasan artifisial telah menjadi fokus debat seru terkait apakah otomatisasi bersifat masif yang dimungkinkan oleh teknologi ini dapat menyebabkan meluasnya pengangguran.

Laporan itu pun membuat serangkaian rekomendasi termasuk mengatur Kecerdasan Artifisial sebagai teknologi bertujuan ganda untuk kepentingan militer/komersial.

Laporan itu juga mempertanyakan apakah akademisi dan kalangan lainnya harus mengontrol apa yang mereka publikasikan atau mengungkapkan semua perkembangan baru dalam bidang Kecerdasan Artifisial.

Hal tersebut bertujuan agar para pakar lainnya memiliki peluang untuk mengkaji dan bereaksi atas bahaya potensial yang mungkin dapat ditimbulkannya.

"Ujung-ujungnya timbul lebih banyak pertanyaan ketimbang jawaban," ujar Brundage.

 

Saksikan Video Pilihan di Bawah Ini:

Artikel Selanjutnya
Konten Porno Deepfakes Tuai Kontroversi