Sukses

Ngeri, Peneliti Temukan ChatGPT Bisa Buat Malware Canggih

Potensi penyalahgunaan ChatGPT sebagai chatbot AI generatif kian meningkat sebab mampu menciptakan malware berbahaya yang kuat dan tidak terdeteksi anti virus.

Liputan6.com, Jakarta - ChatGPT sebagai chatbot AI generatif canggih semakin banyak digunakan dan terintegrasi dalam kehidupan sehari-hari. Namun, potensi penyalahgunaan alat ini kian meningkat sebab mampu membuat malware berbahaya dan tidak terdeteksi anti virus.

Hal ini dibuktikan oleh seorang peneliti keamanan Forcepoint, Aaron Mulgrew, dengan meminta alat kecerdasan buatan tersebut membuat exploit zero day berkemampuan mencuri data korban. Mengejutkannya, malware buatan ChatGPT itu mampu menghindari deteksi oleh semua program antivirus di dalam katalog VirusTotal.

Dilansir Gizchina, Minggu (16/4/2023), OpenAI telah menerapkan perlindungan untuk mencegah pengguna meminta ChatGPT untuk menulis kode berbahaya.

Namun, Aaron berhasil melewati perlindungan tersebut dengan meminta chatbot menghasilkan setiap baris kode berbahaya dan fokus pada fungsi terpisah. 

Setelah mengkompilasi berbagai fungsi, Aaron mencoba eksekusi pencurian data dan hampir tidak terdeteksi.

Tidak seperti malware tradisional yang membutuhkan tim peretas dan sumber daya yang besar, Aaron menciptakan malware ini sendiri dalam waktu beberapa jam dan sama sekali tidak memiliki pengalaman dalam pengkodean.

Penemuan tersebut menjadi ancaman bagi penyalahgunaan alat bertenaga AI semacam ChatGPT, sekaligus menimbulkan pertanyaan tentang keamanan dan mudahnya eksploitasi.

* Follow Official WhatsApp Channel Liputan6.com untuk mendapatkan berita-berita terkini dengan mengklik tautan ini.

2 dari 4 halaman

Keamanan Digital Perlu Kolaborasi Berbagai Pihak

Eksperimen tersebut menunjukkan hasil yang mengkhawatirkan. Malware yang kompleks umumnya membutuhkan waktu berminggu-minggu bagi peretas terampil untuk mengembangkannya.

Namun dengan bantuan AI, orang yang tidak memiliki pengalaman coding sekalipun dapat membuatnya dengan praktis. Bukan tidak mungkin jika peretas sungguhan sudah menggunakan metode yang sama untuk membuat malware tingkat lanjut. 

Dengan demikian, pendekatan keamanan siber di segala sisi perlu dikembangkan untuk menjamin AI tidak digunakan untuk hal yang berbahaya. Selain itu, pengguna juga harus diberikan edukasi tentang potensi risiko yang dapat ditimbulkan oleh teknologi ini.

Komunitas cybersecurity perlu beradaptasi dengan perubahan dan menggarap strategi baru untuk memerangi berbagai ancaman yang dibantu AI. Maka, kolaborasi antara peneliti, pengembang, dan pakar keamanan menjadi kunci keamanan digital.

3 dari 4 halaman

ChatGPT Bisa Dipakai Bikin Email Phishing yang Mirip Buatan Manusia

Tak hanya malware, ChatGPT juga dapat digunakan untuk membuat email phising yang mirip dengan buatan manusia. 

Sebuah demonstrasi dari peretasan manusia dengan AI-as-a-service (Hacking Humans with AI as a Service) mengungkapkan, AI mampu membuat serangan siber seperti email phishing yang lebih baik dan pesan spear phishing yang sangat efektif daripada manusia.

Hal itu seperti diungkap dalam konferensi keamanan Black Hat dan Defcon baru-baru ini, seperti dikutip dari siaran pers Palo Alto Networks, Senin (10/4/2023).

Di situ, para peneliti menggunakan platform GPT-4 OpenAI yang dikombinasikan dengan produk AI-as-a-service lain, yang berfokus pada analisis kepribadian, menghasilkan email phishing yang disesuaikan dengan latar belakang dan karakter kolega mereka.

Para peneliti pun berhasil mengembangkan sebuah saluran yang dapat membantu menyempurnakan email phishing sebelum mencapai targetnya.

Lebih mengejutkan, platform tersebut juga secara otomatis memberikan informasi yang spesifik, misalnya menyebutkan hukum atau undang-undang Singapura, ketika diinstruksikan untuk membuat konten yang ditujukan untuk masyarakat di negara itu.

Palo Alto Networks pun menyebut, pembuat ChatGPT dengan jelas menyatakan bahwa alat yang digerakkan AI ini memiliki kemampuan bawaan untuk menentang premis yang salah serta menolak permintaan yang tidak etis.

4 dari 4 halaman

Pemerintah AS Siapkan Regulasi AI Seperti ChatGPT Demi Keamanan Nasional

Melihat adanya kerentanan pada teknologi ini, Pemerintahan Presiden Amerika Serikat (AS), Joe Biden, mengumumkan sedang menanti respons publik untuk langkah-langkah akuntabilitas terkait aturan sistem AI.

Regulasi ini disiapkan atas kekhawatiran risiko dan dampak teknologi tersebut terhadap keamanan nasional dan pendidikan. 

Kesuksesan ChatGPT telah memicu pengawasan ketat terhadap teknologi AI dalam beberapa bulan terakhir. Sebab, kecanggihannya dalam menjawab permintaan dan pertanyaan dengan cepat mampu menarik 100 juta pengguna aktif bulanan.

Pencapaian tersebut menjadikannya sebagai aplikasi konsumen dengan tingkat pertumbuhan tercepat dalam sejarah. Meski memicu optimisme tentang pemanfaatan teknologi, alat semacam ini masih memiliki potensi untuk menyebabkan kerugian.   

Mengutip New York Post, Kamis (13/4/2023), badan dari Departemen Perdagangan, Administrasi Telekomunikasi dan Informasi Nasional (NTIA), memerlukan masukan publik guna pengujian kepercayaan dan keamanan perusahaan AI.

Langkah ini pun diharapkan akan membantu pemerintah memastikan alat AI berfungsi dengan seharusnya sesuai klaim pengembang, tanpa menimbulkan potensi bahaya. 

Kepala NTIA Departemen Perdagangan, Alan Davidson, menyatakan bahwa keamanan sistem AI yang dapat dipercaya penting untuk mencapai manfaat sepenuhnya. 

“Sistem AI yang bertanggung jawab dapat membawa manfaat yang sangat besar, tetapi hanya jika kita mengatasi potensi konsekuensi dan kerugiannya,” ungkap Davidson.

* Fakta atau Hoaks? Untuk mengetahui kebenaran informasi yang beredar, silakan WhatsApp ke nomor Cek Fakta Liputan6.com 0811 9787 670 hanya dengan ketik kata kunci yang diinginkan.