Sukses

Model Bahasa Besar Seperti ChatGPT Terciduk Bikin Artikel Ilmiah Palsu

ChatGPT mampu memproduksi artikel ilimiah palsu yang sangat mirip dengan artikel ilmiah asli dalam aspek kosakata, struktur kalimat, dan komposisi secara keseluruhan.

Liputan6.com, Jakarta - Dalam sebuah studi yang terbit di Journal of Medical Internet Research, Dr. Martin Májovský dan rekan-rekannya menggali fenomena model bahasa besar (Large Language Model, LLM), seperti ChatGPT dari OpenAI. 

Model kecerdasan buatan itu dapat menghasilkan artikel ilmiah bohongan (palsu) dengan kemiripan luar biasa layaknya makalah penelitian asli.

Tim peneliti yang berbasis di Charles University di Republik Ceko ini memulai misi mereka untuk mengeksplorasi kemampuan model bahasa AI masa kini dalam membuat artikel medis bohongan berkualitas tinggi.

Menggunakan ChatGPT dengan model GPT-3, mereka memprakarsai pembuatan artikel ilmiah yang benar-benar fiktif di bidang bedah saraf. Mereka menyempurnakan pertanyaan dan prompt berdasarkan tanggapan ChatGPT, sehingga secara iteratif menyempurnakan kualitas output.

Hasil dari studi di level proof-of-concept ini luar biasa. ChatGPT mampu memproduksi artikel ilmiah palsu yang sangat mirip dengan artikel ilmiah asli dalam aspek kosakata, struktur kalimat, dan komposisi secara keseluruhan.

Artikel itu mencakup bagian-bagian standar artikel ilmiah pada umumnya, yang mencakup abstrak, pendahuluan, metode, hasil, dan pembahasan, disertai dengan tabel dan data lainnya. Yang mengherankan adalah, seluruh proses pembuatan artikel hanya membutuhkan waktu satu jam.

Sementara artikel yang dihasilkan AI tampak canggih dan tanpa cacat, pembaca ahli yang cermat mampu mengidentifikasi ketidakakuratan dan kesalahan semantik di dalam artikel itu, terutama di bagian referensi.

Beberapa referensi yang dikutip oleh ChatGPT ternyata salah, sementara sejumlah referensi lainnya sama sekali tidak pernah ada.

* Follow Official WhatsApp Channel Liputan6.com untuk mendapatkan berita-berita terkini dengan mengklik tautan ini.

2 dari 4 halaman

Halusinasi Model

Jenis kesalahan yang terakhir ini adalah fenomena halusinasi yang sering dilakukan oleh model bahasa besar; ia mengada-ada sesuatu yang sebetulnya tidak ada, termasuk referensi yang ia kutip. 

Temuan ini pun menggarisbawahi kebutuhan mendesak untuk meningkatkan kewaspadaan dan penerapan metode deteksi yang ditingkatkan untuk mengatasi potensi penyalahgunaan AI dalam penelitian ilmiah.

Selain itu, penting untuk merumuskan pedoman etika dan praktik terbaik untuk menggunakan model bahasa AI dalam penulisan dan penelitian ilmiah yang kredibel. Model seperti ChatGPT memiliki potensi untuk meningkatkan efisiensi dan akurasi, analisis hasil, dan penyuntingan secara kebahasaan.

Dengan melatih kehati-hatian dan tanggung jawab, menurut Májovský, peneliti dapat memanfaatkan kelebihan ChatGPT dan alat serupa lainnya sambil meminimalkan risiko penyalahgunaan atau pelecehan.

 

3 dari 4 halaman

Verifikasi Akurasi dan Keaslian

Sementara itu, Dr. Pedro Ballester, Royal Society Wolfson Fellow & Senior Lecturer di Imperial College London, mengomentari temuan Májovský dan membahas kebutuhan mendesak untuk memprioritaskan reproduktivitas dan visibilitas karya ilmiah. Dia menilai karya ilmiah berfungsi sebagai upaya perlindungan penting atas proliferasi penelitian tipu-tipu.

Saat AI melanjutkan kemajuan pesatnya, komunitas ilmiah harus memverifikasi akurasi dan keaslian tulisan yang dihasilkan oleh alat ini, serta menerapkan mekanisme yang mendeteksi dan mencegah penipuan dan pelanggaran.

Meskipun Ballester dan Májovský sama-sama sepakat tentang perlunya metode yang lebih kuat untuk memvalidasi keakuratan dan keaslian konten yang dihasilkan AI, jalan untuk mencapainya masih belum jelas.

"Setidaknya kita harus mengungkapkan sejauh mana AI telah berkontribusi pada penulisan dan analisis makalah," kata Dr. Ballester menyarankan.

Solusi potensial lain yang diusulkan oleh Májovský dan rekan-rekannya adalah penyerahan kumpulan data secara wajib," ujar Ballester.

4 dari 4 halaman

Infografis Film Bertema Masa Depan Bumi

* Fakta atau Hoaks? Untuk mengetahui kebenaran informasi yang beredar, silakan WhatsApp ke nomor Cek Fakta Liputan6.com 0811 9787 670 hanya dengan ketik kata kunci yang diinginkan.