Sukses

Pendeta dan Rabi Minta ChatGPT Menulis Khotbah, Hasilnya Bikin Jemaat Bingung

ChatGPT dinilai dapat menulis khotbah yang cukup kompeten, tapi tidak bisa meniru semangat dakwah yang sebenarnya.

Liputan6.com, Jakarta - Tak hanya di dunia pendidikan, chatbot berbasis kecerdasan buatan (artificial intelligence/AI) ChatGPT ternyata juga menimbulkan kegelisahan di lingkup pemuka agama.

Untuk saat ini, konsensus yang berkembang di kalangan pendeta adalah ChatGPT dapat menulis khotbah yang cukup kompeten, tapi tidak bisa meniru semangat dakwah yang sebenarnya.

“Itu (ChatGPT) tidak memiliki jiwa, saya tidak tahu bagaimana lagi mengatakannya,” kata Hershael York, seorang pendeta di Kentucky yang juga dekan sekolah teologi dan seorang profesor khotbah Kristen di The Southern Baptist Theological Seminary.

Khotbah dimaksudkan untuk menjadi inti dari kebaktian, dan seringkali merupakan kesempatan mingguan terbaik para pemimpin agama untuk menarik perhatian jemaat mereka untuk memberikan bimbingan teologis dan moral.

"Pendeta yang malas mungkin tergoda untuk menggunakan AI, tetapi bukan para gembala yang hebat. Orang yang suka berkhotbah, mencintai umatnya," ujar York, seperti dikutip dari New York Post, Kamis (23/2/2023).

Seorang rabi di New York, Joshua Franklin, baru-baru ini memberi tahu jemaatnya di Pusat Yahudi Hamptons bahwa dia akan menyampaikan khotbah yang dijiplak, berkaitan dengan masalah seperti kepercayaan, kerentanan, dan pengampunan.

Setelah selesai, dia meminta jemaat untuk menebak siapa yang menulisnya. Ketika mereka tampak bingung, dia mengungkapkan bahwa penulisnya adalah ChatGPT--menanggapi permintaannya untuk menulis khotbah 1.000 kata terkait dengan pelajaran mingguan dari Taurat.

“Sekarang, kamu (jemaat) bertepuk tangan. Saya sangat takut,” kata Franklin ketika beberapa jemaat bertepuk tangan.

“ChatGPT mungkin terdengar sangat cerdas, tetapi pertanyaannya adalah bisakah dia berempati? Setidaknya belum, tidak bisa,” tambah Franklin.

Dia mengatakan chatbot AI belum mengembangkan kasih sayang dan cinta, serta tidak mampu membangun komunitas dan hubungan.

“Itulah hal-hal yang menyatukan kita,” rabi menyimpulkan.

 

* Follow Official WhatsApp Channel Liputan6.com untuk mendapatkan berita-berita terkini dengan mengklik tautan ini.

2 dari 6 halaman

Percobaan Lainnya

Rachael Keefe, pendeta dari Living Table United Church of Christ di Minneapolis, melakukan percobaan yang mirip dengan Franklin.

Dia memposting esai singkat di Catatan Pastoral online-nya pada Januari 2023, membahas bagaimana menjaga kesehatan mental seseorang di tengah tekanan musim liburan.

Tulisan itu dinilai menyenangkan, tapi agak hambar, dan pada akhirnya Keefe mengungkapkan bahwa itu ditulis oleh ChatGPT, bukan oleh dirinya sendiri.

“Meskipun faktanya benar, ada sesuatu yang hilang lebih dalam. AI tidak dapat memahami komunitas dan inklusivitas, betapa pentingnya hal-hal ini dalam menciptakan gereja,” tulisnya.

“Itu tidak buruk, tapi ya, saya setuju. Agak umum dan sedikit menakutkan. Aku lebih suka apa yang kamu tulis, berasal dari makhluk yang benar-benar hidup, dengan otak yang hebat dan hati yang penuh kasih,” komentar seorang jemaat bernama Douglas Federhart.

Todd Brewer, seorang sarjana Perjanjian Baru dan redaktur pelaksana situs web Kristen Mockingbird, menulis pada bulan Desember tentang eksperimennya sendiri, meminta ChatGPT untuk menulis khotbah Natal.

Dia spesifik, meminta khotbah 'berdasarkan narasi kelahiran Luke, dengan kutipan dari Karl Barth, Martin Luther, Irenaeus dari Lyon, dan Barack Obama'.

Brewer menulis bahwa dia tidak siap ketika ChatGPT menanggapi dengan kreasi yang memenuhi kriterianya dan lebih baik daripada beberapa khotbah Natal yang pernah dia dengar selama bertahun-tahun.

“AI bahkan tampaknya memahami apa yang menjadikan kelahiran Yesus benar-benar kabar baik,” tambah Brewer.

"Namun khotbah ChatGPT tidak memiliki kehangatan layaknya manusia. Pengkhotbahan berbasis kecerdasan buatan tidak dapat secara meyakinkan bersimpati dengan penderitaan manusia,” tulisnya.

3 dari 6 halaman

Risiko Plagiarisme Tersembunyi dari ChatGPT dkk

Penggunaan model bahasa besar (Large Language Model, LLM), termasuk ChatGPT yang sedang populer untuk menyelesaikan tugas dapat menyebabkan plagiarisme lebih dari sekadar menyalin dan menempelkan (copy-paste) konten, menurut sebuah studi oleh para peneliti di Penn State University.

Studi ini mengidentifikasi tiga bentuk plagiarisme: kata demi kata, parafrase, dan ide. Mereka menemukan model bahasa melakukan ketiganya.

Model bahasa yang disesuaikan dengan baik mengurangi plagiarisme kata demi kata, tetapi meningkatkan kasus parafrase dan penggunaan ide tanpa atribusi.

Selain itu, para peneliti menemukan contoh-contoh model bahasa yang mengekspos informasi pribadi seseorang melalui ketiga bentuk plagiarisme.

Penelitian ini menyoroti perlunya penelitian lebih lanjut mengenai generator teks dan pertanyaan etis dan filosofis yang muncul dari penggunaannya.

Para peneliti membangun sebuah pipeline untuk deteksi plagiarisme otomatis dan mengujinya dengan GPT-2 OpenAI, menggunakan 210.000 teks yang dihasilkan untuk menguji plagiarisme pada model bahasa yang telah dilatih sebelumnya dan model bahasa yang telah disempurnakan.

Mereka menyempurnakan tiga model bahasa untuk fokus pada dokumen ilmiah, artikel ilmiah yang terkait dengan COVID-19, dan klaim paten.

Mereka menggunakan mesin pencari sumber terbuka untuk mengambil 10 dokumen pelatihan teratas yang paling mirip dengan setiap teks yang dihasilkan dan memodifikasi algoritme penyelarasan teks yang sudah ada untuk mendeteksi lebih baik contoh-contoh plagiarisme kata demi kata, parafrase, dan ide.

4 dari 6 halaman

Besar Dataset dan Parameter Berpengaruh

Para peneliti menemukan bahwa semakin besar dataset dan parameter yang digunakan untuk melatih model, semakin sering plagiarisme terjadi.

Temuan tim menunjukkan bahwa meskipun hasil dari model-model ini mungkin menarik dan menyenangkan untuk digunakan, mereka dapat membahayakan orisinalitas dan kreativitas konten dalam korpus pelatihan.

Seperti yang dijelaskan oleh penulis utama Jooyoung Lee, "Orang-orang mengejar model bahasa yang besar karena semakin besar modelnya, kemampuan generasi meningkat... Ini adalah temuan yang penting."

Studi saat ini dapat membantu para peneliti AI membangun model bahasa lebih kuat, andal, dan bertanggung jawab di masa depan. Namun, para peneliti memperingatkan individu untuk berhati-hati saat menggunakan generator teks, karena mereka dapat menghasilkan konten plagiat yang mengakibatkan konsekuensi negatif bagi pengguna.

5 dari 6 halaman

Masalah etika dan hak cipta

Meskipun memanfaatkan model bahasa sebagai mesin pencari atau stack overflow untuk men-debug kode mungkin tidak masalah, menggunakannya untuk tujuan lain dapat mengakibatkan plagiarisme.

Menurut Thai Le, asisten profesor ilmu komputer dan informasi di University of Mississippi yang mulai mengerjakan proyek ini sebagai kandidat doktor di Penn State, "Dalam praktiknya, kita perlu memperhatikan masalah etika dan hak cipta yang ditimbulkan oleh pembuat teks."

Dongwon Lee, profesor ilmu informasi dan teknologi di Penn State menambahkan, "Sekarang, saatnya mengajarkan mereka untuk menulis dengan lebih baik, dan perjalanan kita masih panjang."

National Science Foundation mendukung penelitian ini. Para peneliti akan mempresentasikan temuan mereka pada Konferensi Web ACM 2023, yang berlangsung pada 30 April-4 Mei di Austin, Texas.

6 dari 6 halaman

Infografis Apollo dan Jejak Manusia di Bulan. (Liputan6.com/Triyasni)

* Fakta atau Hoaks? Untuk mengetahui kebenaran informasi yang beredar, silakan WhatsApp ke nomor Cek Fakta Liputan6.com 0811 9787 670 hanya dengan ketik kata kunci yang diinginkan.