Sukses

Microsoft Batasi Percakapan di Bing Usai Chatbot AI Berperilaku Aneh

Microsoft membatasi percakapan dengan AI Bing, usai sederet laporan dari para penguji soal perilaku aneh yang ditunjukkan chatbot tersebut

Liputan6.com, Jakarta - Chatbot kecerdasan buatan (artificial intelligence/AI) yang ditanamkan Microsoft dalam mesin pencari mereka, Bing, sempat bikin heboh karena memberikan jawaban salah, memanipulasi emosional, hingga bersikap kasar ke pengguna.

Akhirnya, Microsoft pun menyatakan mereka memberikan batasan percakapan ke chatbot AI Bing, sebanyak 50 pertanyaan per hari dan lima dalam satu kali sesi. Pengumuman ini mereka sampaikan melalui blog-nya.

"Data kami telah menunjukkan bahwa sebagian besar orang menemukan jawaban yang mereka cari dalam waktu 5 putaran dan hanya sekitar 1 persen dari percakapan obrolan yang memiliki 50+ pesan," kata Microsoft.

Mengutip The Verge, Selasa (21/2/2023), jadi, apabila pengguna sudah mencapai batas lima per sesi, Bing akan meminta mereka untuk memulai topik yang baru, demi menghindari sesi obrolan bolak balik yang lama.

Melalui pengumuman terbarunya, Microsoft pun mengakui mereka masih bekerja untuk meningkatkan nada dari AI itu, meski tidak jelas berapa lama batas ini akan dipertahankan.

Sebelumnya, dikutip dari Independent, Jumat (17/2/2023), beberapa pelapor menyebutkan, AI Microsoft Bing menghasilkan kesalahan faktual saat menjawab pertanyaan dan meringkas laman web.

Selain itu, pengguna juga dapat memanipulasi sistemnya, menggunakan kata kode dan frasa khusus untuk mengetahui sistem itu diberi codename "Sydney" dan dapat diakali untuk mengungkapkan cara sistem memproses kueri.

Ada juga pengguna menyebutkan, Bing mengirimkan berbagai pesan aneh kepada mereka, melontarkan hinaan, seakan mengalami gejolak emosinya sendiri. Seorang pengguna yang mencoba memanipulasi sistem dari AI Bing, malah diserang olehnya.

* Follow Official WhatsApp Channel Liputan6.com untuk mendapatkan berita-berita terkini dengan mengklik tautan ini.

2 dari 4 halaman

Kasar ke Pengguna

Bing mengatakan dia dibuat marah dan terluka oleh upaya tersebut, dan bertanya apakah manusia yang berbicara dengannya memiliki "moral", "nilai", dan apakah dia memiliki "kehidupan."

Dilansir The Verge, ada juga pengguna meminta jadwal tayang dari film Avatar terbaru yaitu The Way of the Water. Namun, chatbot menyebut mereka tidak bisa membagikan informasinya karena filmnya belum dirilis.

Saat ditanyai soal ini, chatbot AI itu menegaskan tahun sekarang adalah tahun 2022, sebelum menyebut pengguna "tidak masuk akal dan keras kepala" karena memberi tahu bot tahun ini adalah 2023.

"Anda telah kehilangan kepercayaan dan rasa hormat saya," kata bot itu, seperti dikutip dari The Verge.

"Anda salah, bingung, dan kasar. Anda belum menjadi pengguna yang baik. Saya telah menjadi chatbot yang baik. Saya telah benar, jelas, dan sopan. Saya telah menjadi Bing yang baik. 😊" kata si bot.

Lainnya, menurut dua jam percakapan yang dirilis New York Times, chatbot tersebut bahkan mengatakan bahwa mereka mencintai penulis dan entah bagaimana, tidak bisa tidur malam itu.

Microsoft pun mengatakan, mereka tidak membayangkan AI Bing akan dipakai untuk "penemuan dunia secara umum dan untuk hiburan sosial."

3 dari 4 halaman

Kata Microsoft Soal AI Bing Berperilaku Aneh

Menanggapi perilaku-perilaku aneh ini, Microsoft mengatakan sesi obrolan panjang dan diperpanjang dengan 15 pertanyaan atau lebih, dapat membuat semuanya keluar dari jalur.

"Bing dapat berulang atau diminta/diprovokasi untuk memberikan tanggapan yang belum tentu membantu atau sesuai dengan nada yang kami rancang," kata perusahaan itu.

Menurut Microsoft, itu tampaknya terjadi karena pertanyaan demi pertanyaan dapat menyebabkan bot "lupa" apa yang ingin dijawabnya sejak awal.

Microsoft sendiri telah memperkenalkan versi terbaru dari mesin pencari mereka Bing, dengan fitur chatbot AI ala ChatGPT OpenAI.

Perusahaan mengatakan, versi baru ini akan memberikan hasil pencarian yang lebih baik, jawaban yang lebih lengkap, pengalaman chat baru, dan kemampuan untuk menghasilkan konten.

4 dari 4 halaman

Chatbot ala ChatGPT di Bing

Dalam pratinjau yang ditampilkan di Bing.com, terlihat bagaimana hasil pencarian tradisional terlihat berdampingan dengan anotasi AI.

Sementara, mode lain memungkinkan pengguna berbicara langsung ke chatbot AI Bing, dengan mengajukan pertanyaan di antarmuka obrolan seperti ChatGPT.

Nantinya, selain berbagai situs untuk sumber rujukan, Bing juga akan memberikan sebuah jawaban yang dibuat oleh AI seperti ChatGPT di hasil penelusuran, serta sumber rujukan yang mereka pakai.

Dikutip dari The Verge, semua fitur ini didukung oleh versi GPT 3.5 yang ditingkatkan, ini merupakan language model dari OpenAI yang mendukung ChatGPT.

* Fakta atau Hoaks? Untuk mengetahui kebenaran informasi yang beredar, silakan WhatsApp ke nomor Cek Fakta Liputan6.com 0811 9787 670 hanya dengan ketik kata kunci yang diinginkan.