AI Sering Kasih Jawaban – Platform chatbot dengan kecerdasan buatan (AI) saat ini telah banyak digunakan untuk menjawab berbagai pertanyaan pengguna, mulai dari informasi sederhana hingga penjelasan kompleks. Namun, muncul pertanyaan penting: apakah jawaban yang diberikan AI selalu akurat, atau justru sekadar asal-asalan?

Beberapa pengguna mungkin pernah mengalami situasi di mana AI memberikan jawaban yang terdengar masuk akal, tetapi ternyata salah. Fenomena ini dikenal sebagai “halusinasi AI,” di mana sistem AI mengeluarkan informasi yang tampak benar tetapi sebenarnya tidak memiliki dasar atau bukti yang valid. Memahami mengapa hal ini bisa terjadi penting bagi pengguna agar lebih kritis saat menggunakan chatbot AI.

Masalah Halusinasi pada Large Language Models (LLMs)

Large Language Models (LLMs) seperti ChatGPT dari OpenAI sering kali menunjukkan masalah yang sama: mereka bisa “mengada-ada” atau memberikan jawaban yang tidak akurat. Contoh ekstrem dari fenomena ini adalah ketika AI menghasilkan klaim yang sepenuhnya salah, seperti menyebutkan bahwa Jembatan Golden Gate diangkut melintasi Mesir pada tahun 2016.

Jawaban yang tidak akurat seperti ini tidak hanya menjadi masalah, tetapi juga bisa berpotensi membahayakan jika informasi yang diberikan menyesatkan atau digunakan tanpa verifikasi lebih lanjut. Oleh karena itu, pengguna perlu berhati-hati dan kritis terhadap informasi yang dihasilkan oleh model AI, terutama jika menyangkut topik penting atau sensitif.

Risiko Halusinasi AI yang Berpotensi Berbahaya

Menurut laporan Tech Crunch, risiko halusinasi pada AI bukan hanya menyebabkan informasi yang salah, tetapi juga berpotensi menimbulkan dampak serius. Seorang walikota di Australia, misalnya, baru-baru ini mengancam akan menuntut OpenAI setelah ChatGPT secara keliru menyebut bahwa dirinya mengaku bersalah dalam skandal penyuapan besar.

Tidak hanya dalam kasus hukum, halusinasi AI juga dapat dieksploitasi di ranah teknologi dan kesehatan. Para peneliti menemukan bahwa LLM bisa disalahgunakan untuk mendistribusikan paket kode berbahaya kepada pengembang perangkat lunak yang tidak curiga. Selain itu, LLM terkadang memberikan nasihat kesehatan yang keliru, seperti menyarankan bahwa konsumsi anggur dapat “mencegah kanker.” Hal ini menunjukkan bahwa pengguna perlu berhati-hati dan melakukan verifikasi informasi yang diberikan oleh AI, terutama terkait isu sensitif atau kesehatan.

Mengapa AI Bisa Mengalami “Halusinasi”?

Kecenderungan AI untuk menciptakan “fakta” yang sebenarnya tidak benar disebut sebagai fenomena “halusinasi.” Hal ini terjadi karena model bahasa besar (large language models atau LLM) beroperasi berdasarkan cara mereka dikembangkan dan dilatih. LLM seperti ChatGPT adalah sistem statistik yang memprediksi kata, gambar, atau data lainnya, bukan sistem dengan kecerdasan atau pemahaman nyata.

Model AI generatif mengandalkan contoh-contoh akurat yang diambil dari web publik untuk menjadi lebih akurat. Model ini mempelajari pola dan konteks dari data yang tersedia untuk menentukan seberapa besar kemungkinan suatu data muncul dalam kalimat tertentu. Meski demikian, karena AI hanya memproses statistik pola kata tanpa pemahaman sebenarnya, ia tetap rentan mengada-ada atau “berhalusinasi” ketika datanya tidak cukup atau tidak jelas.

Bagaimana LLM “Belajar” dan Mengapa Halusinasi Bisa Terjadi

Sebastian Berns, seorang peneliti Ph.D. di Queen Mary University of London, menjelaskan bahwa “kerangka kerja pelatihan LLM saat ini melibatkan penyembunyian, atau ‘masking,’ kata-kata sebelumnya sebagai konteks.” Dengan kata lain, model ini dilatih untuk memprediksi kata berikutnya dalam sebuah teks dengan cara yang mirip seperti fitur teks prediktif di iOS, di mana pengguna terus menekan kata yang disarankan berikutnya.

Pendekatan berbasis probabilitas ini bekerja sangat baik pada skala besar, memungkinkan LLM menghasilkan teks yang umumnya masuk akal. Namun, meski teks tersebut tampak koheren, itu tidak berarti bahwa semua informasi yang dihasilkan pasti benar. Akibatnya, model AI sering kali menghasilkan jawaban yang terdengar masuk akal tetapi sebenarnya tidak berdasar, sehingga memicu fenomena “halusinasi.”

Mengurangi Halusinasi dalam LLM: Pendekatan dan Solusi

Vu Ha, seorang peneliti dan insinyur terapan di Allen Institute for Artificial Intelligence, menyatakan bahwa LLM “memang akan selalu berhalusinasi.” Namun, ia percaya bahwa ada cara konkret untuk mengurangi halusinasi tersebut, bergantung pada cara LLM dilatih dan digunakan.

Sebagai contoh, pada sistem penjawab pertanyaan, LLM dapat dibuat lebih akurat dengan mengkurasi basis pengetahuan berkualitas tinggi yang berisi jawaban yang valid dan terverifikasi. Dengan menghubungkan LLM ke basis pengetahuan ini, model dapat memberikan jawaban yang lebih akurat melalui proses pencarian, alih-alih hanya memprediksi kata-kata secara statistik. Pendekatan ini membantu memastikan bahwa jawaban yang dihasilkan didasarkan pada informasi yang dapat dipercaya, mengurangi risiko halusinasi dalam respons yang diberikan.

Membedakan Kualitas Data pada LLM dan Teknik Mengurangi Halusinasi

Vu Ha menekankan pentingnya menggunakan basis pengetahuan yang “berkualitas tinggi” untuk mengurangi halusinasi dalam LLM. Dengan basis pengetahuan yang dikurasi dengan baik, LLM dapat menghasilkan jawaban yang lebih akurat dibandingkan model yang menggunakan data dengan kurasi yang kurang cermat. Meskipun setiap sistem berbasis LLM berpotensi berhalusinasi, Ha menilai bahwa tantangannya kini terletak pada apakah manfaat yang diberikan lebih besar daripada dampak negatif akibat halusinasi.

Selain itu, menurut Sebastian Berns, teknik Reinforcement Learning from Human Feedback (RLHF) juga telah digunakan dengan beberapa keberhasilan untuk mengurangi halusinasi dalam LLM. Melalui pembelajaran yang dioptimalkan berdasarkan umpan balik manusia, model dapat lebih diarahkan untuk memberikan respons yang akurat dan mengurangi kecenderungan mengada-ada.

Teknik RLHF: Mengurangi Halusinasi dengan Umpan Balik Manusia

Metode Reinforcement Learning from Human Feedback (RLHF) diperkenalkan oleh OpenAI pada 2017 sebagai teknik untuk meningkatkan akurasi LLM dengan mengurangi halusinasi. Dalam metode ini, LLM dilatih dengan mengumpulkan informasi tambahan melalui interaksi dan umpan balik manusia, yang membantu menyempurnakan model.

Dalam RLHF, satu set petunjuk dari kumpulan data yang telah ditentukan sebelumnya dilewatkan melalui LLM untuk menghasilkan teks baru yang lebih relevan dan akurat. OpenAI menggunakan metode ini untuk melatih beberapa model, termasuk GPT-4. Namun, meskipun RLHF cukup efektif, Sebastian Berns mencatat bahwa teknik ini masih jauh dari sempurna dan belum sepenuhnya menghilangkan risiko halusinasi.

RLHF menunjukkan bahwa dengan melibatkan umpan balik manusia dalam proses pelatihan, LLM dapat diarahkan untuk memberikan jawaban yang lebih andal, meskipun masih ada ruang untuk perbaikan lebih lanjut dalam mengatasi keterbatasan AI.

 

 

Baca juga artikel dari JenniferBlake.com

Tinggalkan Komentar

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Iklan