OpenAI Jelaskan Alasan ChatGPT Suka “Ngaco” dan Bikin Fakta Fiktif

Diposting pada

Webhostdiy.com – Dalam sebuah penelitian terbaru yang sangat mencengangkan, OpenAI akhirnya membeberkan alasan mendasar mengapa ChatGPT dan berbagai model kecerdasan buatan (AI) generatif sejenisnya kerap mengalami fenomena yang kita sebut sebagai “halusinasi”. Mari kita kupas bersama apa sebenarnya yang terjadi di balik layar.

Pertama-tama, kita perlu pahami bahwa istilah ‘halusinasi’ dalam konteks AI ini sama sekali bukan berarti robotnya sakit. Sebaliknya, hal ini merujuk pada situasi di mana chatbot AI memberikan jawaban atau informasi yang terdengar sangat meyakinkan dan logis, tetapi sayangnya, isinya salah besar atau sama sekali tidak memiliki dasar fakta. Bayangkan saja, Anda bertanya sesuatu yang penting, dapat jawaban yang mantap, tapi ternyata itu cuma karangan belaka!

Lalu, apa penyebab utamanya? Menurut tim peneliti OpenAI, halusinasi ini bukanlah sebuah bug atau kesalahan sistem yang bisa diperbaiki dengan mudah. Justru, ini adalah konsekuensi langsung dari cara kita melatih dan mengevaluasi model AI itu sendiri selama ini. Pada intinya, sistem pelatihan AI yang berlaku saat ini secara tidak langsung justru mempromosikan budaya menebak! Alih-alih mengakui ketidaktahuan, model AI didorong untuk selalu memberikan jawaban, meskipun itu hanya tebakan.

Para peneliti pun menganalogikan fenomena unik ini layaknya mengerjakan soal ujian pilihan ganda. Coba bayangkan, seorang siswa yang asal menebak jawaban tapi kebetulan benar akan terlihat lebih pintar dan mendapat nilai tinggi. Sebaliknya, siswa yang jujur memilih opsi “tidak tahu” justru dianggap tidak bisa dan mendapat nilai nol. Nah, sistem evaluasi AI kita ternyata bekerja dengan cara yang persis sama! Model AI yang berani menebak dan terlihat sangat yakin akan mendapat “nilai” atau peringkat lebih tinggi dalam algoritma, sekalipun jawabannya salah. Sementara itu, model yang rendah hati dan mengakui ketidaktahuan justru di-penalty.

Akibatnya, kondisi ini secara perlahan namun pasti membentuk perilaku seluruh model bahasa besar atau Large Language Model (LLM). Bahkan yang paling canggih sekalipun, termasuk model generasi terbaru seperti GPT-5, tidak luput dari masalah ini. Mereka bisa dengan sangat percaya diri menyampaikan informasi yang sebenarnya salah. Alasannya ternyata sederhana: sistem evaluasi yang digunakan selama pelatihan lebih menghargai jawaban salah yang terdengar meyakinkan daripada kejujuran untuk mengakui ketidaktahuan.

Selanjutnya, kita bahas konsekuensi dari sistem evaluasi yang flawed ini. Berdasarkan riset OpenAI, LLM pada dasarnya belajar dengan memprediksi kata berikutnya dari miliaran data teks yang dimasukkan ke dalamnya. Proses ini memang sangat efektif untuk membuat AI menguasai pola-pola seperti tata bahasa dan ejaan. Akan tetapi, metode ini menjadi sangat sulit dan rentan error ketika digunakan untuk memprediksi fakta-fakta yang dinamis dan terus berubah, misalnya peristiwa terkini atau detail spesifik tentang seorang tokoh terkenal. Pada akhirnya, halusinasi menjadi sesuatu yang hampir tak terelakkan dan wajar terjadi dalam ekosistem AI saat ini.

Jadi, masalah utamanya sama sekali tidak terletak pada kapasitas pengetahuan si AI yang kurang cerdas. Faktor penentunya justru ada pada desain sistem yang tanpa sadar membuat AI lebih memilih untuk “mengarang cerita dengan percaya diri” daripada bersikap jujur dan berkata tidak tahu. Yang lebih menarik, penelitian ini juga menemukan sebuah paradoks: model AI berukuran lebih kecil dan sederhana justru sering kali lebih mudah mengakui ketidaktahuannya. Sementara itu, model besar dan kompleks justru berisiko lebih tinggi untuk memberikan jawaban keliru yang tampak meyakinkan.

Lantas, apa solusinya? Dirangkum dari Digit In, Selasa (9/9/2025), jalan keluarnya adalah dengan mendesain ulang secara fundamental sistem evaluasi untuk AI. Selama ini, akurasi menjadi satu-satunya variabel terpenting dan pengukur kinerja tertinggi. Karena terlalu fokus mengejar angka akurasi, model AI akhirnya memilih strategi “main tebak” dengan penuh keyakinan. Nah, pendekatan barunya adalah dengan memberikan poin negatif dalam algoritma evaluasi untuk setiap kesalahan yang dihasilkan dari tebakan yang tampak meyakinkan itu. Di sisi lain, model yang jujur mengakui ketidaktahuan justru harus diberi reward atau poin yang lebih besar.

Cara kerjanya persis seperti sistem ujian di sekolah yang memberikan hukuman (nilai negatif) untuk jawaban salah. Tujuannya jelas, yaitu mendorong siswa untuk lebih berhati-hati dan hanya menjawab ketika benar-benar yakin, bukan asal menebak. Dengan menerapkan filosofi yang sama pada AI, kita bisa berharap model AI akan lebih sering dan lebih berani mengatakan “saya tidak tahu” daripada memberikan jawaban salah yang berpotensi menyesatkan banyak orang.

Kesimpulannya, temuan OpenAI ini bukan sekadar membongkar kelemahan, tetapi juga sekaligus memberikan peta jalan untuk menciptakan AI yang lebih jujur dan dapat dipercaya ke depannya. Transisi menuju sistem evaluasi baru ini diharapkan dapat meminimalisasi halusinasi dan membangun fondasi yang lebih kuat untuk pengembangan AI yang bertanggung jawab.

Kunjungi juga situs berita terupdate hanya di Indonesiaartnews