OpenAI Akan Perbaiki Jawaban 'Halu' ChatGPT
JAKARTA, iNews.id- Perkembangan teknologi ChatGPT kian bergelora. Di mana sejumlah perusahaan besar seperti Google dan Microsoft terus meningkatkan tanggapan chatbot mereka, dengan melatih dengan large language models (LLM) yang kuat.
Melihat perkembangan tersebut, salah satu perusahaan ternama yang menghadirkan ChatGPT yaitu OpenAI, juga tidak mau kalah, di mana mereka telah mengumumkan bahwa mereka sudah melatih model untuk mendeteksi 'halusinasi'.
Lantas apa itu Halusinasi AI? Singkatnya, halusinasi AI terjadi saat model bertenaga AI seperti ChatGPT atau Google Bard mengarang informasi dan menampilkannya sebagai fakta.
Belum lama ini, ChatGPT mengutip kasus 'palsu' pada pengajuan pengadilan federal New York. Faktanya, selama presentasi Bard, chatbot tersebut memberikan informasi yang salah terkait teleskop James Webb.
"Bahkan model tercanggih cenderung menghasilkan kebohongan, mereka menunjukkan kecenderungan untuk menciptakan fakta di saat-saat ketidakpastian," jelas peneliti OpenAI seperti yang dikutip dari gadgetsnow, Kamis (1/6/2023)
Halusinasi AI tersebut sangat bermasalah dalam domain, khususnya yang memerlukan langkah penalaran multi-step. Karena, satu kesalahan logis saja, sudah cukup untuk menggagalkan solusi yang jauh lebih besar.
Perusahaan yang didukung oleh Microsoft tersebut mengatakan, bahwa mengurangi halusinasi merupakan langkah penting untuk membangun kecerdasan buatan (AGI) yang selaras, sebuah mesin yang bisa memahami atau mempelajari tugas-tugas intelektual seperti manusia.
"Kami telah melatih model untuk mencapai state-of-the-art baru dalam pemecahan masalah matematika dengan memberi penghargaan pada setiap langkah penalaran yang benar, alih-alih hanya memberi penghargaan pada jawaban akhir yang benar," jelas perusahaan tersebut dalam penelitian yang diterbitkan pada minggu ini.
Sederhananya, OpenAI ingin melatih model AI untuk menghargai diri mereka sendiri, tentang setiap langkah penalaran yang benar, dan bukan hanya untuk jawaban yang benar.
OpenAI juga mengatakan, bahwa model tersebut meningkatkan kinerja dan secara langsung melatih model tersebut untuk menghasilkan rangkaian pikiran yang didukung oleh manusia. Itu berarti, pengawasan mendorong model untuk mengikuti proses yang disetujui manusia.
"Kami dapat melatih model hadiah untuk mendeteksi halusinasi menggunakan pengawasan hasil yang memberikan umpan balik berdasarkan hasil akhir, atau pengawasan proses yang memberikan feedback untuk setiap langkah individu dalam rangkaian pemikiran," jelas peneliti OpenAI.
Sebagai informasi, OpenAI sendiri sudah merilis dataset yang menyertai 800.000 label manusia yang digunakan untuk melatih model yang disebutkan dalam makalah penelitian. Sementara itu, menurut Karl Cobbe, peneliti matematika di OpenAI, tim peneliti juga mengatakan bahwa model hadiah yang diawasi proses berkinerja, lebih baik secara keseluruhan.
Editor: Ismet Humaedi