Mountain View – Salah satu tantangan terbesar dalam penerapan luas AI Generatif adalah fenomena yang disebut AI Hallucination. Ini terjadi ketika Large Language Models (LLMs) seperti GPT atau Gemini menghasilkan respons yang sangat meyakinkan dan terdengar logis, namun faktanya salah atau sepenuhnya fiktif.
Halusinasi ini berakar dari cara LLMs dilatih; mereka memprediksi urutan kata yang paling mungkin berdasarkan data yang luas, bukan memverifikasi kebenaran faktual. Dalam konteks aplikasi kritis seperti konsultasi medis, hukum, atau riset ilmiah, halusinasi dapat memiliki konsekuensi yang serius.
Para peneliti kini berfokus pada teknik untuk meningkatkan Truthfulness (kejujuran atau kebenaran) model, termasuk metode yang disebut RAG (Retrieval-Augmented Generation). RAG memungkinkan AI untuk mengambil informasi dari sumber data eksternal yang terverifikasi dan mengutip sumber tersebut, daripada hanya mengandalkan memori internalnya. Mengatasi halusinasi adalah kunci agar AI dapat dipercaya sebagai alat informasi, bukan sekadar mesin narasi.