AI Hallucination เกิดจากอะไร?

AI Hallucination เกิดจากอะไร?

หลายครั้งที่เราเริ่มใช้ AI แล้วเจอเหมือนกัน

AI ตอบเหมือนมั่นใจมากแต่ข้อมูลจริงกลับผิด

สิ่งนี้เรียกว่า AI Hallucination

จริงๆ แล้ว LLM อย่าง GPT ไม่ได้ “รู้” ว่าอะไรจริงแต่มันทำงานโดยการ

“ทำนายคำถัดไปที่น่าจะเกิดขึ้นมากที่สุด”

ดังนั้นเวลาข้อมูลไม่พอหรือคำถามกว้างเกินไป AI จะเริ่ม เติมช่องว่าง เอง

เช่น

  • สร้างข้อมูลปลอม
  • อ้างอิงงานวิจัยที่ไม่มีจริง
  • ตอบมั่นใจทั้งที่ผิด

จุดสำคัญ คือ AI ถูกออกแบบให้ “ตอบลื่น”ไม่ใช่ “ตอบแบบลังเล”

วิธีลด Hallucination ที่ดีที่สุดคือ

  • ให้ Context เยอะขึ้น
  • Prompt ให้ชัด
  • ใช้ข้อมูลจริงประกอบ (RAG)
  • และมีคนตรวจซ้ำในเรื่องสำคัญ

AI ไม่ได้โกหกแต่มันกำลังพยายาม เดาให้ดีที่สุด จากข้อมูลที่มี