ハルシネーションとは、大規模言語モデル(LLM)や生成AIが、事実に基づかない内容や根拠のない情報を、あたかも正しいかのように生成してしまう現象を指す。これはモデルが学習したデータの偏りや不完全さ、確率的生成の特性、文脈の誤解釈、推論過程の不安定性など複数の要因が組み合わさって発生する。生成AIは一貫した文章を構成する能力を持つ一方で、内部に外部世界の確固とした知識モデルを保持しているわけではなく、そのため誤った情報を整合的に出力してしまうことがある。
ハルシネーションには大きく二つの区別が提案されている。内在的ハルシネーションは、モデルが学習データの内容と矛盾する情報を生成する場合を指し、学習済み知識の取り扱いが不正確な例に相当する。外在的ハルシネーションは、学習データに存在しない事柄や事実とは異なる内容を新たに“作り出す”もので、未知領域の推測や文脈誤解が原因となることがある。
ハルシネーションは生成AIの本質的な課題であり、完全な排除は難しいとされる。対策としては、検索拡張生成(RAG)による外部情報参照、推論時の検証手法、モデルの継続的改善などが挙げられるが、それでも適切な内容確認と人間による評価が不可欠である。
ParsleyLab:Excel形式で柔軟に記録しつつ、組織内で簡単かつ自由にデータを蓄積・活用できるソリューション