ハルシネーション

読み: はるしねーしょん

ハルシネーション:AIが事実でない内容をもっともらしく生成してしまう現象

ハルシネーション

概要

ハルシネーション(ハルシネーション)とは、生成AIなどが根拠のない情報や誤った内容を、あたかも正しいかのように出力してしまう現象のこと。日本語では「幻覚」と訳されることもあるが、医学的な幻覚とは別概念としてAI文脈で使われる。

どうして起きるか

予測にもとづく生成の性質

生成AIは、与えられた文脈から「もっとも続きそうな語」を統計的に予測して文章を作るため、確実な根拠がない部分でも文として整った答えを作れてしまう。

情報の不足・曖昧さ

質問が曖昧、前提が欠けている、最新情報が必要などの場合、推測で穴埋めしやすい。

検索や参照がない状態

外部の一次情報に当たらずに回答すると、古い知識や誤った連想で「それっぽい誤答」が出やすい。

具体例(起きやすいパターン)

  • 存在しない論文や統計を「ある」と言う
  • 実在しない機能・料金・規制を断定する
  • 人名・役職・日付・数値を取り違える
  • 引用元の内容を誤って要約し、結論を変えてしまう

影響

  • 誤情報の拡散や誤判断(投資、医療、法務などで特に危険)
  • 監修・校正の工数増加
  • 企業利用ではコンプライアンスや信用問題につながる

対策(利用者側)

  • 一次情報(イチジジョウホウ:公式発表や原資料)に当たる
  • 数値・日付・固有名詞は必ず検証する
  • 根拠は?」「出典は?」を求める
  • 不確実な部分は仮説として扱い、断定を避ける

対策(運用・設計側)

  • 検索連携や参照資料の提示(RAGなど)
  • 出典付き回答や、根拠がない場合の明示
  • 重要領域では人手レビューを必須にする
  • テスト質問で誤答傾向を把握し、ガードレールを設ける

注意点

  • もっともらしい文章ほど誤りに気づきにくい
  • 「正確さが必要な領域」ほど、AIの回答を最終判断にせず検証を前提に使う