ハルシネーション
読み: はるしねーしょん
ハルシネーション:AIが事実でない内容をもっともらしく生成してしまう現象
概要
ハルシネーション(ハルシネーション)とは、生成AIなどが根拠のない情報や誤った内容を、あたかも正しいかのように出力してしまう現象のこと。日本語では「幻覚」と訳されることもあるが、医学的な幻覚とは別概念としてAI文脈で使われる。どうして起きるか
予測にもとづく生成の性質
生成AIは、与えられた文脈から「もっとも続きそうな語」を統計的に予測して文章を作るため、確実な根拠がない部分でも文として整った答えを作れてしまう。情報の不足・曖昧さ
質問が曖昧、前提が欠けている、最新情報が必要などの場合、推測で穴埋めしやすい。検索や参照がない状態
外部の一次情報に当たらずに回答すると、古い知識や誤った連想で「それっぽい誤答」が出やすい。具体例(起きやすいパターン)
- 存在しない論文や統計を「ある」と言う
- 実在しない機能・料金・規制を断定する
- 人名・役職・日付・数値を取り違える
- 引用元の内容を誤って要約し、結論を変えてしまう
影響
対策(利用者側)
対策(運用・設計側)
注意点
- もっともらしい文章ほど誤りに気づきにくい
- 「正確さが必要な領域」ほど、AIの回答を最終判断にせず検証を前提に使う