大規模言語モデル
読み: だいきぼげんごもでる
ダイキボゲンゴモデル:大量の文章で学習し、文章の続きを予測して生成するAIモデル
大規模言語モデルとは
大量のテキストデータを使って学習し、入力文脈に続く言葉を確率的に予測することで、文章生成や要約、翻訳、質疑応答などを行うAIモデル。英語ではLLM(Large Language Model)と呼ばれる。何ができるか
文章を扱うタスク
- 文章生成(メール文案、説明文、企画のたたき台)
- 要約、翻訳、言い換え、校正
- 質問応答、分類(タグ付け)、情報整理
コードや構造化出力
仕組みのイメージ
「次の単語」を予測する
- 入力された文章の流れから、次に来やすい単語(トークン)を予測し、連ねて文章を作る
- 長い文脈を扱うために、注意機構(アテンション:文中の重要部分に注目する仕組み)などが使われることが多い
学習と利用の段階
強み
- 幅広い文章タスクを1つのモデルでこなせる
- 文脈に合わせた自然な文章が作れる
- 例示や制約を与えると、出力品質が上がりやすい
限界・注意点
ハルシネーション
ハルシネーション(ハルシネーション:もっともらしい誤情報を作ること)が起こり得る。- 固有名詞、数字、出典が必要な内容は必ず検証が必要
最新情報に弱い場合がある
- 学習データの時点で止まっているため、直近の出来事は誤ることがある
- 外部情報を参照する仕組み(検索や社内文書参照)で補う場合がある
機密・個人情報の取り扱い
- 入力内容が外部提供に当たる可能性があるため、社内規程やサービス設定に従う
推論・計算の苦手さ
- 論理は得意でも、厳密な計算や長い手順の正確さは誤ることがある
- 重要な数値は別手段で検算するのが安全
関連用語
- 生成AI(セイセイエーアイ:指示から文章や画像などを生成するAIの総称)
- プロンプト(プロンプト:AIへの指示文)
- RAG(ラグ:外部資料を検索して回答に反映する手法)
- ファインチューニング(ファインチューニング:追加データでモデルを調整する手法)
使いどころ(実務)
- 下書き作成、問い合わせ対応の一次案、社内文書の要約、ナレッジ整理
- 重要資料は「根拠の提示」「不確実点の明示」「人による最終チェック」をセットにすると安全