RAG– tax –

RAG(Retrieval-Augmented Generation:検索拡張生成)とは、外部の知識ソース(文書データベース・社内Wiki・PDF群など)から質問に関連する情報を検索し、その結果をコンテキストとしてLLMに渡すことで、根拠に基づいた回答を生成させる技術フレームワークです。LLM単体では学習データに含まれない情報への対応や情報の鮮度に限界がありますが、RAGにより社内固有の知識や最新情報を動的に参照でき、ハルシネーション(事実と異なる回答の生成)の低減にも寄与します。

技術的な構成要素として、文書のチャンク分割とベクトル化(Embedding)、ベクトルデータベースによる類似検索、検索結果のランキングとフィルタリング(Reranking)、プロンプトへのコンテキスト注入があり、各段階の設計が回答品質を左右します。社内FAQ・ヘルプデスク、技術文書やマニュアルの検索、法務・コンプライアンス文書の照会、ナレッジマネジメント基盤など、組織内の蓄積情報を活用する用途で急速に普及しています。

RAGという概念は2020年にMetaのAI研究チームが発表した論文で提唱され、2023年以降のChatGPT普及に伴うハルシネーション問題への実践的な対策として注目を集めました。現在はLangChainやLlamaIndexといったフレームワーク、PineconeやWeaviateなどのベクトルデータベースを組み合わせた実装が主流で、自律判断を組み込んだAgentic RAGと呼ばれる発展形も登場しています。

123