RAG(Retrieval-Augmented Generation)とは?次世代AI技術の核心
RAG(Retrieval-Augmented Generation)は、2020年にFacebookの研究チームによって提案された革新的な技術で、大規模言語モデル(LLM)の限界を克服する画期的なアプローチです。2025年現在、企業のAI導入において最も注目されている技術の一つとなっています。
従来のLLMは、訓練時に学習したデータに基づいてのみ回答を生成するため、最新の情報や特定ドメインの専門知識に対する対応が困難でした。RAGは、この問題を「情報検索」と「テキスト生成」を組み合わせることで解決します。
RAGが解決する主要な課題
- 知識の陳腐化: 訓練データの時点での情報に制限される問題
- ハルシネーション: 存在しない情報を生成してしまう問題
- 専門知識の不足: 特定分野の深い知識の欠如
- 情報源の透明性: 回答の根拠となる情報源が不明
- 動的知識更新: 新しい情報の即座な反映が困難
# RAGシステムの基本概念を示すコード例
from typing import List, Dict, Any, Optional
import numpy as np
from dataclasses import dataclass
from abc import ABC, abstractmethod
@dataclass
class Document:
"""検索対象の文書"""
id: str
content: str
metadata: Dict[str, Any]
embedding: Optional[np.ndarray] = None
@dataclass
class Query:
"""検索クエリ"""
text: str
embedding: Optional[np.ndarray] = None
filters: Optional[Dict[str, Any]] = None
@dataclass
class RetrievalResult:
"""検索結果"""
documents: List[Document]
scores: List[float]
query: Query
class RAGPipeline:
"""RAGパイプラインの基本構造"""
def __init__(self, retriever, generator, embedding_model):
self.retriever = retriever # 情報検索コンポーネント
self.generator = generator # テキスト生成コンポーネント
self.embedding_model = embedding_model # 埋め込みモデル
def process_query(self, query_text: str, top_k: int = 5) -> str:
"""RAGパイプラインのメイン処理"""
# 1. クエリの埋め込み生成
query = Query(
text=query_text,
embedding=self.embedding_model.encode(query_text)
)
# 2. 関連文書の検索
retrieval_result = self.retriever.search(query, top_k=top_k)
# 3. 検索結果とクエリを組み合わせてプロンプト作成
context = self._build_context(retrieval_result.documents)
prompt = self._build_prompt(query_text, context)
# 4. LLMによる回答生成
response = self.generator.generate(prompt)
return response
def _build_context(self, documents: List[Document]) -> str:
"""検索された文書からコンテキストを構築"""
context_parts = []
for i, doc in enumerate(documents, 1):
context_parts.append(f"[文書{i}] {doc.content}")
return "\n\n".join(context_parts)
def _build_prompt(self, query: str, context: str) -> str:
"""プロンプトテンプレートの構築"""
return f"""
以下の文書を参考にして、質問に答えてください。
文書に記載されていない情報については、そのことを明確に述べてください。
参考文書:
{context}
質問: {query}
回答:"""
# 使用例の概念実装
def demonstrate_rag_concept():
"""RAGの基本概念を示すデモンストレーション"""
# サンプル文書
documents = [
Document(
id="doc1",
content="RAGは情報検索と生成を組み合わせた技術です。",
metadata={"source": "AI技術解説書", "page": 42}
),
Document(
id="doc2",
content="ベクトル検索により類似文書を高速に発見できます。",
metadata={"source": "機械学習入門", "page": 156}
)
]
print("RAG概念デモ:")
print("1. 文書の準備:", len(documents), "件")
print("2. クエリ例: 'RAGとは何ですか?'")
print("3. 期待される処理:")
print(" - クエリをベクトル化")
print(" - 関連文書を検索")
print(" - 文書とクエリを組み合わせて回答生成")
if __name__ == "__main__":
demonstrate_rag_concept()RAGの技術的優位性
RAGは従来のアプローチと比較して以下の優位性を持ちます:
- 知識の即時更新: 新しい文書を追加するだけで知識ベースを拡張
- 透明性の確保: 回答の根拠となる文書を明示可能
- 計算効率: 全知識を事前学習する必要がない
- 専門性の向上: 特定ドメインの文書に特化した検索が可能
最短で課題解決する一冊
この記事の内容と高い親和性が確認できたベストマッチです。早めにチェックしておきましょう。
RAGのアーキテクチャ:構成要素と動作原理
RAGシステムは主に4つの核心的コンポーネントで構成されています。それぞれの役割と相互関係を詳しく見ていきましょう。
1. 文書処理・インデックス化コンポーネント
# 文書処理とインデックス化の実装例
import hashlib
import json
from typing import Iterator, Tuple
from pathlib import Path
import tiktoken
from sentence_transformers import SentenceTransformer
class DocumentProcessor:
"""文書の前処理とチャンク化を担当"""
def __init__(self,
chunk_size: int = 512,
chunk_overlap: int = 50,
model_name: str = "text-embedding-ada-002"):
self.chunk_size = chunk_size
self.chunk_overlap = chunk_overlap
self.tokenizer = tiktoken.encoding_for_model("gpt-3.5-turbo")
self.embedding_model = SentenceTransformer('all-MiniLM-L6-v2')
def process_document(self, content: str, metadata: Dict[str, Any]) -> List[Document]:
"""文書を処理してチャンクに分割"""
# 1. テキストの正規化
normalized_content = self._normalize_text(content)
# 2. チャンクに分割
chunks = self._chunk_text(normalized_content)
# 3. 各チャンクに対してDocumentオブジェクトを作成
documents = []
for i, chunk in enumerate(chunks):
doc_id = self._generate_document_id(chunk, metadata, i)
embedding = self.embedding_model.encode(chunk)
doc = Document(
id=doc_id,
content=chunk,
metadata={
**metadata,
'chunk_index': i,
'total_chunks': len(chunks),
'token_count': len(self.tokenizer.encode(chunk))
},
embedding=embedding
)
documents.append(doc)
return documents
def _normalize_text(self, text: str) -> str:
"""テキストの正規化処理"""
# 改行の統一
text = text.replace('\r\n', '\n').replace('\r', '\n')
# 複数の空白を単一に
import re
text = re.sub(r'\s+', ' ', text)
# 不要な文字の除去
text = text.strip()
return text
def _chunk_text(self, text: str) -> List[str]:
"""テキストをチャンクに分割(オーバーラップ考慮)"""
tokens = self.tokenizer.encode(text)
chunks = []
start = 0
while start < len(tokens):
# チャンクの終了位置を計算
end = min(start + self.chunk_size, len(tokens))
# トークンをテキストに戻す
chunk_tokens = tokens[start:end]
chunk_text = self.tokenizer.decode(chunk_tokens)
chunks.append(chunk_text)
# 次のチャンクの開始位置(オーバーラップ考慮)
if end >= len(tokens):
break
start = end - self.chunk_overlap
return chunks
def _generate_document_id(self, content: str, metadata: Dict[str, Any], chunk_index: int) -> str:
"""文書IDの生成"""
source = metadata.get('source', 'unknown')
content_hash = hashlib.md5(content.encode()).hexdigest()[:8]
return f"{source}_{chunk_index}_{content_hash}"
class DocumentStore:
"""文書の保存と管理"""
def __init__(self, storage_path: str):
self.storage_path = Path(storage_path)
self.storage_path.mkdir(exist_ok=True)
self.documents: Dict[str, Document] = {}
self.metadata_index: Dict[str, List[str]] = {}
def add_documents(self, documents: List[Document]) -> None:
"""文書をストアに追加"""
for doc in documents:
self.documents[doc.id] = doc
# メタデータインデックスの更新
for key, value in doc.metadata.items():
if key not in self.metadata_index:
self.metadata_index[key] = []
if str(value) not in self.metadata_index[key]:
self.metadata_index[key].append(str(value))
# 永続化
self._save_to_disk()
def get_document(self, doc_id: str) -> Optional[Document]:
"""IDによる文書取得"""
return self.documents.get(doc_id)
def search_by_metadata(self, filters: Dict[str, Any]) -> List[Document]:
"""メタデータによる文書検索"""
filtered_docs = []
for doc in self.documents.values():
match = True
for key, value in filters.items():
if key not in doc.metadata or doc.metadata[key] != value:
match = False
break
if match:
filtered_docs.append(doc)
return filtered_docs
def _save_to_disk(self) -> None:
"""文書をディスクに保存"""
# 文書データの保存
docs_file = self.storage_path / "documents.jsonl"
with open(docs_file, 'w', encoding='utf-8') as f:
for doc in self.documents.values():
doc_dict = {
'id': doc.id,
'content': doc.content,
'metadata': doc.metadata,
'embedding': doc.embedding.tolist() if doc.embedding is not None else None
}
f.write(json.dumps(doc_dict, ensure_ascii=False) + '\n')
# インデックスの保存
index_file = self.storage_path / "metadata_index.json"
with open(index_file, 'w', encoding='utf-8') as f:
json.dump(self.metadata_index, f, ensure_ascii=False, indent=2)2. ベクトル検索コンポーネント
# ベクトル検索エンジンの実装
import faiss
import numpy as np
from sklearn.metrics.pairwise import cosine_similarity
class VectorStore:
"""ベクトル検索のためのストレージ"""
def __init__(self, dimension: int, index_type: str = "IVF"):
self.dimension = dimension
self.index_type = index_type
self.index = self._create_index()
self.doc_ids: List[str] = []
self.documents_map: Dict[str, Document] = {}
def _create_index(self) -> faiss.Index:
"""FAISSインデックスの作成"""
if self.index_type == "Flat":
# 単純な全件検索(小規模データ用)
return faiss.IndexFlatIP(self.dimension) # Inner Product
elif self.index_type == "IVF":
# IVF(Inverted File)インデックス(大規模データ用)
nlist = 100 # クラスター数
quantizer = faiss.IndexFlatIP(self.dimension)
return faiss.IndexIVFFlat(quantizer, self.dimension, nlist)
elif self.index_type == "HNSW":
# HNSW(Hierarchical Navigable Small World)
return faiss.IndexHNSWFlat(self.dimension, 32)
else:
raise ValueError(f"Unsupported index type: {self.index_type}")
def add_documents(self, documents: List[Document]) -> None:
"""文書をベクトルストアに追加"""
if not documents:
return
# 埋め込みベクトルの準備
embeddings = []
for doc in documents:
if doc.embedding is None:
raise ValueError(f"Document {doc.id} has no embedding")
embeddings.append(doc.embedding)
self.doc_ids.append(doc.id)
self.documents_map[doc.id] = doc
# NumPy配列に変換
embeddings_array = np.array(embeddings).astype('float32')
# 正規化(コサイン類似度用)
faiss.normalize_L2(embeddings_array)
# インデックスの訓練(IVFの場合)
if self.index_type == "IVF" and not self.index.is_trained:
self.index.train(embeddings_array)
# ベクトルをインデックスに追加
self.index.add(embeddings_array)
def search(self, query_embedding: np.ndarray, top_k: int = 5,
filters: Optional[Dict[str, Any]] = None) -> List[Tuple[Document, float]]:
"""ベクトル検索の実行"""
# クエリベクトルの前処理
query_vector = query_embedding.reshape(1, -1).astype('float32')
faiss.normalize_L2(query_vector)
# 検索実行
scores, indices = self.index.search(query_vector, top_k * 2) # フィルタリング用に多めに取得
results = []
for score, idx in zip(scores[0], indices[0]):
if idx == -1: # 無効なインデックス
continue
doc_id = self.doc_ids[idx]
document = self.documents_map[doc_id]
# フィルタリング
if filters and not self._matches_filters(document, filters):
continue
results.append((document, float(score)))
if len(results) >= top_k:
break
return results
def _matches_filters(self, document: Document, filters: Dict[str, Any]) -> bool:
"""文書がフィルタ条件にマッチするかチェック"""
for key, value in filters.items():
if key not in document.metadata:
return False
if isinstance(value, list):
if document.metadata[key] not in value:
return False
else:
if document.metadata[key] != value:
return False
return True
def get_stats(self) -> Dict[str, Any]:
"""インデックスの統計情報"""
return {
'total_documents': len(self.doc_ids),
'dimension': self.dimension,
'index_type': self.index_type,
'is_trained': getattr(self.index, 'is_trained', True)
}
class HybridRetriever:
"""ハイブリッド検索(ベクトル検索 + キーワード検索)"""
def __init__(self, vector_store: VectorStore, document_store: DocumentStore):
self.vector_store = vector_store
self.document_store = document_store
def search(self, query: Query, top_k: int = 5,
alpha: float = 0.7) -> RetrievalResult:
"""
ハイブリッド検索の実行
Args:
query: 検索クエリ
top_k: 取得する文書数
alpha: ベクトル検索の重み(0.0-1.0)
"""
# 1. ベクトル検索
vector_results = self.vector_store.search(
query.embedding,
top_k=top_k * 2, # 多めに取得
filters=query.filters
)
# 2. キーワード検索(簡易BM25実装)
keyword_results = self._keyword_search(query.text, top_k * 2)
# 3. スコアの正規化と結合
final_results = self._combine_results(
vector_results, keyword_results, alpha, top_k
)
documents = [doc for doc, score in final_results]
scores = [score for doc, score in final_results]
return RetrievalResult(
documents=documents,
scores=scores,
query=query
)
def _keyword_search(self, query_text: str, top_k: int) -> List[Tuple[Document, float]]:
"""簡易キーワード検索(BM25風)"""
query_terms = query_text.lower().split()
results = []
for doc in self.document_store.documents.values():
score = self._calculate_bm25_score(doc.content.lower(), query_terms)
if score > 0:
results.append((doc, score))
# スコア順でソート
results.sort(key=lambda x: x[1], reverse=True)
return results[:top_k]
def _calculate_bm25_score(self, document: str, query_terms: List[str]) -> float:
"""簡易BM25スコア計算"""
score = 0.0
doc_terms = document.split()
doc_length = len(doc_terms)
for term in query_terms:
term_frequency = doc_terms.count(term)
if term_frequency > 0:
# 簡易BM25計算
tf = term_frequency / doc_length
score += tf / (tf + 0.5) # 簡略化
return score
def _combine_results(self, vector_results: List[Tuple[Document, float]],
keyword_results: List[Tuple[Document, float]],
alpha: float, top_k: int) -> List[Tuple[Document, float]]:
"""検索結果の結合とスコア正規化"""
# スコアの正規化
vector_scores = [score for _, score in vector_results]
keyword_scores = [score for _, score in keyword_results]
if vector_scores:
vector_max = max(vector_scores)
vector_results = [(doc, score/vector_max) for doc, score in vector_results]
if keyword_scores:
keyword_max = max(keyword_scores)
keyword_results = [(doc, score/keyword_max) for doc, score in keyword_results]
# 結合スコアの計算
combined_scores = {}
for doc, score in vector_results:
combined_scores[doc.id] = alpha * score
for doc, score in keyword_results:
if doc.id in combined_scores:
combined_scores[doc.id] += (1 - alpha) * score
else:
combined_scores[doc.id] = (1 - alpha) * score
# 結果のソートと上位k件の取得
doc_map = {doc.id: doc for doc, _ in vector_results + keyword_results}
sorted_results = sorted(
combined_scores.items(),
key=lambda x: x[1],
reverse=True
)[:top_k]
return [(doc_map[doc_id], score) for doc_id, score in sorted_results]3. 生成コンポーネント
# LLM統合とプロンプト最適化
from typing import Protocol
import openai
from dataclasses import dataclass
class LLMInterface(Protocol):
"""LLMインターフェースの定義"""
def generate(self, prompt: str, **kwargs) -> str:
"""テキスト生成"""
pass
def generate_with_citations(self, prompt: str, sources: List[Document], **kwargs) -> Dict[str, Any]:
"""引用付きテキスト生成"""
pass
@dataclass
class GenerationConfig:
"""生成設定"""
model: str = "gpt-3.5-turbo"
temperature: float = 0.3
max_tokens: int = 1000
top_p: float = 0.9
frequency_penalty: float = 0.0
presence_penalty: float = 0.0
class OpenAIGenerator:
"""OpenAI API を使用したテキスト生成"""
def __init__(self, config: GenerationConfig, api_key: str):
self.config = config
self.client = openai.OpenAI(api_key=api_key)
def generate(self, prompt: str, **kwargs) -> str:
"""基本的なテキスト生成"""
response = self.client.chat.completions.create(
model=self.config.model,
messages=[
{"role": "system", "content": "あなたは正確で有用な情報を提供するAIアシスタントです。"},
{"role": "user", "content": prompt}
],
temperature=kwargs.get('temperature', self.config.temperature),
max_tokens=kwargs.get('max_tokens', self.config.max_tokens),
top_p=kwargs.get('top_p', self.config.top_p)
)
return response.choices[0].message.content
def generate_with_citations(self, prompt: str, sources: List[Document], **kwargs) -> Dict[str, Any]:
"""引用情報付きでテキスト生成"""
# 引用プロンプトの構築
citations_prompt = self._build_citation_prompt(prompt, sources)
response = self.client.chat.completions.create(
model=self.config.model,
messages=[
{"role": "system", "content": """
あなたは学術的で正確な情報提供を行うAIアシスタントです。
以下のルールに従って回答してください:
1. 提供された文書のみを参考にして回答する
2. 引用する際は [文書番号] の形式で明示する
3. 文書に記載されていない情報については推測しない
4. 回答の最後に参考文書リストを記載する
"""},
{"role": "user", "content": citations_prompt}
],
temperature=0.2, # 一貫性のため低めに設定
max_tokens=kwargs.get('max_tokens', self.config.max_tokens)
)
generated_text = response.choices[0].message.content
return {
'text': generated_text,
'sources': sources,
'prompt_tokens': response.usage.prompt_tokens,
'completion_tokens': response.usage.completion_tokens
}
def _build_citation_prompt(self, query: str, sources: List[Document]) -> str:
"""引用付きプロンプトの構築"""
sources_text = ""
for i, doc in enumerate(sources, 1):
source_info = doc.metadata.get('source', '不明')
sources_text += f"[文書{i}] {doc.content}\n(出典: {source_info})\n\n"
return f"""
参考文書:
{sources_text}
質問: {query}
上記の文書を参考にして、質問に対する正確で詳細な回答を提供してください。
回答には必ず引用元を [文書番号] の形式で明示してください。
"""
class PromptOptimizer:
"""プロンプト最適化クラス"""
def __init__(self):
self.templates = {
'qa': """
以下の文書を参考にして、質問に答えてください。
参考文書:
{context}
質問: {query}
回答時の注意点:
- 文書の内容に基づいて正確に答える
- 推測や憶測は避ける
- 文書に記載されていない場合は明確に述べる
回答:""",
'summarization': """
以下の文書群を要約してください。
文書:
{context}
要約の要件:
- 主要なポイントを網羅する
- 簡潔で理解しやすい文章にする
- 重要度順に整理する
要約:""",
'analysis': """
以下の文書を分析し、{analysis_type}の観点から解説してください。
文書:
{context}
分析観点: {analysis_type}
分析結果:"""
}
def build_prompt(self, template_name: str, **kwargs) -> str:
"""テンプレートからプロンプトを構築"""
if template_name not in self.templates:
raise ValueError(f"Unknown template: {template_name}")
template = self.templates[template_name]
return template.format(**kwargs)
def optimize_context_length(self, documents: List[Document], max_tokens: int = 3000) -> List[Document]:
"""コンテキスト長の最適化"""
# 簡易的なトークン数推定(1トークン ≈ 4文字として計算)
total_chars = 0
optimized_docs = []
for doc in documents:
doc_chars = len(doc.content)
if total_chars + doc_chars <= max_tokens * 4:
optimized_docs.append(doc)
total_chars += doc_chars
else:
# 残り容量に合わせて文書をトランケート
remaining_chars = max_tokens * 4 - total_chars
if remaining_chars > 100: # 最小文字数
truncated_content = doc.content[:remaining_chars] + "..."
truncated_doc = Document(
id=doc.id + "_truncated",
content=truncated_content,
metadata={**doc.metadata, 'truncated': True},
embedding=doc.embedding
)
optimized_docs.append(truncated_doc)
break
return optimized_docsさらに理解を深める参考書
関連記事と相性の良い実践ガイドです。手元に置いて反復しながら進めてみてください。
実装例:企業向けRAGシステムの構築
完全なRAGシステムの実装
# 統合RAGシステムの実装
import logging
from typing import Optional, List, Dict, Any
from pathlib import Path
import json
import time
# ログ設定
logging.basicConfig(level=logging.INFO)
logger = logging.getLogger(__name__)
class EnterpriseRAGSystem:
"""企業向けRAGシステム"""
def __init__(self,
storage_path: str,
openai_api_key: str,
embedding_model_name: str = "all-MiniLM-L6-v2"):
# 初期化
self.storage_path = Path(storage_path)
self.storage_path.mkdir(exist_ok=True)
# コンポーネントの初期化
self.document_processor = DocumentProcessor()
self.document_store = DocumentStore(str(self.storage_path / "documents"))
self.vector_store = VectorStore(dimension=384) # all-MiniLM-L6-v2の次元数
self.generator = OpenAIGenerator(
GenerationConfig(),
openai_api_key
)
self.prompt_optimizer = PromptOptimizer()
self.retriever = HybridRetriever(self.vector_store, self.document_store)
# 統計情報
self.query_stats = {
'total_queries': 0,
'average_response_time': 0,
'cache_hits': 0
}
# 簡易キャッシュ
self.response_cache = {}
logger.info("RAGシステムが初期化されました")
def add_documents_from_files(self, file_paths: List[str]) -> Dict[str, Any]:
"""ファイルから文書を追加"""
results = {
'processed_files': 0,
'total_documents': 0,
'errors': []
}
for file_path in file_paths:
try:
path = Path(file_path)
if not path.exists():
results['errors'].append(f"File not found: {file_path}")
continue
# ファイル読み込み
with open(path, 'r', encoding='utf-8') as f:
content = f.read()
# メタデータ作成
metadata = {
'source': path.name,
'file_path': str(path),
'file_size': path.stat().st_size,
'added_at': time.time()
}
# 文書処理
documents = self.document_processor.process_document(content, metadata)
# ストレージに追加
self.document_store.add_documents(documents)
self.vector_store.add_documents(documents)
results['processed_files'] += 1
results['total_documents'] += len(documents)
logger.info(f"File processed: {path.name} ({len(documents)} chunks)")
except Exception as e:
error_msg = f"Error processing {file_path}: {str(e)}"
results['errors'].append(error_msg)
logger.error(error_msg)
return results
def query(self,
question: str,
top_k: int = 5,
use_cache: bool = True,
include_sources: bool = True) -> Dict[str, Any]:
"""RAGクエリの実行"""
start_time = time.time()
# キャッシュチェック
cache_key = f"{question}_{top_k}"
if use_cache and cache_key in self.response_cache:
self.query_stats['cache_hits'] += 1
logger.info("Cache hit for query")
return self.response_cache[cache_key]
try:
# 1. クエリの埋め込み生成
query_embedding = self.document_processor.embedding_model.encode(question)
query = Query(text=question, embedding=query_embedding)
# 2. 関連文書の検索
retrieval_result = self.retriever.search(query, top_k=top_k)
if not retrieval_result.documents:
return {
'answer': '関連する文書が見つかりませんでした。',
'sources': [],
'confidence': 0.0,
'processing_time': time.time() - start_time
}
# 3. コンテキストの最適化
optimized_docs = self.prompt_optimizer.optimize_context_length(
retrieval_result.documents
)
# 4. 回答生成
if include_sources:
result = self.generator.generate_with_citations(
question, optimized_docs
)
answer = result['text']
sources = [
{
'id': doc.id,
'content': doc.content[:200] + "..." if len(doc.content) > 200 else doc.content,
'metadata': doc.metadata,
'score': retrieval_result.scores[i]
}
for i, doc in enumerate(optimized_docs)
]
else:
context = self.prompt_optimizer.build_prompt(
'qa',
context="\n\n".join([doc.content for doc in optimized_docs]),
query=question
)
answer = self.generator.generate(context)
sources = []
# 5. 結果の構築
response = {
'answer': answer,
'sources': sources,
'confidence': self._calculate_confidence(retrieval_result.scores),
'processing_time': time.time() - start_time,
'retrieved_documents': len(retrieval_result.documents)
}
# キャッシュに保存
if use_cache:
self.response_cache[cache_key] = response
# 統計更新
self._update_stats(time.time() - start_time)
return response
except Exception as e:
logger.error(f"Query processing error: {str(e)}")
return {
'answer': f'エラーが発生しました: {str(e)}',
'sources': [],
'confidence': 0.0,
'processing_time': time.time() - start_time,
'error': str(e)
}
def batch_query(self, questions: List[str], **kwargs) -> List[Dict[str, Any]]:
"""バッチクエリ処理"""
results = []
for question in questions:
result = self.query(question, **kwargs)
results.append({
'question': question,
**result
})
return results
def _calculate_confidence(self, scores: List[float]) -> float:
"""信頼度の計算"""
if not scores:
return 0.0
# 上位スコアの平均を基準とした信頼度
top_scores = scores[:3] # 上位3件
avg_score = sum(top_scores) / len(top_scores)
# 0-1の範囲に正規化
confidence = min(avg_score, 1.0)
return round(confidence, 3)
def _update_stats(self, processing_time: float) -> None:
"""統計情報の更新"""
self.query_stats['total_queries'] += 1
# 移動平均で平均応答時間を更新
current_avg = self.query_stats['average_response_time']
total_queries = self.query_stats['total_queries']
new_avg = ((current_avg * (total_queries - 1)) + processing_time) / total_queries
self.query_stats['average_response_time'] = round(new_avg, 3)
def get_system_stats(self) -> Dict[str, Any]:
"""システム統計情報の取得"""
return {
'document_stats': {
'total_documents': len(self.document_store.documents),
'vector_store_stats': self.vector_store.get_stats()
},
'query_stats': self.query_stats,
'cache_size': len(self.response_cache)
}
def clear_cache(self) -> None:
"""キャッシュのクリア"""
self.response_cache.clear()
logger.info("Cache cleared")
def export_knowledge_base(self, output_path: str) -> None:
"""知識ベースのエクスポート"""
export_data = {
'documents': [
{
'id': doc.id,
'content': doc.content,
'metadata': doc.metadata
}
for doc in self.document_store.documents.values()
],
'stats': self.get_system_stats(),
'export_timestamp': time.time()
}
with open(output_path, 'w', encoding='utf-8') as f:
json.dump(export_data, f, ensure_ascii=False, indent=2)
logger.info(f"Knowledge base exported to {output_path}")
# 使用例とデモンストレーション
def demonstrate_enterprise_rag():
"""企業向けRAGシステムのデモンストレーション"""
# システム初期化(実際の使用時はAPIキーを設定)
rag_system = EnterpriseRAGSystem(
storage_path="./rag_storage",
openai_api_key="your-openai-api-key-here"
)
# サンプル文書の追加
sample_docs = [
"# AI技術概要\n\nAI(人工知能)は、機械学習と深層学習を基盤とした技術です。",
"# RAG技術\n\nRAG(Retrieval-Augmented Generation)は情報検索と生成を組み合わせた技術です。",
"# 企業でのAI活用\n\n企業でのAI活用は業務効率化と意思決定支援に大きく貢献します。"
]
# 文書を個別に追加(実際の使用では add_documents_from_files を使用)
for i, content in enumerate(sample_docs):
metadata = {'source': f'document_{i}.md', 'type': 'technical_doc'}
documents = rag_system.document_processor.process_document(content, metadata)
rag_system.document_store.add_documents(documents)
rag_system.vector_store.add_documents(documents)
# クエリの実行
questions = [
"RAGとは何ですか?",
"企業でのAI活用の利点は?",
"機械学習について教えてください"
]
print("=== 企業向けRAGシステム デモ ===\n")
for question in questions:
print(f"質問: {question}")
result = rag_system.query(question)
print(f"回答: {result['answer']}")
print(f"信頼度: {result['confidence']}")
print(f"処理時間: {result['processing_time']:.2f}秒")
print(f"参考文書数: {result['retrieved_documents']}")
print("-" * 50)
# システム統計
stats = rag_system.get_system_stats()
print("\n=== システム統計 ===")
print(json.dumps(stats, ensure_ascii=False, indent=2))
if __name__ == "__main__":
demonstrate_enterprise_rag()さらに理解を深める参考書
関連記事と相性の良い実践ガイドです。手元に置いて反復しながら進めてみてください。
RAGの応用分野と活用事例
1. 企業の知識管理システム
RAGは企業の社内文書、マニュアル、FAQ、技術仕様書などを統合した知識ベースシステムの構築に最適です。
# 企業知識管理システムの例
class CorporateKnowledgeRAG:
def __init__(self, departments: List[str]):
self.departments = departments
self.department_stores = {
dept: EnterpriseRAGSystem(f"./knowledge/{dept}", "api-key")
for dept in departments
}
def query_department(self, department: str, question: str):
"""部門固有の質問"""
if department not in self.department_stores:
return {"error": "Department not found"}
return self.department_stores[department].query(question)
def query_cross_department(self, question: str):
"""部門横断的な質問"""
results = {}
for dept in self.departments:
result = self.department_stores[dept].query(question, top_k=3)
if result['confidence'] > 0.5:
results[dept] = result
return self._synthesize_cross_department_results(results, question)
def _synthesize_cross_department_results(self, results, question):
"""部門横断結果の統合"""
# 各部門の回答を統合して包括的な回答を生成
combined_context = ""
for dept, result in results.items():
combined_context += f"\n【{dept}部門からの情報】\n{result['answer']}\n"
# 統合回答の生成(実装簡略化)
return {
'synthesized_answer': f"複数部門の情報を統合した回答:\n{combined_context}",
'department_results': results
}2. 顧客サポートシステム
# 顧客サポート用RAGシステム
class CustomerSupportRAG:
def __init__(self):
self.rag_system = EnterpriseRAGSystem("./support_kb", "api-key")
self.conversation_history = {}
def handle_customer_query(self, customer_id: str, query: str):
"""顧客の問い合わせ処理"""
# 会話履歴の考慮
if customer_id in self.conversation_history:
context_query = self._build_contextual_query(
query, self.conversation_history[customer_id]
)
else:
context_query = query
# RAG検索実行
result = self.rag_system.query(context_query)
# 会話履歴の更新
if customer_id not in self.conversation_history:
self.conversation_history[customer_id] = []
self.conversation_history[customer_id].append({
'query': query,
'response': result['answer'],
'timestamp': time.time()
})
# カスタマーサポート向けの追加情報
return {
**result,
'escalation_needed': self._should_escalate(result),
'suggested_actions': self._suggest_actions(result),
'customer_id': customer_id
}
def _should_escalate(self, result):
"""エスカレーションが必要かどうかの判定"""
return result['confidence'] < 0.6 or '申し訳ございません' in result['answer']
def _suggest_actions(self, result):
"""推奨アクション"""
if result['confidence'] > 0.8:
return ["顧客に直接回答", "満足度確認"]
else:
return ["専門担当者への転送", "追加情報の収集"]3. 研究・開発支援システム
# 研究開発支援RAGシステム
class ResearchRAG:
def __init__(self):
self.paper_rag = EnterpriseRAGSystem("./research_papers", "api-key")
self.patent_rag = EnterpriseRAGSystem("./patents", "api-key")
self.internal_rag = EnterpriseRAGSystem("./internal_research", "api-key")
def research_query(self, query: str, sources: List[str] = None):
"""研究クエリの処理"""
if sources is None:
sources = ['papers', 'patents', 'internal']
results = {}
if 'papers' in sources:
results['academic_papers'] = self.paper_rag.query(query)
if 'patents' in sources:
results['patents'] = self.patent_rag.query(query)
if 'internal' in sources:
results['internal_research'] = self.internal_rag.query(query)
return self._synthesize_research_results(results, query)
def _synthesize_research_results(self, results, query):
"""研究結果の統合"""
synthesis = {
'research_summary': "",
'key_findings': [],
'related_patents': [],
'research_gaps': [],
'source_breakdown': results
}
# 各ソースからの重要な発見を統合
all_sources = []
for source_type, result in results.items():
if result['confidence'] > 0.5:
all_sources.extend(result['sources'])
# 統合サマリーの生成(簡略化)
synthesis['research_summary'] = f"{len(all_sources)}件の関連文書から情報を統合"
return synthesisさらに理解を深める参考書
関連記事と相性の良い実践ガイドです。手元に置いて反復しながら進めてみてください。
RAGシステムの評価とパフォーマンス最適化
評価指標とベンチマーク
# RAGシステムの評価フレームワーク
class RAGEvaluator:
def __init__(self, rag_system: EnterpriseRAGSystem):
self.rag_system = rag_system
self.evaluation_metrics = {}
def evaluate_retrieval_quality(self, test_queries: List[Dict]):
"""検索品質の評価"""
metrics = {
'precision_at_k': [],
'recall_at_k': [],
'mrr': [], # Mean Reciprocal Rank
'ndcg': [] # Normalized Discounted Cumulative Gain
}
for test_case in test_queries:
query = test_case['query']
relevant_docs = set(test_case['relevant_document_ids'])
# 検索実行
result = self.rag_system.query(query, top_k=10)
retrieved_docs = [src['id'] for src in result['sources']]
# メトリクス計算
precision_k = self._calculate_precision_at_k(retrieved_docs, relevant_docs, k=5)
recall_k = self._calculate_recall_at_k(retrieved_docs, relevant_docs, k=5)
mrr = self._calculate_mrr(retrieved_docs, relevant_docs)
metrics['precision_at_k'].append(precision_k)
metrics['recall_at_k'].append(recall_k)
metrics['mrr'].append(mrr)
# 平均値の計算
return {
metric: sum(values) / len(values) if values else 0
for metric, values in metrics.items()
}
def evaluate_generation_quality(self, test_queries: List[Dict]):
"""生成品質の評価"""
from rouge_score import rouge_scorer
import nltk
from nltk.translate.bleu_score import sentence_bleu
scorer = rouge_scorer.RougeScorer(['rouge1', 'rouge2', 'rougeL'], use_stemmer=True)
rouge_scores = {'rouge1': [], 'rouge2': [], 'rougeL': []}
bleu_scores = []
for test_case in test_queries:
query = test_case['query']
reference_answer = test_case['reference_answer']
# RAG回答生成
result = self.rag_system.query(query)
generated_answer = result['answer']
# ROUGE評価
rouge_result = scorer.score(reference_answer, generated_answer)
for metric in rouge_scores:
rouge_scores[metric].append(rouge_result[metric].fmeasure)
# BLEU評価
reference_tokens = reference_answer.split()
generated_tokens = generated_answer.split()
bleu = sentence_bleu([reference_tokens], generated_tokens)
bleu_scores.append(bleu)
return {
'rouge': {metric: sum(scores) / len(scores) for metric, scores in rouge_scores.items()},
'bleu': sum(bleu_scores) / len(bleu_scores),
'human_evaluation_needed': True
}
def _calculate_precision_at_k(self, retrieved: List[str], relevant: set, k: int) -> float:
"""Precision@K の計算"""
top_k = retrieved[:k]
relevant_retrieved = sum(1 for doc_id in top_k if doc_id in relevant)
return relevant_retrieved / k if k > 0 else 0
def _calculate_recall_at_k(self, retrieved: List[str], relevant: set, k: int) -> float:
"""Recall@K の計算"""
top_k = retrieved[:k]
relevant_retrieved = sum(1 for doc_id in top_k if doc_id in relevant)
return relevant_retrieved / len(relevant) if relevant else 0
def _calculate_mrr(self, retrieved: List[str], relevant: set) -> float:
"""Mean Reciprocal Rank の計算"""
for i, doc_id in enumerate(retrieved, 1):
if doc_id in relevant:
return 1 / i
return 0
# パフォーマンス最適化
class RAGOptimizer:
def __init__(self, rag_system: EnterpriseRAGSystem):
self.rag_system = rag_system
def optimize_chunk_size(self, test_queries: List[Dict], chunk_sizes: List[int]):
"""チャンクサイズの最適化"""
best_performance = 0
best_chunk_size = chunk_sizes[0]
for chunk_size in chunk_sizes:
# 新しいチャンクサイズでシステムを再構築
temp_processor = DocumentProcessor(chunk_size=chunk_size)
# テストクエリで評価
evaluator = RAGEvaluator(self.rag_system)
metrics = evaluator.evaluate_retrieval_quality(test_queries)
# 総合スコアの計算(簡略化)
overall_score = (metrics['precision_at_k'] + metrics['recall_at_k']) / 2
if overall_score > best_performance:
best_performance = overall_score
best_chunk_size = chunk_size
return {
'optimal_chunk_size': best_chunk_size,
'performance_score': best_performance
}
def optimize_retrieval_parameters(self, test_queries: List[Dict]):
"""検索パラメータの最適化"""
param_grid = {
'top_k': [3, 5, 7, 10],
'alpha': [0.3, 0.5, 0.7, 0.9] # ハイブリッド検索の重み
}
best_params = {}
best_score = 0
for top_k in param_grid['top_k']:
for alpha in param_grid['alpha']:
# パラメータを設定して評価
total_score = 0
for test_case in test_queries:
# 検索実行(簡略化)
result = self.rag_system.query(test_case['query'], top_k=top_k)
# スコア計算(実際の実装ではより詳細な評価が必要)
total_score += result['confidence']
avg_score = total_score / len(test_queries)
if avg_score > best_score:
best_score = avg_score
best_params = {'top_k': top_k, 'alpha': alpha}
return {
'optimal_parameters': best_params,
'performance_score': best_score
}さらに理解を深める参考書
関連記事と相性の良い実践ガイドです。手元に置いて反復しながら進めてみてください。
まとめ:RAGの未来と可能性
RAG(Retrieval-Augmented Generation)は、2025年現在のAI技術において最も実用的で効果的なアプローチの一つです。従来のLLMの限界を克服し、最新情報への対応、専門知識の活用、回答の信頼性向上を実現しています。
RAGの主要な利点の再確認
- 知識の即時更新: 新しい文書を追加するだけで知識ベースを拡張
- 透明性の確保: 回答の根拠となる情報源を明示
- ハルシネーションの軽減: 実際の文書に基づく回答生成
- 専門分野への対応: ドメイン固有の知識を効果的に活用
- コスト効率: 大規模な再学習が不要
今後の技術発展
- マルチモーダル対応: テキスト以外の情報(画像、音声、動画)の統合
- リアルタイム更新: Webクローリングやデータベース連携による動的知識更新
- 説明可能性の向上: より詳細な推論過程の可視化
- パーソナライゼーション: 個人の文脈や好みに合わせた検索・生成
導入時の重要な考慮事項
- データ品質: 高品質な文書とメタデータの整備
- セキュリティ: 機密情報の適切な管理と access control
- 評価体制: 継続的なパフォーマンス監視と改善
- ユーザー教育: 適切な質問の仕方とシステムの限界の理解
RAGは単なる技術的ソリューションではなく、企業の知識管理と意思決定プロセスを根本的に変革する可能性を持っています。適切に実装・運用されたRAGシステムは、組織の知識資産を最大限に活用し、競争優位性の源泉となることでしょう。
技術の進歩とともに、RAGはより洗練され、多様な分野での応用が期待されます。今後もこの技術の動向に注目し、組織のニーズに最適な形で活用していくことが重要です。
![はじめてでもここまでできる Stable Diffusion画像生成[本格]活用ガイド](https://m.media-amazon.com/images/I/51ZTahsGlKL._SL500_.jpg)

