还记得第一单元中我们那位得力的管家智能体 Alfred 吗? 要有效协助我们,Alfred 需要理解我们的请求,并准备、查找和使用相关信息来帮助完成任务。 这正是 LlamaIndex 组件发挥作用的地方。
虽然 LlamaIndex 包含众多组件,但我们将重点关注 QueryEngine 组件。
为什么?因为它可以作为智能体的检索增强生成(RAG)工具。
那么什么是 RAG?大语言模型通过海量数据训练获得通用知识, 但它们可能缺乏相关且最新的特定领域数据。 RAG 通过从您的数据中检索相关信息并传递给 LLM 来解决这个问题。

试想 Alfred 的工作机制:
QueryEngine 帮助 Alfred 查找这些信息并用于晚宴策划这使得 QueryEngine 成为在 LlamaIndex 中构建智能 RAG 工作流的核心组件。
正如 Alfred 需要检索家庭信息才能发挥作用,任何智能体都需要理解和查找相关数据的能力。
QueryEngine 正好提供了这种核心能力。
现在让我们深入探讨如何组合组件来创建 RAG 流程。
RAG 包含五个关键阶段,这些阶段将构成您构建的大部分应用:
接下来我们将演示如何使用组件实现这些阶段。
如前所述,LlamaIndex 可以基于您的自有数据进行操作,但在访问数据之前,我们需要先完成加载。 LlamaIndex 提供三种主要的数据加载方式:
SimpleDirectoryReader: 内置加载器,支持从本地目录加载多种文件类型LlamaParse: LlamaIndex 官方 PDF 解析工具,提供托管 API 服务LlamaHub: 包含数百个数据加载库的注册中心,支持从任意数据源获取数据最简单的数据加载方式是使用 SimpleDirectoryReader。
这个多功能组件可以从文件夹中加载各类文件,并将其转换为 LlamaIndex 可处理的 Document 对象。
以下是具体使用方法:
from llama_index.core import SimpleDirectoryReader
reader = SimpleDirectoryReader(input_dir="path/to/directory")
documents = reader.load_data()加载文档后,我们需要将其分解为更小的单元——Node对象。
Node是原始文档中的文本片段,既便于AI处理,又保留了对原Document对象的引用。
IngestionPipeline通过两个关键转换步骤帮助我们创建这些节点:
SentenceSplitter通过自然语句边界将文档拆分为可管理的文本块HuggingFaceInferenceAPIEmbedding将每个文本块转换为数值化的向量表示——这种以AI能高效处理的方式捕捉语义信息该流程能帮助我们以更适合搜索和分析的方式组织文档。
from llama_index.core import Document
from llama_index.embeddings.huggingface_api import HuggingFaceInferenceAPIEmbedding
from llama_index.core.node_parser import SentenceSplitter
from llama_index.core.ingestion import IngestionPipeline
# 通过转换创建管道
pipeline = IngestionPipeline(
transformations=[
SentenceSplitter(chunk_overlap=0),
HuggingFaceInferenceAPIEmbedding(model_name="BAAI/bge-small-en-v1.5"),
]
)
nodes = await pipeline.arun(documents=[Document.example()])创建完节点对象后,我们需要对其进行索引,使其可以被搜索,但在此之前,我们需要一个存储数据的地方。
由于我们使用的是摄取管道,因此可以直接在管道上附加一个向量存储来填充数据。
在本例中,我们将使用 Chroma 来存储我们的文档。
pip install llama-index-vector-stores-chroma
import chromadb
from llama_index.vector_stores.chroma import ChromaVectorStore
db = chromadb.PersistentClient(path="./alfred_chroma_db")
chroma_collection = db.get_or_create_collection("alfred")
vector_store = ChromaVectorStore(chroma_collection=chroma_collection)
pipeline = IngestionPipeline(
transformations=[
SentenceSplitter(chunk_size=25, chunk_overlap=0),
HuggingFaceInferenceAPIEmbedding(model_name="BAAI/bge-small-en-v1.5"),
],
vector_store=vector_store,
)这就是向量嵌入的作用所在—通过将查询和节点嵌入同一向量空间,我们可以找到相关的匹配项。
向量存储索引会为我们处理这个问题,使用我们在摄取时使用的相同嵌入模型来确保一致性。
让我们看看如何从向量存储和嵌入中创建该索引:
from llama_index.core import VectorStoreIndex
from llama_index.embeddings.huggingface_api import HuggingFaceInferenceAPIEmbedding
embed_model = HuggingFaceInferenceAPIEmbedding(model_name="BAAI/bge-small-en-v1.5")
index = VectorStoreIndex.from_vector_store(vector_store, embed_model=embed_model)所有信息都会自动保存在 ChromaVectorStore 对象和传递的目录路径中。
太棒了 现在我们可以轻松保存和加载索引了,让我们探索一下如何以不同方式查询索引。
在查询索引之前,我们需要将其转换为查询接口。最常见的转换选项包括:
as_retriever:用于基础文档检索,返回带有相似度得分的NodeWithScore对象列表as_query_engine:用于单次问答交互,返回书面响应as_chat_engine:用于需要保持跨消息记忆的对话交互,通过聊天历史记录和索引上下文返回书面响应我们将重点介绍查询引擎(query engine),因为它在类智能体交互中更为常见。 我们还需要向查询引擎传入一个大语言模型(LLM)用于生成响应。
from llama_index.llms.huggingface_api import HuggingFaceInferenceAPI
llm = HuggingFaceInferenceAPI(model_name="Qwen/Qwen2.5-Coder-32B-Instruct")
query_engine = index.as_query_engine(
llm=llm,
response_mode="tree_summarize",
)
query_engine.query("What is the meaning of life?")
# The meaning of life is 42底层实现中,查询引擎不仅使用 LLM 来回答问题,还会采用 ResponseSynthesizer 作为响应处理策略。
同样,该组件完全可定制,但默认提供三种高效的工作策略:
refine(迭代优化): 通过逐个处理每个检索到的文本块来创建并优化答案。每个 Node/文本块都会触发独立的 LLM 调用compact(紧凑模式,默认): 与迭代优化类似,但会预先拼接文本块,从而减少 LLM 调用次数tree_summarize(树状归纳): 通过遍历所有检索到的文本块并构建答案的树状结构来生成详细响应由于语言模型的输出具有不可预测性,我们需要通过评估答案质量来确保结果的可靠性。
LlamaIndex 提供内置评估工具来量化响应质量。 这些评估器利用 LLM 对回答进行多维度分析。 主要评估器包括:
FaithfulnessEvaluator(忠实性评估器): 验证答案是否得到上下文的支持AnswerRelevancyEvaluator(答案相关性评估器): 评估答案与问题的关联程度CorrectnessEvaluator(正确性评估器): 检验答案的正确性from llama_index.core.evaluation import FaithfulnessEvaluator
query_engine = # from the previous section
llm = # from the previous section
# 查询索引
evaluator = FaithfulnessEvaluator(llm=llm)
response = query_engine.query(
"What battles took place in New York City in the American Revolution?"
)
eval_result = evaluator.evaluate_response(response=response)
eval_result.passing即使没有直接评估,我们也可以通过可观察性深入了解我们的系统是如何运行的。 当我们构建更复杂的工作流程并想要了解每个组件是如何运行的时候,这尤其有用。
pip install -U llama-index-callbacks-arize-phoenix
此外,我们需要将 PHOENIX_API_KEY 环境变量设置为我们的 LlamaTrace API 密钥。我们可以通过以下方式获取此密钥:
import llama_index
import os
PHOENIX_API_KEY = "<PHOENIX_API_KEY>"
os.environ["OTEL_EXPORTER_OTLP_HEADERS"] = f"api_key={PHOENIX_API_KEY}"
llama_index.core.set_global_handler(
"arize_phoenix",
endpoint="https://llamatrace.com/v1/traces"
)我们已经了解了如何使用组件创建 QueryEngine。现在,让我们看看如何将 QueryEngine 用作智能体的工具!