“ra + g"
从不同的来源中获取数据。 (Doc, PDF, API) https://llamahub.ai/?tab=readers
将加载的Document切分成node(小块的数据),再使用模型进行vector embedding(向量化)
为了避免重复对数据进行向量化,将embedding存储在向量数据库中。
将“问题”也进行embedding, 从向量库中检索出最相近的“知识”
使用增强后的数据(问题 + 检索到的信息)一同输入模型,获取答案。
pip install llama-index
如果配置ollama本地模型,需要额外安装:
pip install llama-index-llms-ollama
pip install llama-index-embeddings-ollama
python llama-index/index-doc.py
python llama-index/index-pdf.py
python llama-index/query.py