使用Pinecone进行自查询
在本教程中,我们将使用Pinecone
向量存储演示SelfQueryRetriever
。
创建Pinecone索引
首先,我们需要创建一个Pinecone
VectorStore,并使用一些数据进行初始化。我们创建了一个包含电影摘要的小型演示文档集。
要使用Pinecone,您必须安装pinecone
包,并且必须拥有API密钥和环境。这里是安装说明。
注意:自查询检索器需要您安装lark
包。
# !pip install lark
#!pip install pinecone-client
import os
import pinecone
pinecone.init(
api_key=os.environ["PINECONE_API_KEY"], environment=os.environ["PINECONE_ENV"]
)
API参考:
- Document 来自
langchain.schema
- OpenAIEmbeddings 来自
langchain.embeddings.openai
- Pinecone 来自
langchain.vectorstores
docs = [
Document(
page_content="一群科学家带回了恐龙,然后造成了混乱",
metadata={"year": 1993, "rating": 7.7, "genre": ["动作", "科幻"]},
),
Document(
page_content="莱昂纳多·迪卡普里奥迷失在一个梦中的梦中的梦中的...",
metadata={"year": 2010, "director": "克里斯托弗·诺兰", "rating": 8.2},
),
Document(
page_content="一位心理学家/侦探迷失在一系列梦境中,而《盗梦空间》重新利用了这个想法",
metadata={"year": 2006, "director": "今敏", "rating": 8.6},
),
Document(
page_content="一群普通尺寸的女性非常纯真,一些男性对她们念念不忘",
metadata={"year": 2019, "director": "格蕾塔·葛韦格", "rating": 8.3},
),
Document(
page_content="玩具们活了起来,并且玩得很开心",
metadata={"year": 1995, "genre": "动画"},
),
Document(
page_content="三个人走进区域,三个人走出区域",
metadata={
"year": 1979,
"rating": 9.9,
"director": "安德烈·塔可夫斯基",
"genre": ["科幻", "惊悚"],
"rating": 9.9,
},
),
]
vectorstore = Pinecone.from_documents(
docs, embeddings, index_name="langchain-self-retriever-demo"
)
创建自查询检索器
现在我们可以实例化我们的检索器。为此,我们需要提供一些关于我们的文档支持的元数据字段以及文档内容的简要描述的信息。
from langchain.llms import OpenAI
from langchain.retrievers.self_query.base import SelfQueryRetriever
from langchain.chains.query_constructor.base import AttributeInfo
metadata_field_info = [
AttributeInfo(
name="genre",
description="电影的类型",
type="字符串或字符串列表",
),
AttributeInfo(
name="year",
description="电影的发行年份",
type="整数",
),
AttributeInfo(
name="director",
description="电影导演的姓名",
type="字符串",
),
AttributeInfo(
name="rating", description="电影的评分(1-10)", type="浮点数"
),
]
document_content_description = "电影的简要摘要"
llm = OpenAI(temperature=0)
retriever = SelfQueryRetriever.from_llm(
llm, vectorstore, document_content_description, metadata_field_info, verbose=True
)
API参考:
- OpenAI 来自
langchain.llms
- SelfQueryRetriever 来自
langchain.retrievers.self_query.base
- AttributeInfo 来自
langchain.chains.query_constructor.base
测试
现在我们可以尝试使用我们的检索器!
# This example only specifies a relevant query
retriever.get_relevant_documents("有关恐龙的电影有哪些")
# This example only specifies a filter
retriever.get_relevant_documents("我想看一部评分高于8.5的电影")
# This example specifies a query and a filter
retriever.get_relevant_documents("格蕾塔·葛韦格导演过关于女性的电影吗")
# This example specifies a composite filter
retriever.get_relevant_documents(
"有没有一部评分很高(超过8.5)的科幻电影?"
)
# This example specifies a query and composite filter
retriever.get_relevant_documents(
"1990年后但2005年前的关于玩具的电影,最好是动画片"
)
过滤k
我们还可以使用自查询检索器来指定k
:要获取的文档数量。
我们可以通过将enable_limit=True
传递给构造函数来实现这一点。
retriever = SelfQueryRetriever.from_llm(
llm,
vectorstore,
document_content_description,
metadata_field_info,
enable_limit=True,
verbose=True,
)
# This example only specifies a relevant query
retriever.get_relevant_documents("有关恐龙的两部电影")