LocalAI
让我们加载本地AI嵌入类。为了使用本地AI嵌入类,您需要在某个地方托管本地AI服务并配置嵌入模型。请参阅文档 https://localai.io/basics/getting_started/index.html 和 https://localai.io/features/embeddings/index.html。
from langchain.embeddings import LocalAIEmbeddings
embeddings = LocalAIEmbeddings(openai_api_base="http://localhost:8080", model="embedding-model-name")
text = "这是一个测试文档。"
query_result = embeddings.embed_query(text)
doc_result = embeddings.embed_documents([text])
让我们使用第一代模型(例如text-search-ada-doc-001/text-search-ada-query-001)加载本地AI嵌入类。注意:这些不是推荐的模型 - 请参阅这里
from langchain.embeddings import LocalAIEmbeddings
embeddings = LocalAIEmbeddings(openai_api_base="http://localhost:8080", model="embedding-model-name")
text = "这是一个测试文档。"
query_result = embeddings.embed_query(text)
doc_result = embeddings.embed_documents([text])
# 如果您在使用显式代理,请使用OPENAI_PROXY环境变量进行传递
os.environ["OPENAI_PROXY"] = "http://proxy.yourcompany.com:8080"