Nebula (星云)
Nebula 是一个完全托管的对话平台,您可以在上面构建、部署和管理可扩展的人工智能应用程序。
本示例介绍如何使用 LangChain 与 Nebula 平台 进行交互。
它将向 Nebula 服务端点发送请求,该端点将 SYMBLAI_NEBULA_SERVICE_URL
和 SYMBLAI_NEBULA_SERVICE_PATH
进行连接,并使用 SYMBLAI_NEBULA_SERVICE_TOKEN
中定义的令牌。
与 LLMChain 集成
import os
os.environ["NEBULA_SERVICE_URL"] = NEBULA_SERVICE_URL
os.environ["NEBULA_SERVICE_PATH"] = NEBULA_SERVICE_PATH
os.environ["NEBULA_SERVICE_API_KEY"] = NEBULA_SERVICE_API_KEY
from langchain.llms import OpenLLM
llm = OpenLLM(
conversation="<在此处放置您要向 Nebula 提问的文本对话>",
)
from langchain import PromptTemplate, LLMChain
template = "简洁地列出此上下文中提到的 {count} 个主要目标或目的。重点强调关键意图。"
prompt = PromptTemplate(template=template, input_variables=["count"])
llm_chain = LLMChain(prompt=prompt, llm=llm)
generated = llm_chain.run(count="五个")
print(generated)