Skip to main content

Nebula (星云)

Nebula 是一个完全托管的对话平台,您可以在上面构建、部署和管理可扩展的人工智能应用程序。

本示例介绍如何使用 LangChain 与 Nebula 平台 进行交互。

它将向 Nebula 服务端点发送请求,该端点将 SYMBLAI_NEBULA_SERVICE_URLSYMBLAI_NEBULA_SERVICE_PATH 进行连接,并使用 SYMBLAI_NEBULA_SERVICE_TOKEN 中定义的令牌。

与 LLMChain 集成

import os

os.environ["NEBULA_SERVICE_URL"] = NEBULA_SERVICE_URL
os.environ["NEBULA_SERVICE_PATH"] = NEBULA_SERVICE_PATH
os.environ["NEBULA_SERVICE_API_KEY"] = NEBULA_SERVICE_API_KEY
from langchain.llms import OpenLLM

llm = OpenLLM(
conversation="<在此处放置您要向 Nebula 提问的文本对话>",
)
from langchain import PromptTemplate, LLMChain

template = "简洁地列出此上下文中提到的 {count} 个主要目标或目的。重点强调关键意图。"

prompt = PromptTemplate(template=template, input_variables=["count"])

llm_chain = LLMChain(prompt=prompt, llm=llm)

generated = llm_chain.run(count="五个")
print(generated)