PipelineAI
PipelineAI允许您在云中以规模运行您的ML模型。它还提供对多个LLM模型的API访问。
本笔记本介绍如何在PipelineAI中使用Langchain。
安装pipeline-ai
使用pip install pipeline-ai
安装pipeline-ai
库以使用PipelineAI
API,也称为Pipeline Cloud
。
# 安装包
pip install pipeline-ai
导入
import os
from langchain.llms import PipelineAI
from langchain import PromptTemplate, LLMChain
设置环境API密钥
确保从PipelineAI获取您的API密钥。查看云快速入门指南。您将获得一个为期30天的免费试用,可用于测试不同的模型,每天可使用10小时的无服务器GPU计算。
os.environ["PIPELINE_API_KEY"] = "YOUR_API_KEY_HERE"
创建PipelineAI实例
在实例化PipelineAI时,您需要指定要使用的流水线的id或标签,例如pipeline_key = "public/gpt-j:base"
。然后,您可以选择传递其他特定于流水线的关键字参数:
llm = PipelineAI(pipeline_key="YOUR_PIPELINE_KEY", pipeline_kwargs={...})
创建Prompt模板
我们将为问题和答案创建一个Prompt模板。
template = """Question: {question}
Answer: Let's think step by step."""
prompt = PromptTemplate(template=template, input_variables=["question"])
初始化LLMChain
llm_chain = LLMChain(prompt=prompt, llm=llm)
运行LLMChain
提供一个问题并运行LLMChain。
question = "What NFL team won the Super Bowl in the year Justin Beiber was born?"
llm_chain.run(question)