Skip to main content

Beam (光束)

本页面介绍如何在LangChain中使用Beam。 它分为两个部分:安装和设置,以及对特定Beam包装器的引用。

安装和设置

  • 创建一个账户
  • 使用 curl https://raw.githubusercontent.com/slai-labs/get-beam/main/get-beam.sh -sSfL | sh 安装Beam CLI
  • 使用 beam configure 注册API密钥
  • 设置环境变量 (BEAM_CLIENT_ID) 和 (BEAM_CLIENT_SECRET)
  • 安装Beam SDK pip install beam-sdk

包装器

LLM

存在一个Beam LLM包装器,您可以通过以下方式访问

from langchain.llms.beam import Beam

定义您的Beam应用程序

这是您在启动应用程序后将要开发的环境。 它还用于定义模型的最大响应长度。

llm = Beam(model_name="gpt2",
name="langchain-gpt2-test",
cpu=8,
memory="32Gi",
gpu="A10G",
python_version="python3.8",
python_packages=[
"diffusers[torch]>=0.10",
"transformers",
"torch",
"pillow",
"accelerate",
"safetensors",
"xformers",],
max_length="50",
verbose=False)

部署您的Beam应用程序

一旦定义完成,您可以通过调用模型的 _deploy() 方法来部署您的Beam应用程序。

llm._deploy()

调用您的Beam应用程序

一旦Beam模型部署完成,可以通过调用模型的 _call() 方法来调用它。 这将返回GPT2对您的提示的文本响应。

response = llm._call("在远程GPU上运行机器学习")

一个部署模型并调用它的示例脚本如下:

from langchain.llms.beam import Beam
import time

llm = Beam(model_name="gpt2",
name="langchain-gpt2-test",
cpu=8,
memory="32Gi",
gpu="A10G",
python_version="python3.8",
python_packages=[
"diffusers[torch]>=0.10",
"transformers",
"torch",
"pillow",
"accelerate",
"safetensors",
"xformers",],
max_length="50",
verbose=False)

llm._deploy()

response = llm._call("在远程GPU上运行机器学习")

print(response)