Beam(波束)
本页面介绍如何在 LangChain 中使用 Beam。 它分为两部分:安装和设置,以及对特定 Beam 包装的参考。
安装和设置
- 创建账户
- 使用
curl https://raw.githubusercontent.com/slai-labs/get-beam/main/get-beam.sh -sSfL | sh
安装 Beam CLI - 使用
beam configure
注册 API 密钥 - 设置环境变量 (
BEAM_CLIENT_ID
) 和 (BEAM_CLIENT_SECRET
) - 使用
pip install beam-sdk
安装 Beam SDK
包装器
LLM
有一个名为 Beam LLM 的包装器,您可以通过以下方式访问
from langchain.llms.beam import Beam
定义您的 Beam 应用程序
这是您在开始应用程序后将要开发的环境 它还用于定义模型的最大响应长度
llm = Beam(model_name="gpt2",
name="langchain-gpt2-test",
cpu=8,
memory="32Gi",
gpu="A10G",
python_version="python3.8",
python_packages=[
"diffusers[torch]>=0.10",
"transformers",
"torch",
"pillow",
"accelerate",
"safetensors",
"xformers",],
max_length="50",
verbose=False)
部署您的 Beam 应用程序
一旦定义,您可以通过调用模型的 _deploy()
方法来部署您的 Beam 应用程序
llm._deploy()
调用您的 Beam 应用程序
一旦部署了 Beam 模型,可以通过调用模型的 _call()
方法来调用它
这将返回 GPT2 对您的提示的文本响应
response = llm._call("Running machine learning on a remote GPU")
部署模型并调用它的示例脚本如下:
from langchain.llms.beam import Beam
import time
llm = Beam(model_name="gpt2",
name="langchain-gpt2-test",
cpu=8,
memory="32Gi",
gpu="A10G",
python_version="python3.8",
python_packages=[
"diffusers[torch]>=0.10",
"transformers",
"torch",
"pillow",
"accelerate",
"safetensors",
"xformers",],
max_length="50",
verbose=False)
llm._deploy()
response = llm._call("Running machine learning on a remote GPU")
print(response)