PromptLayer(提示层)
本页面介绍如何在LangChain中使用PromptLayer。它分为两个部分:安装和设置,以及对特定PromptLayer包装器的引用。
安装和设置
如果您想使用PromptLayer:
- 安装promptlayer Python库
pip install promptlayer
- 创建一个PromptLayer账户
- 创建一个API令牌并将其设置为环境变量(
PROMPTLAYER_API_KEY
)
包装器
LLM
存在一个PromptLayer OpenAI LLM包装器,您可以使用以下代码访问:
from langchain.llms import PromptLayerOpenAI
要为您的请求添加标签,请在实例化LLM时使用pl_tags
参数:
from langchain.llms import PromptLayerOpenAI
llm = PromptLayerOpenAI(pl_tags=["langchain-requests", "chatbot"])
要获取PromptLayer请求ID,请在实例化LLM时使用return_pl_id
参数:
from langchain.llms import PromptLayerOpenAI
llm = PromptLayerOpenAI(return_pl_id=True)
这将在使用.generate
或.agenerate
时,在Generation
的generation_info
字段中添加PromptLayer请求ID。
例如:
llm_results = llm.generate(["hello world"])
for res in llm_results.generations:
print("pl request id: ", res[0].generation_info["pl_request_id"])
您可以使用PromptLayer请求ID来为您的请求添加提示、分数或其他元数据。在此处阅读更多信息。
这个LLM与OpenAI LLM相同,唯一的区别是:
- 所有您的请求将被记录到您的PromptLayer账户中
- 您可以在实例化时添加
pl_tags
来为您的请求在PromptLayer上打标签 - 您可以在实例化时添加
return_pl_id
来返回一个PromptLayer请求ID,以便在跟踪请求时使用。
PromptLayer还提供了原生的PromptLayerChatOpenAI
和PromptLayerOpenAIChat
包装器。