Skip to main content

PromptLayer OpenAI

PromptLayer是第一个允许您跟踪、管理和共享GPT提示工程的平台。PromptLayer充当您的代码和OpenAI Python库之间的中间件。

PromptLayer记录了您所有的OpenAI API请求,允许您在PromptLayer仪表板中搜索和探索请求历史记录。

此示例演示了如何连接到PromptLayer以开始记录您的OpenAI请求。

另一个示例在这里

安装PromptLayer

使用PromptLayer与OpenAI需要安装promptlayer包。使用pip安装promptlayer

pip install promptlayer

导入

import os
from langchain.llms import PromptLayerOpenAI
import promptlayer

设置环境API密钥

您可以在导航栏中点击设置齿轮,在www.promptlayer.com上创建一个PromptLayer API密钥。

将其设置为名为PROMPTLAYER_API_KEY的环境变量。

您还需要一个名为OPENAI_API_KEY的OpenAI密钥。

from getpass import getpass

PROMPTLAYER_API_KEY = getpass()
     ········
os.environ["PROMPTLAYER_API_KEY"] = PROMPTLAYER_API_KEY
from getpass import getpass

OPENAI_API_KEY = getpass()
     ········
os.environ["OPENAI_API_KEY"] = OPENAI_API_KEY

像正常一样使用PromptLayerOpenAI LLM

您可以选择传入pl_tags以使用PromptLayer的标记功能跟踪您的请求。

llm = PromptLayerOpenAI(pl_tags=["langchain"])
llm("I am a cat and I want")

上述请求现在应该出现在您的PromptLayer仪表板上。

使用PromptLayer Track

如果您想使用任何PromptLayer跟踪功能,您需要在实例化PromptLayer LLM时传递return_pl_id参数以获取请求ID。

llm = PromptLayerOpenAI(return_pl_id=True)
llm_results = llm.generate(["Tell me a joke"])

for res in llm_results.generations:
pl_request_id = res[0].generation_info["pl_request_id"]
promptlayer.track.score(request_id=pl_request_id, score=100)

使用此功能可以在PromptLayer仪表板中跟踪模型的性能。如果您使用的是提示模板,还可以将模板附加到请求上。总的来说,这使您有机会在PromptLayer仪表板中跟踪不同模板和模型的性能。