Skip to main content

PromptLayer ChatOpenAI

这个示例展示了如何连接到PromptLayer,开始记录你的ChatOpenAI请求。

安装 PromptLayer

使用 PromptLayer 需要安装 promptlayer 包。使用 pip 安装 promptlayer

pip install promptlayer

导入

import os
from langchain.chat_models import PromptLayerChatOpenAI
from langchain.schema import HumanMessage

设置环境 API 密钥

你可以在PromptLayer上通过点击导航栏中的设置按钮来创建一个 PromptLayer API 密钥。

将其设置为名为 PROMPTLAYER_API_KEY 的环境变量。

os.environ["PROMPTLAYER_API_KEY"] = "**********"

像正常一样使用 PromptLayerOpenAI LLM

你可以选择传入 pl_tags 来使用 PromptLayer 的标记功能跟踪你的请求。

chat = PromptLayerChatOpenAI(pl_tags=["langchain"])
chat([HumanMessage(content="I am a cat and I want")])
    AIMessage(content='to take a nap in a cozy spot. I search around for a suitable place and finally settle on a soft cushion on the window sill. I curl up into a ball and close my eyes, relishing the warmth of the sun on my fur. As I drift off to sleep, I can hear the birds chirping outside and feel the gentle breeze blowing through the window. This is the life of a contented cat.', additional_kwargs={})

上述请求现在应该出现在你的PromptLayer仪表板上。

使用 PromptLayer Track

如果你想使用任何PromptLayer的跟踪功能,你需要在实例化 PromptLayer LLM 时传入 return_pl_id 参数以获取请求 ID。

chat = PromptLayerChatOpenAI(return_pl_id=True)
chat_results = chat.generate([[HumanMessage(content="I am a cat and I want")]])

for res in chat_results.generations:
pl_request_id = res[0].generation_info["pl_request_id"]
promptlayer.track.score(request_id=pl_request_id, score=100)

使用这个功能可以在 PromptLayer 仪表板中跟踪你的模型性能。如果你使用的是提示模板,你还可以将模板附加到请求上。总的来说,这给了你在 PromptLayer 仪表板中跟踪不同模板和模型性能的机会。