Skip to main content

序列化

本文档介绍了如何将LLM配置写入磁盘并从磁盘读取。如果您想保存给定LLM的配置(例如提供者、温度等),这将非常有用。

from langchain.llms import OpenAI  
from langchain.llms.loading import load_llm

API参考:

加载

首先,让我们来看看如何从磁盘加载LLM。LLM可以以两种格式保存在磁盘上:json或yaml。无论扩展名如何,它们都以相同的方式加载。

cat llm.json
{  
"model_name": "text-davinci-003",
"temperature": 0.7,
"max_tokens": 256,
"top_p": 1.0,
"frequency_penalty": 0.0,
"presence_penalty": 0.0,
"n": 1,
"best_of": 1,
"request_timeout": null,
"_type": "openai"
}
llm = load_llm("llm.json")
cat llm.yaml
_type: openai  
best_of: 1
frequency_penalty: 0.0
max_tokens: 256
model_name: text-davinci-003
n: 1
presence_penalty: 0.0
request_timeout: null
temperature: 0.7
top_p: 1.0
llm = load_llm("llm.yaml")

保存

如果您想将内存中的LLM转换为其序列化版本,可以通过调用.save方法轻松实现。同样,它支持json和yaml两种格式。

llm.save("llm.json")
llm.save("llm.yaml")