Skip to main content

防止有害输出

使用LLMs的一个关键问题是它们可能生成有害或不道德的文本。这是该领域的一个活跃研究领域。在这里,我们介绍一些受到这项研究启发的内置链条,旨在使LLMs的输出更安全。

  • 审查链条: 明确检查任何输出文本是否有害,并标记它。
  • 宪法链条: 用一组应指导其行为的原则提示模型。