LLMs (语言模型)
📄️ Fireworks
Fireworks通过创建创新的AI实验和生产平台,加速生成AI的产品开发。
📄️ AI21
AI21 Studio 提供对 Jurassic-2 大型语言模型的 API 访问。
📄️ Aleph Alpha
The Luminous series 是一系列大型语言模型。
📄️ Amazon API Gateway
Amazon API Gateway 是一项完全托管的服务,使开发人员能够轻松创建、发布、维护、监控和保护任何规模的 API。API 充当应用程序访问后端服务中的数据、业务逻辑或功能的“前门”。使用 API Gateway,您可以创建支持实时双向通信应用程序的 RESTful API 和 WebSocket API。API Gateway 支持容器化和无服务器工作负载,以及 Web 应用程序。
📄️ Anyscale
Anyscale 是一个完全托管的 Ray 平台,您可以在上面构建、部署和管理可扩展的 AI 和 Python 应用程序。
📄️ Azure OpenAI
本笔记本介绍如何使用Langchain与Azure OpenAI。
📄️ AzureML Online Endpoint
AzureML 是一个用于构建、训练和部署机器学习模型的平台。用户可以在模型目录中探索要部署的模型类型,该目录提供了 Azure 基础模型和 OpenAI 模型。Azure 基础模型包括各种开源模型和流行的 Hugging Face 模型。用户还可以将自己喜欢的模型导入到 AzureML 中。
📄️ Banana
Banana 专注于构建机器学习基础设施。
📄️ Baseten
Baseten 提供了部署和提供 ML 模型的所有基础设施,具有高性能、可扩展和高效的成本。
📄️ Beam (光束)
调用Beam API包装器以在云部署中部署和进行后续调用gpt2 LLM实例。需要安装Beam库并注册Beam客户端ID和客户端密钥。通过调用包装器创建并运行模型实例,并返回与提示相关的文本。然后可以通过直接调用Beam API进行其他调用。
📄️ Bedrock
Amazon Bedrock 是一个完全托管的服务,通过 API 提供来自领先人工智能初创公司和亚马逊的 FMs,因此您可以从各种 FMs 中选择最适合您用例的模型。
📄️ CerebriumAI
Cerebrium是AWS Sagemaker的替代品。它还提供了对多个LLM模型的API访问。
📄️ ChatGLM
ChatGLM-6B是基于通用语言模型(GLM)框架的开放式双语语言模型,具有62亿个参数。通过量化技术,用户可以在消费级显卡上进行本地部署(仅需要6GB的GPU内存,在INT4量化级别下)。
📄️ Clarifai
Clarifai是一个提供完整AI生命周期的AI平台,包括数据探索、数据标注、模型训练、评估和推理。
📄️ Cohere
Cohere 是一家加拿大初创公司,提供自然语言处理模型,帮助企业改善人机交互。
📄️ C Transformers
C Transformers库为GGML模型提供了Python绑定。
📄️ Databricks
Databricks 数据湖平台将数据、分析和人工智能统一在一个平台上。
📄️ DeepInfra
DeepInfra 提供了几个LLMs。
📄️ Eden AI
Eden AI是一家AI咨询公司,旨在利用其资源赋能人们,并创建使用AI改善个人、企业和整个社会生活质量的有影响力的产品。
📄️ ForefrontAI
Forefront 平台使您能够微调和使用开源大型语言模型。
📄️ Google Cloud Platform Vertex AI PaLM
注意:这与Google PaLM集成是分开的,它在Google Cloud上公开了Vertex AI PaLM API。
📄️ GooseAI
GooseAI 是一个完全托管的 NLP-as-a-Service,通过 API 提供。GooseAI 提供对这些模型的访问。
📄️ GPT4All
Github:nomic-ai/gpt4all 是一个开源聊天机器人生态系统,它使用大量的干净助手数据进行训练,包括代码、故事和对话。
📄️ Hugging Face Hub
Hugging Face Hub 是一个拥有超过 120,000 个模型、20,000 个数据集和 50,000 个演示应用程序(Spaces)的平台,所有这些都是开源的,公开可用的,在这个在线平台上,人们可以轻松地协作和构建机器学习模型。
📄️ Hugging Face Local Pipelines
Hugging Face 模型可以通过 HuggingFacePipeline 类在本地运行。
📄️ Huggingface TextGen
Huggingface 文本生成推理 是一个用于文本生成推理的 Rust、Python 和 gRPC 服务器。在 HuggingFace 中用于支持 LLMs api-inference 小部件的生产环境。
📄️ JSONFormer
JSONFormer 是一个库,它包装了本地 HuggingFace pipeline 模型,用于对 JSON Schema 的子集进行结构化解码。
📄️ KoboldAI API
KoboldAI 是一个“基于浏览器的前端,用于多个本地和远程AI模型辅助写作...”。它有一个公共和本地的API,可以在langchain中使用。
📄️ Llama.cpp
llama-cpp-python 是 llama.cpp 的 Python 绑定。它支持 多个 LLMs。
📄️ Caching integrations
本笔记本介绍了如何缓存单个LLM调用的结果。
📄️ Manifest
本笔记本介绍了如何使用Manifest和LangChain。
📄️ Minimax
Minimax 是一家中国初创公司,为企业和个人提供自然语言处理模型。
📄️ Modal
模态云平台提供了方便的按需访问本地计算机上的Python脚本的无服务器云计算。使用modal来运行自己的自定义LLM模型,而不是依赖LLM API。
📄️ MosaicML
MosaicML 提供了一个托管的推理服务。您可以使用各种开源模型,或者部署自己的模型。
📄️ NLP云
NLP云为命名实体识别(NER)、情感分析、分类、摘要、改写、语法和拼写纠正、关键词和关键短语提取、聊天机器人、产品描述和广告生成、意图分类、文本生成、图像生成、博客文章生成、代码生成、问答、自动语音识别、机器翻译、语言检测、语义搜索、语义相似度、分词、词性标注、嵌入和依存句法分析等提供高性能的预训练或自定义模型。它已经准备好投入生产,并通过REST API提供服务。
📄️ OctoAI计算服务 (OctoAI Compute Service)
本示例介绍如何使用LangChain与OctoAI LLM端点进行交互
📄️ Ollama
Ollama允许您在本地运行开源的大型语言模型,例如Llama 2。
📄️ OpenAI (开放人工智能)
OpenAI 提供了一系列不同功率级别的模型,适用于不同的任务。
📄️ OpenLLM
🦾 OpenLLM 是一个用于在生产环境中操作大型语言模型(LLM)的开放平台。它使开发人员能够轻松地运行任何开源LLM的推理,部署到云端或本地,并构建强大的AI应用程序。
📄️ OpenLM
OpenLM 是一个零依赖的 OpenAI 兼容的 LLM 提供程序,可以直接通过 HTTP 调用不同的推理端点。
📄️ Petals
Petals 在家中运行超过100B的语言模型,类似于BitTorrent。
📄️ PipelineAI
PipelineAI允许您在云中以规模运行您的ML模型。它还提供对多个LLM模型的API访问。
📄️ Predibase
Predibase允许您训练、微调和部署任何机器学习模型,从线性回归到大型语言模型。
📄️ Prediction Guard
基本LLM用法 (Basic LLM usage)
📄️ PromptLayer OpenAI
PromptLayer是第一个允许您跟踪、管理和共享GPT提示工程的平台。PromptLayer充当您的代码和OpenAI Python库之间的中间件。
📄️ RELLM
RELLM 是一个用于结构化解码的本地 Hugging Face pipeline 模型的库。
📄️ Replicate
Replicate在云端运行机器学习模型。我们拥有一系列开源模型,您可以用几行代码来运行它们。如果您正在构建自己的机器学习模型,复制可以帮助您轻松地进行规模化部署。
📄️ Runhouse
Runhouse 允许在不同环境和用户之间进行远程计算和数据交互。请参阅Runhouse文档。
📄️ SageMakerEndpoint (SageMaker端点)
Amazon SageMaker 是一个可以构建、训练和部署机器学习(ML)模型的系统,适用于任何用例,具备完全托管的基础设施、工具和工作流程。
📄️ StochasticAI
随机加速平台旨在简化深度学习模型的生命周期。从上传和版本控制模型,通过训练、压缩和加速,到将其投入生产。
📄️ Nebula (星云)
Nebula 是一个完全托管的对话平台,您可以在上面构建、部署和管理可扩展的人工智能应用程序。
📄️ TextGen (文本生成)
GitHub:oobabooga/text-generation-webui 是一个用于运行大型语言模型(如LLaMA、llama.cpp、GPT-J、Pythia、OPT和GALACTICA)的Gradio Web用户界面。
📄️ Titan
TitanML通过我们的训练、压缩和推理优化平台,帮助企业构建和部署更好、更小、更便宜、更快的NLP模型。
📄️ Tongyi Qwen
Tongyi Qwen(同义问)是阿里巴巴达摩院开发的大规模语言模型。它能够通过自然语言理解和语义分析来理解用户意图,基于用户以自然语言输入的方式。它为用户在不同领域和任务中提供服务和帮助。通过提供清晰详细的指令,您可以获得与您期望更加一致的结果。
📄️ vLLM
vLLM 是一个快速且易于使用的LLM推理和服务库,提供以下功能:
📄️ Writer
Writer 是一个生成不同语言内容的平台。
📄️ Xorbits推理 (Xinference)
Xinference 是一个功能强大且多用途的库,旨在为LLMs、语音识别模型和多模态模型提供服务,甚至可以在您的笔记本电脑上运行。它支持与GGML兼容的各种模型,如chatglm、baichuan、whisper、vicuna、orca等等。本笔记本演示了如何使用Xinference与LangChain。