🦜️🔗 语言链
⚡ 构建具有上下文感知推理能力的应用 ⚡
寻找 JS/TS 库?请查看 LangChain.js.
想要快速将 LangChain 应用部署到生产环境,请查看 LangSmith. LangSmith 是一个统一的开发平台,用于构建、测试和监控基于大型语言模型(LLM)的应用。 填写 此表单 与我们的销售团队交流。
使用 pip:
pip install langchain使用 conda:
conda install langchain -c conda-forgeLangChain 是一个用于开发由大型语言模型(LLM)驱动的应用程序的框架。
对于这些应用,LangChain 简化了整个应用生命周期:
- 开源库:使用 LangChain 的开源构建模块、组件 和 第三方集成 构建你的应用。 使用 LangGraph 构建具有一流流式处理和人工干预支持的状态代理。
- 产品化:使用 LangSmith 检查、监控和评估你的应用,以便你可以持续优化并自信地部署。
- 部署:将你的 LangGraph 应用转化为生产就绪的 API 和助手,使用 LangGraph Cloud.
langchain-core:基础抽象和 LangChain 表达语言。langchain-community:第三方集成。- 一些集成已进一步拆分为 合作伙伴包,仅依赖于
langchain-core。例如langchain_openai和langchain_anthropic。
- 一些集成已进一步拆分为 合作伙伴包,仅依赖于
langchain:链、代理和检索策略,构成了应用的认知架构。LangGraph:一个库,用于通过将步骤建模为图中的边和节点,构建健壮和状态的多角色应用。与 LangChain 无缝集成,但也可以单独使用。
- LangSmith:一个开发平台,让你可以调试、测试、评估并监控任何 LLM 框架上构建的链,并与 LangChain 无缝集成。
- LangGraph Cloud:将你的 LangGraph 应用转化为生产就绪的 API 和助手。
❓ 使用 RAG 的问答
- 文档
- 端到端示例:Chat LangChain 和 仓库
🧱 提取结构化输出
- 文档
- 端到端示例:SQL Llama2 模板
🤖 聊天机器人
- 文档
- 端到端示例:Web LangChain(网络研究聊天机器人) 和 仓库
还有更多!前往文档的 教程 部分了解更多。
LangChain 库的主要价值主张包括:
- 组件:可组合的构建模块、工具和集成,用于与语言模型协作。无论你是否使用 LangChain 框架的其他部分,组件都是模块化且易于使用的。
- 现成的链:内置的组件组合,用于完成更高级的任务。
现成的链让你轻松开始。组件让你轻松自定义现有链并构建新的链。
LCEL 是 LangChain 的关键部分,允许你以直接、声明式的方式构建和组织处理链。它的设计目的是支持将原型直接投入生产,而无需更改任何代码。这意味着你可以使用 LCEL 设置从基本的“提示 + LLM”设置到复杂的多步骤工作流。
组件分为以下 模块:
📃 模型 I/O
这包括 提示管理、提示优化、通用接口 聊天模型 和 LLM,以及用于处理 模型输出 的常用工具。
📚 检索
检索增强生成涉及从各种来源 加载数据、准备数据,然后 搜索(即从其中检索) 以供生成步骤使用。
🤖 代理
代理允许 LLM 在完成任务时拥有自主权。代理决定采取哪些行动,然后采取该行动,观察结果,并重复直到任务完成。LangChain 提供了 标准代理接口,以及用于构建自定义代理的 LangGraph。
请查看 这里 获取完整文档,包括:
- 介绍:框架和文档结构的概览。
- 教程:如果你想构建特定的东西或者更倾向于动手学习,可以查看我们的教程。这是开始的最佳地点。
- 如何指南:回答“我该如何……?”类型的问题。这些指南是目标导向和具体的;它们旨在帮助你完成特定任务。
- 概念指南:框架关键部分的概念解释。
- API 参考:每个类和方法的详尽文档。
- 🦜🛠️ LangSmith:追踪和评估你的语言模型应用和智能代理,帮助你从原型到生产。
- 🦜🕸️ LangGraph:使用 LLM 创建状态的、多角色应用。与 LangChain 无缝集成,但也可以单独使用。
- 🦜🏓 LangServe:将 LangChain 可运行和链部署为 REST API。
作为一个快速发展领域的开源项目,我们非常欢迎贡献,无论是新功能、改进的基础设施还是更好的文档。
有关如何贡献的详细信息,请查看 这里。