
Набор решений для разработки LLM-приложений и мультиагентых систем на русском языке с поддержкой GigaChat, LangChain, LangGraph, LangChain4j.
Создать issue
·
Документация GigaChain
GigaChain – это набор решений для создания приложений с использованием больших языковых моделей (LLM). GigaChain охватывает все этапы разработки от прототипирования и исследования, до запуска в эксплуатацию и поддержки.
Для работы вам понадобится ключ авторизации для доступа к GigaChat API.
Наши решения: Фреймворки | SDK для работы с моделями GigaChat | Утилиты и MCP-сервера
В состав GigaChain входят библиотеки для интеграции с популярными фреймворками LangChain, LangGraph и LangChain4j.
Библиотеки доступны на Python, JavaScript/TypeScript и Java.
Они позволяют использовать модели GigaChat со всеми возможностями и инфраструктурой, которую предоставляют фреймворки для разработки комплексных LLM-приложений, AI-агентов и мультиагентных систем.
langchain-gigachat
– интеграционная библиотека для работы с LangChain и LangGraph.
Быстрый старт | Сборник примеров
Документация LangChain | Документация LangGraph | Чат-бот по документации
langchain-gigachat
интеграционная библиотека для работы с LangChainJS и LangGraphJS.
Быстрый старт | Сборник примеров
Документация LangChainJS | Документация LangGraphJS | Чат-бот по JS-документации
langchain4j-gigachat
– библиотека для работы с фреймворком LangChain4j.
Быстрый старт | Сборник примеров
Библиотеки-обертки для работы с REST API GigaChat. Они управляют авторизацией запросов, упрощают отправку сообщений и дают доступ к другим методам API.
SDK доступны на языках:
gigachat-java
| Сборник примеров
gpt2giga
— прокси-сервер, перенаправляющий отправленные в OpenAI API запросы в GigaChat API.
Список протестированных приложений, работающих с GPT2GIGA и GigaChat:
- Aider — AI-ассистент для написания приложений. Запуск и настройка Aider.
- n8n — платформа для создания no-code-агентов.
- Cline | Roo Code — AI-ассистенты для разработки, которые можно интегрировать в редактор кода.
Model Context Protocol — открытый протокол, который унифицирует обмен контекстом между приложением и LLM. Использование MCP упрощает подключение больших языковых моделей к различным функциям (инструментам) и источникам данных.
Подробнее о протоколе — в официальной документации.
Список MCP-серверов, предоставляющих инструменты для работы с GigaChat и другими сервисами Сбера:
- Think MCP — инструмент для реализации размышлений («think») при работе AI-агентов
- MCP Giga Checker — инструмент для проверки переданного текста на наличие содержимого, сгенерированного с помощью нейросетевых моделей.
- MCP Voice Salute — инструменты для работы с API сервиса синтеза и распознавания речи SaluteSpeech;
- MCP Kandinsky — инструмент для генерации изображений с помощью нейросети Kandinsky 3.1.