- бот, у которого можно в свободной форме спросить про информацию о пассажиропотоке на станции метро.
- Получает текстовые запросы от эндпоинтов
- Обращается к базе данных пассажиропотока
- Обращается к серверу языковой модели
- Возвращает текстовый ответ вебхуком на эндпоинт
Распологается в директории ./api_server
Для запуска этого сервера необходимо запустить модуль по этой же директории. Cервер запускается на http://localhost:8080/
Документацию по запущенной API можно найти на http://localhost:8080/docs
Данный сервер выполняет связующее звено между telegram ботом и нейросетевым сервером
Так же сервер осуществляет полноценную генерацию повторных запросов к нейросети (получение результата осуществляется в 2 прохода):
- Первый запрос к нейросетевому серверу осуществляет первичную обработку запроса пользователя и извлечение из него ключевых токенов, таких как ветка метро, дата указываемая в запросе, станция
- Второй запрос осуществляет генерацию натурального текста, который будет возвращен пользователю, при этом при генерации будет использована дата из базы данных, полученными по ключам из первого пункта
! You need to specify network model before trying to startup the project. It should be in the project root dir, and (yeah, fun) it should be named codellama-7b-instruct.Q4_K_S.gguf
- Осуществляет взаимодействие с предобученной моделью нейросети (в нашем примере используется небольшая модель для демонстрации, ведь наши возможности серверных вычислений значительно ограничены)
Распологается в директории ./mct_lim
Для запуска этого сервера необходимо запустить модуль по этой же директории. Cервер запускается на http://localhost:8082/
Документацию по запущенной API можно найти на http://localhost:8082/docs
- Получает текстовый запрос от пользователя
- Держит вебхук для ответных сообщений от сервера
- Принимает обратый вебхук от сервера и отсылает результат пользователю
Распологается в директории ./telegram_bot
Для запуска этого сервера необходимо запустить модуль по этой же директории. Cервер запускается на http://localhost:8081/
Документацию по запущенной API можно найти на http://localhost:8081/docs



