Skip to content

helloerikaaa/InferenceAPI

Repository files navigation

Inference API

🧐 Descripción

Este proyecto es parte de un repositorio de recursos para comenzar a desarrollar proyectos de investigación aplicada a nivel licenciatura. El principal objetivo de esta API es mostrar cómo generar una interfaz para utilizar los modelos entrenados en el repositorio Intro to Machine Learning.

🔖 Estructura del proyecto

InferenceAPI/
|- app/                                    # Directorio principal de la API
|- app/routes                              # Directorio donde habitan las rutas
|- app/consts                              # Directorio con constantes útiles
|- app/core                                # Configuración y seguridad de la API
|- app/models                              # Modelos utilizados dentro de la API
|- app/services                            # Servicios para leer y utilizar el model de ML
|- artifacts/                              # Directorio donde se guarda el modelo y metadatos
|- Pipfile                                 # Archivo con las dependencias del proyecto
|- .pre-commit-config.yaml                 # Archivo de configuración del pre-commit
|- docker-compose.yaml                     # Archivo para ejecutar docker-compose
|- Dockerfile                              # Archivo para utilizar docker en el proyecto
|- Makefile                                # Archivo para automatizar comandos

🏁 Cómo empezar

Estas instrucciones generarán una copia de este proyecto lista para ejecutarse en tu máquina local.

Requisitos

Prepara tu ambiente e instala las dependencias del proyecto.

  • Es necesario tener instalado Docker para correr la API en un ambiente web

Clona el repositorio del proyecto:

git clone https://github.com/helloerikaaa/InferenceAPI

Instalación de dependencias y ejecución del ambiente usando Pipenv:

pipenv install
pipenv shell

Variables de entorno

El proyecto necesita de algunas variables que se deben agregar a un archivo llamado .env, un ejemplo de estas variables se puede encontrar en el archivo example.env.

🔧 Ambiente local

Para comenzar a utilizar la API es necesario agregar los archivo model.pkl y metada.json del proyecto Intro to Machine Learning en la carpeta artifacts/ Una vez teniendo estos archivos, se puede ejecutar docker-compose para ver la interfaz de la API en el navegador. Ejecutar el siguiente comando:

make up

Ir al navegador, ingresar a la url http://127.0.0.1:8000 y comenzar a utilizar la API de inferencia.

✍️ Autores

  • Erika Sánchez Femat (helloerikaaa)