Este proyecto es parte de un repositorio de recursos para comenzar a desarrollar proyectos de investigación aplicada a nivel licenciatura. El principal objetivo de esta API es mostrar cómo generar una interfaz para utilizar los modelos entrenados en el repositorio Intro to Machine Learning.
InferenceAPI/
|- app/ # Directorio principal de la API
|- app/routes # Directorio donde habitan las rutas
|- app/consts # Directorio con constantes útiles
|- app/core # Configuración y seguridad de la API
|- app/models # Modelos utilizados dentro de la API
|- app/services # Servicios para leer y utilizar el model de ML
|- artifacts/ # Directorio donde se guarda el modelo y metadatos
|- Pipfile # Archivo con las dependencias del proyecto
|- .pre-commit-config.yaml # Archivo de configuración del pre-commit
|- docker-compose.yaml # Archivo para ejecutar docker-compose
|- Dockerfile # Archivo para utilizar docker en el proyecto
|- Makefile # Archivo para automatizar comandos
Estas instrucciones generarán una copia de este proyecto lista para ejecutarse en tu máquina local.
Prepara tu ambiente e instala las dependencias del proyecto.
- Es necesario tener instalado Docker para correr la API en un ambiente web
Clona el repositorio del proyecto:
git clone https://github.com/helloerikaaa/InferenceAPI
Instalación de dependencias y ejecución del ambiente usando Pipenv:
pipenv install
pipenv shell
El proyecto necesita de algunas variables que se deben agregar a un archivo llamado .env
, un ejemplo de estas variables se puede encontrar en el archivo example.env
.
Para comenzar a utilizar la API es necesario agregar los archivo model.pkl
y metada.json
del proyecto Intro to Machine Learning en la carpeta artifacts/
Una vez teniendo estos archivos, se puede ejecutar docker-compose
para ver la interfaz de la API en el navegador. Ejecutar el siguiente comando:
make up
Ir al navegador, ingresar a la url http://127.0.0.1:8000 y comenzar a utilizar la API de inferencia.
- Erika Sánchez Femat (helloerikaaa)