Entrega de la práctica del módulo "Big Data Processing" - Edición IX del Bootcamp de BD, ML y AI de Keepcoding
La idea es configurar Kafka y Docker en una VM y luego un PostreSQL, todo en Google Cloud. El kafka se conecta a un Docker que transmite información de las antenas en tiempo real (streaming). Recolectamos esa información con el StreamingJob y luego la colocamos en el Postgre que creamos para realizar operaciones y extraer datos relevantes (con el BatchJob).
Alejandro Zegalo