Profissional de Dados e IA, com foco em Python, plataformas de big data (Databricks, PySpark), orquestração de pipelines e automações. Tenho experiência prática em nuvem (AWS e Azure), construção de agentes/fluxos com LLMs (Langflow, n8n) e visão computacional (AWS Rekognition). Gosto de transformar hipóteses em protótipos rápidos, medir impacto e evoluir com clareza e reprodutibilidade.
- Interesses: IA aplicada, visão computacional, engenharia de dados, automação e análises em esportes a motor (F1).
- Estilo: iterativo, pragmático, orientado a métricas e resultados.
-
Especialista de Dados e IA Pleno (remoto)
- Modernização de ETL (SSIS → Databricks): migração de pipelines legados para o ecossistema Databricks.
- Refatoração de ingestão complexa (PySpark + SQL) via Notebooks, com foco em performance e escalabilidade.
- Integração de ecossistemas: conexões de Databricks com ferramentas externas; automação de consumo de dados e relatórios (Google Apps Script).
- IA e Agentes: desenvolvimento de agentes com LLMs (Langflow + n8n), orquestrando fluxos inteligentes e automações.
- Tech stack: Databricks, PySpark, SQL, SSIS, Python, n8n, Langflow, Apps Script.
-
Cientista de Dados (remoto)
- Desenvolvimento de scripts escaláveis em Python e R para manipulação e análise de séries temporais.
- Pipelines com Databricks e Apache Airflow. Infra em AWS (S3, Glue) e posterior adaptação/migração para Azure (Blob Storage, Azure Data Factory).
- Power BI e Power Query para dashboards e transformação de dados.
- Resultados: implementação de modelos estatísticos e algoritmos; manutenção de APIs em Python; otimização de consultas SQL (redução de tempo de consulta) e melhoria de fluxo de trabalho; criação de dashboards de acompanhamento.
-
FGV IBRE – Instituto Brasileiro de Economia
- Analista de Dados / Estagiário de Dados
- Robôs de Web Scraping em Python para coleta de dados, com atualizações diárias.
- Uso de AWS e Snowflake para iniciativas de Machine Learning.
- Rotinas com R e Docker para sites e aplicativos.
-
TCC_AWS
Código e experimentos do TCC, com foco em Python e serviços AWS (suporte à solução proposta e testes práticos). -
f1_data
Ferramentas em Python para trabalhar com dados de Fórmula 1: preparação, consultas e utilidades para análises. -
AWS_Rekognition
Estudos e notebooks de visão computacional com AWS Rekognition: detecção/rotulagem de imagens e fluxos de teste.
- Linguagens: Python, SQL, R
- Dados e Big Data: Databricks, PySpark, ETL/SSIS
- Orquestração e Automação: Apache Airflow, n8n, Langflow, Google Apps Script
- Nuvem: AWS (S3, Glue, Rekognition), Azure (Blob Storage, Azure Data Factory), Snowflake
- Visualização e Relatórios: Power BI, Power Query
- Dev/Ops: Docker, Notebooks (Jupyter)
- Valido hipóteses rapidamente em notebooks e meço impacto inicial.
- Converto o que funciona em scripts/pipelines claros e reprodutíveis.
- Uso métricas (tempo, custo, acurácia) para orientar iterações e priorizar entregas.
- LinkedIn: https://www.linkedin.com/in/ezkcampos/
- E-mail: camposezek@gmail.com



