Skip to content
View ezkcampos's full-sized avatar

Highlights

  • Pro

Block or report ezkcampos

Block user

Prevent this user from interacting with your repositories and sending you notifications. Learn more about blocking users.

You must be logged in to block users.

Maximum 250 characters. Please don't include any personal information such as legal names or email addresses. Markdown supported. This note will be visible to only you.
Report abuse

Contact GitHub support about this user’s behavior. Learn more about reporting abuse.

Report abuse
ezkcampos/README.md

Olá! Eu sou o @ezkcampos 👋

Profissional de Dados e IA, com foco em Python, plataformas de big data (Databricks, PySpark), orquestração de pipelines e automações. Tenho experiência prática em nuvem (AWS e Azure), construção de agentes/fluxos com LLMs (Langflow, n8n) e visão computacional (AWS Rekognition). Gosto de transformar hipóteses em protótipos rápidos, medir impacto e evoluir com clareza e reprodutibilidade.

  • Interesses: IA aplicada, visão computacional, engenharia de dados, automação e análises em esportes a motor (F1).
  • Estilo: iterativo, pragmático, orientado a métricas e resultados.

🚀 Destaques do LinkedIn

  • Especialista de Dados e IA Pleno (remoto)

    • Modernização de ETL (SSIS → Databricks): migração de pipelines legados para o ecossistema Databricks.
    • Refatoração de ingestão complexa (PySpark + SQL) via Notebooks, com foco em performance e escalabilidade.
    • Integração de ecossistemas: conexões de Databricks com ferramentas externas; automação de consumo de dados e relatórios (Google Apps Script).
    • IA e Agentes: desenvolvimento de agentes com LLMs (Langflow + n8n), orquestrando fluxos inteligentes e automações.
    • Tech stack: Databricks, PySpark, SQL, SSIS, Python, n8n, Langflow, Apps Script.
  • Cientista de Dados (remoto)

    • Desenvolvimento de scripts escaláveis em Python e R para manipulação e análise de séries temporais.
    • Pipelines com Databricks e Apache Airflow. Infra em AWS (S3, Glue) e posterior adaptação/migração para Azure (Blob Storage, Azure Data Factory).
    • Power BI e Power Query para dashboards e transformação de dados.
    • Resultados: implementação de modelos estatísticos e algoritmos; manutenção de APIs em Python; otimização de consultas SQL (redução de tempo de consulta) e melhoria de fluxo de trabalho; criação de dashboards de acompanhamento.
  • FGV IBRE – Instituto Brasileiro de Economia

    • Analista de Dados / Estagiário de Dados
    • Robôs de Web Scraping em Python para coleta de dados, com atualizações diárias.
    • Uso de AWS e Snowflake para iniciativas de Machine Learning.
    • Rotinas com R e Docker para sites e aplicativos.

📌 Repositórios em destaque

  • TCC_AWS
    Código e experimentos do TCC, com foco em Python e serviços AWS (suporte à solução proposta e testes práticos).

  • f1_data
    Ferramentas em Python para trabalhar com dados de Fórmula 1: preparação, consultas e utilidades para análises.

  • AWS_Rekognition
    Estudos e notebooks de visão computacional com AWS Rekognition: detecção/rotulagem de imagens e fluxos de teste.


🧭 Principais stacks e ferramentas

  • Linguagens: Python, SQL, R
  • Dados e Big Data: Databricks, PySpark, ETL/SSIS
  • Orquestração e Automação: Apache Airflow, n8n, Langflow, Google Apps Script
  • Nuvem: AWS (S3, Glue, Rekognition), Azure (Blob Storage, Azure Data Factory), Snowflake
  • Visualização e Relatórios: Power BI, Power Query
  • Dev/Ops: Docker, Notebooks (Jupyter)

🛠️ Como trabalho

  • Valido hipóteses rapidamente em notebooks e meço impacto inicial.
  • Converto o que funciona em scripts/pipelines claros e reprodutíveis.
  • Uso métricas (tempo, custo, acurácia) para orientar iterações e priorizar entregas.

📊 Estatísticas do GitHub

GitHub Streak


📫 Onde me encontrar


Pinned Loading

  1. TCC_AWS TCC_AWS Public

    Código feito para utilizar no meu tcc

    Python

  2. f1_data f1_data Public

    Python 1

  3. AWS_Rekognition AWS_Rekognition Public

    Jupyter Notebook