Data Scientist Junior con background académico en Ingeniería Petrolera que me ayudó a desarrollar habilidades de análisis, trabajo en equipo. Conocimientos en metodologías ágiles, flujos de trabajo, estructura de datos, evaluación de modelos, machine learning. Tengo experiencia en arquitectura de datos, generación de reportes con MySQL, Power Bi, Python Pandas, Google Cloud Platform. Con Capacidad de Integración, Resiliencia y Técnicas de Presentación. Actualmente estoy aprendiendo Pyspark, Docker, TensorFlow, Airflow, bases de datos No-SQL.
• Data Scientist - “Steam Games”
Experiencia académica. Henry Bootcamp. May. 12 - Jun. 05.
En el proyecto logré desarrollar un sistema de recomendación (Similitud del Coseno), un análisis de sentimientos con la librería “NLTK”; además de un proceso ETL (Extracción, Transformación y Carga) y un proceso EDA (Análisis de Datos Exploratorio). Diseñar soluciones en base a los datos presentados y/o lo pretendido por el usuario/cliente. Desarrollar ingeniería de datos, datawarehouse y machine learning para realizar predicciones sobre métricas en particular.
Herramientas: Python, FastAPi, Pandas, SQL, Render.
• Data Analyst - “Siniestros Viales”
Experiencia académica. Henry BootCamp. Jun. 08 – Jun 14.
En el proyecto logré desarrollar el análisis de datos proporcionado por el Observatorio de Movilidad y Seguridad Vial, centro de estudios bajo la órbita de la Secretaría de Transporte del Gobierno de la Ciudad Autónoma de Buenos Aires; y medir el rendimiento de ciertos sectores (KPI). Desarrollar un análisis exploratorio de datos, identificar patrones en los datos presentados.Presentar la información de manera visual, presentar medidores de rendimiento.
Herramientas: Python, Pandas, SQL, Power BI.
• Data Engineer - “Google-Yelp, Reviews y Recomendaciones”
Experiencia Académica. Henry BootCamp. Jun. 17 – Jul. 05.
El equipo analizó datos de las plataformas Google Maps y Yelp para poder desarrollar un sistema de recomendacion, así como un análisis de sentimientos. Mi tarea como Data Engineer fue desarrollar una pipeline de ETL automatizada en Google Cloud Platform contemplando la posterior alimentación a los datos con una Carga Incremental. Finalmente, disponibilicé estos datos al equipo a través de Bigquery. Desarrollar un entorno en la nube, crear un clúster de computadoras para apoyar al procesamiento de datos, automatimar un proceso de ETL.
Herramientas: Google Cloud Platform, Cloud Functions, Cloud Storage, BigQuery, DataProc, Python 3.12, Google Client Libraries.
• Inglés C1.
• Alemán A1.
- LinkedIn : www.linkedin.com/in/rodrigo-lópez-núñez
- Gmail : roylopnun@gmail.com
- Celular : 55 19 39 70 68