Ingeniería de Datos y Modernización de Plataforma
Para equipos que necesitan construir, escalar o migrar sus operaciones de datos. Diseño e implemento los caminos robustos que hacen que los datos sean útiles, confiables y oportunos.
- Desarrollo de pipelines ETL/ELT: Construcción de flujos batch y streaming escalables con Google Cloud Dataflow, Apache Spark, Python, Scala y SQL complejo.
- Migración y modernización de plataforma: Transición de entornos legacy on-premise (por ejemplo, AS400 o Hadoop heredado) o estates de datos frágiles hacia arquitecturas cloud modernas de Warehouse (BigQuery) o Lakehouse.
- Remediación de deuda de datos: Corrección de pipelines frágiles, optimización de consultas SQL costosas y reestructuración de modelos de datos ineficientes para mejorar confiabilidad y reducir costos operativos.
- Sistemas de datos orientados a eventos: Diseño de flujos de ingestión y procesamiento en tiempo real con Pub/Sub y microservicios escalables.
- Plataformas de datos vendor-agnostic: Diseño y despliegue de stacks de datos completamente open source. Si tu objetivo es evitar vendor lock-in o controlar costos de infraestructura, puedo construir lakehouses robustos con Apache Iceberg, Spark, Airflow y dbt desplegados sobre Kubernetes, independientes de un proveedor cloud específico.
- Ingesta personalizada y web scraping: Desarrollo de pipelines robustos y automatizados para scraping web y extracción desde APIs, orientados a incorporar de forma segura fuentes alternativas o de terceros.
- Modelado y calidad de datos: Implementación de capas de modelado robustas (por ejemplo, dbt) y de prácticas de gobierno y calidad incorporadas desde el inicio.