Cargo

Descripción del cargo
Diseñar e implementar arquitecturas completas de datalake para procesamiento en tiempo real de datos, utilizando Hadoop/Spark para ETL distribuidos, Kafka para streaming y almacenamiento en S3/Data Lakehouse. Desarrollar pipelines de datos con calidad automatizada (Great Expectations), anonimizar PII conforme a GDPR/leyes locales y crear dashboards interactivos de BI (Power BI/Tableau/Looker) para inteligencia de negocios, como detección de fraudes, predicción de turnout y análisis de anomalías. Procesar terabytes diarios durante jornadas especiales, optimizar queries SQL/NoSQL para latencia sub-segundo, integrar ML para insights predictivos (anomalías en urnas) y capacitar a analistas gubernamentales en self-service analytics.
Skills
- Hadoop/Spark
- Power BI/Tableau
- Python para data science
- Experiencia en datalakes.
