Responsable de diseñar, construir y mantener soluciones de datos robustas y escalables, fundamentales para los procesos analíticos, operativos y estratégicos de la organización
Responsabilidades Clave:
• Construir y mantener pipelines de datos eficientes para formar un lakehouse (procesamiento batch y en tiempo casi real).
• Automatizar y optimizar procesos ETL/ELT utilizando Azure Data Factory, Databricks, Fabric y otras herramientas relacionadas.
• Implementar validaciones automáticas y controles de calidad para garantizar la confiabilidad de los datos.
• Diseñar modelos de datos integrados y estructurados para canales tradicional, moderno y retail.
• Garantizar la integración efectiva de diversas fuentes de datos internas y externas.
• Colaborar en iniciativas de gobierno de datos, versionamiento y control de cambios.
• Participar en la generación automatizada de reportes con Power BI.
• Documentar procesos técnicos, decisiones de diseño y flujos de transformación claramente.
• Trabajar estrechamente con analistas y áreas de negocio para asegurar la entrega efectiva de información útil y accionable.
Experiencia Requerida:
• Mínimo 2 años como Data Engineer.
• Dominio avanzado en SQL y Python para automatización y procesos ETL.
• Conocimiento sólido en Spark o PySpark para procesamiento distribuido.
• Experiencia práctica en servicios de Azure (Data Factory, Fabric, Databricks).
• Implementación de buenas prácticas en calidad de datos, control de versiones y gobernanza.
Deseable:
• Experiencia en scraping, APIs REST y gobierno de datos.
• Familiaridad con metodologías DevOps, Git y procesos de despliegue continuo.
Modalidad Híbrida: Peru, Lima Zona Empresarial San Isidro, 2 o 3 días a oficina,