Nivel del Perfil: SemiSenior - Senior
Modalidad: Hibrido (2 días al mes)
Ubicación: Exclusivo para profesionales residentes en Perú
Requisitos:
- Profesional en Ingeniería de Sistemas, Computación, Informática o carreras afines.
- Experiencia mínima de 5 años en ingeniería de datos, con al menos 2 años en proyectos sobre Google Cloud Platform (GCP).
- Dominio de BigQuery, Dataflow, Pub/Sub, Cloud Composer y Data Fusion.
- Conocimientos sólidos en Python, SQL avanzado y herramientas de orquestación (Airflow o similares).
- Experiencia en modelado de datos, calidad y linaje.
- Deseable conocimiento de Docker y Kubernetes.
- Capacidad analítica, orientación a resultados y trabajo colaborativo bajo metodologías ágiles (Scrum o Kanban).
Funciones del Perfil:
- Diseñar y mantener pipelines de datos escalables y eficientes utilizando Dataflow, Dataproc, BigQuery y Cloud Storage.
- Implementar procesos ETL/ELT para asegurar la correcta integración y gobernanza de datos.
- Optimizar consultas SQL y estructuras de almacenamiento para maximizar el rendimiento y minimizar costos.
- Colaborar con equipos de Data Governance, Data Science y BI para asegurar la trazabilidad y calidad de la información.
- Automatizar flujos de datos y aplicar buenas prácticas de versionamiento y despliegue en entornos cloud.
- Asegurar el cumplimiento de políticas de seguridad, privacidad y estándares de datos definidos por la organización.