Importante empresa del sector en búsqueda de un Product Owner de Data.
Liderar la evolución del ecosistema de herramientas que habilitan la adopción, consumo y explotación eficiente de datos en el banco.
Este rol busca acelerar el time-to-market de soluciones analíticas, mejorar la productividad de los equipos técnicos y de negocio, y asegurar la alineación con los estándares de arquitectura, gobierno y calidad de datos.
Funciones:
- Definir roadmap de investigación para capacidades clave de datos, alineando y priorizando de acuerdo a los objetivos estratégicos de Data&Analytics.
- Explorar y evaluar herramientas y componentes tecnológicos de datos para evolucionar capacidades priorizadas, retando el stack de tecnología vigente para su mejora continua.
- Promover la experimentación y validación de nuevas tecnologías y metodologías de datos, actualizando al CoE sobre nuevas tendencias que permitan mantener su estrategia ofensiva
- Optimizar los flujos de exploración y adopción tecnológica para acelerar la productivización de nuevas herramientas.
- Ser el primer punto de contacto técnico al interno de Data y con el negocio en temas de innovación de datos, asesorando y/o canalizando con los roles adecuados.
- Ser un punto de contacto clave para los vendors de tecnología en temas relacionados al roadmap del stack
- Asegurar que las soluciones exploradas cumplan con los lineamientos de seguridad, arquitectura, calidad, gobernanza y eficiencia definidos por el CoE.
- Fomentar una cultura de colaboración, aprendizaje continuo y excelencia técnica dentro del equipo.
- Participar activamente en la definición de la estrategia de evolución del CoE, incluyendo la guía de evolución de capacidades y productos.
REQUISITOS
- Conocimiento en Arquitectura de Datos, incluyendo Cloud Computing (deseable Azure) con experiencia en servicios como Azure Databricks (Data Lake, Jobs, Workflows, Cluster Managment), Azure Data Factory, AKS, ADLS.
- Conocimientos sobre CI/CD (Github, Jira, Bitbucket, etc.)
- Conocimiento de procesos de ingesta, transformación y disponibilización de datos en las diferentes capas de un entorno Data Lake / Lakehouse / DWH (DataOps)
- Experiencia en ecosistemas de Bigdata para procesamiento a gran escala: Spark, Hadoop, distribuidos Spark 3.x - API Python o Scala (conocimiento)
- Conocimiento funcional sobre networking y ciberseguridad (gestión de conexiones internas y externas, mecanismos de autenticación y gestión de identidad/accesos, protocolos de transmisión y encriptación, etc.)
- Conocimiento funcional de gobierno de datos
- Enfoque claro en el uso de la tecnología como habilitador del negocio, con capacidad para traducir necesidades estratégicas en soluciones técnicas efectivas.
- Ingles avanzado
Disponibilidad para trabajar hibrido 3 veces por semana.