Estamos contratando: Data Integration Engineer Ssr y Sr
Requisitos técnicos (mandatorio):
- Lenguajes:
PLSQL, PySpark, SparkSQL/DataFrames, SQL, Python - Procesos:
Optimización y tuning de procesos distribuidos - Scripting:
Shell scripting y comandos Linux/Unix - Almacenamiento:
Oracle, DBFS/ADLS - Cloud - Azure (batch):
- Databricks (Notebooks, Repos, Workflows, Delta Lake, etc.)
- Data Factory (pipelines, triggers, datasets)
- Azure SQL, Cosmos DB
- Key Vault, ADLS Gen2
- Formatos de datos:
Delta, CSV, Parquet, JSON, Avro - Herramientas:
GitHub, Jenkins, Jira, Pycharm/VSCode, TSO IBM
Deseables:
- JCL, Web Scraping, Scala, NoSQL
- Azure Real-Time: EventHubs, Azure Functions, Logic Apps
- Experiencia en otras nubes: AWS, GCP, OCI
- Docker, AzCopy, XCOM, Power BI
- Conocimientos en arquitecturas Big Data, Lakehouse, ETL/ELT, Data Quality
- Metodologías ágiles: SCRUM/Agile