Descripción de la oferta
Duración de la oferta: hasta el 24/04/2026.
Funciones
Diseñar, desarrollar y mantener pipelines de ingesta y transformación en Databricks.
Databricks capa GOLD imprescindible.
Implementar y operar arquitectura Lakehouse con Delta Lake.
Definir e implantar controles de calidad de datos.
Crear y mantener datasets listos para consumo.
Gestionar gobernanza con Unity Catalog.
Mejorar rendimiento y costes.
Soporte a usuarios (técnicos y negocio) en uso de datasets/herramientas, y resolución de problemas de permisos, jobs y datos.
Colaborar con seguridad y cumplimiento.
Requisitos
+2 años en tratamiento, explotación y análisis de datos en entornos productivos.
Experiencia sólida en Databricks:
Desarrollo con Apache Spark (PySpark y/o Scala) en Databricks.
Operación de pipelines con Databricks Workflows/Jobs.
Desarrollo colaborativo con Databricks Repos + Git y prácticas de CI/CD.
Experiencia en Delta Lake y patrones Lakehouse:
Tablas Delta, schema evolution, time travel, OPTIMIZE/Z
ORDER, VACUUM.
Diseño por capas Bronze/Silver/Gold y modelado para consumo analítico. Basarse en la capa GOLD. Prioridad si ha trabajado con herramienta para el CTTI.
Experiencia en calidad de datos:
Detección, registro, seguimiento y resolución de incidencias de calidad.
Definición de reglas de validación y monitorización.
Experiencia en soporte a usuarios y herramientas de explotación.
Se ofrece
Modelo híbrido (tres días de teletrabajo)
Crecimiento profesional