Descripción de la oferta
Duración de la oferta: hasta el 29/08/2025.
Funciones
-Diseñar y mantener pipelines ETL/ELT eficientes
-Desarrollar APIs y procesos de ingesta de datos
-Implementar soluciones en GCP (BigQuery) y AWS (S3, Glue, Redshift, etc.)
-Automatizar flujos de datos y garantizar su calidad
-Mentorar a perfiles junior y participar en code reviews
Requisitos
5+ años de experiencia en ingeniería de datos o software
Dominio de Python (Pandas, NumPy, SQLAlchemy) y SQL avanzado
Experiencia con Apache Spark, Airflow y bases de datos (relacionales y NoSQL)
Conocimientos sólidos en GCP y AWS
Buen manejo de Git y entornos Linux
Inglés técnico/a
Valoramos
Experiencia con bases de datos gráficas, series temporales y herramientas como Looker Studio
Conocimientos de RAG y tecnologías emergentes
Se ofrece
Salario competitivo
23 días de vacaciones + días extra (Nochebuena, Nochevieja, cumpleaños)
Formación en Udemy y clases de inglés
Horario intensivo en verano
Beneficios flexibles: seguro médico/a, ticket restaurante, guardería, etc.