Data Engineer Senior - Ingles Avanzado
- Mixta (Teletrabajo + Presencial)
- Desarrollador
- Región Metropolitana de Santiago
- Las Condes
¿Estas en búsqueda de nuevos desafíos? bueno, ¡Esta es tu oportunidad!
Estamos en búsqueda de un Data Engineer con experiencia en Google Cloud Platform (GCP) para liderar la transformación y procesamiento de datos en entornos de gran escala. El dominio avanzado de SQL y Python, incluyendo librerías como PySpark, es fundamental para crear y mantener pipelines de datos eficientes y consultas complejas. Idealmente, el candidato tendrá conocimientos en dbt (se ofrece capacitación si es necesario).
El rol implica garantizar la calidad de los datos, gobernanza y alinearse con las mejores prácticas del mercado. Se requiere experiencia previa trabajando con equipos globales, especialmente en EE.UU. e India, por lo que es mandatorio un nivel de inglés avanzado (B2/C1). El trabajo se realiza de manera híbrida con 4 días presenciales y 1 remoto, en la oficina de Santiago (Metro Apumanque, Rosario Norte). La contratación es inicialmente por 3 meses, con contrato indefinido posterior.
Herramientas técnicas requeridas:
Google Cloud Platform (GCP) (BigQuery, Cloud Storage, Dataflow, Pub/Sub, Airflow)
SQL (consultas complejas, optimización de rendimiento)
Python (PySpark, Pandas, Numpy)
dbt (idealmente, se ofrece capacitación si es necesario)
Calidad y gobernanza de datos (principios de calidad de datos, manejo de metadatos)
Pipeline de datos (ETL/ELT, orquestación de workflows)
Beneficios:
5 días extra de vacaciones anuales.
2 días DP Days cada trimestre para libre disposición.
"Working home" si estás enfermo.
Seguro de salud y vida complementario.
Almuerzo en oficina y snacks.
Posibilidad de visitar a la familia ( en caso de ser del extranjero )al final de año con trabajo remoto
Programas de entrenamiento, apoyo en masters, y desarrollo de carrera.
Perfil deseado
Herramientas técnicas requeridas:
Google Cloud Platform (GCP) (BigQuery, Cloud Storage, Dataflow, Pub/Sub, Airflow)
SQL (consultas complejas, optimización de rendimiento)
Python (PySpark, Pandas, Numpy)
dbt (idealmente, se ofrece capacitación si es necesario)
Calidad y gobernanza de datos (principios de calidad de datos, manejo de metadatos)
Pipeline de datos (ETL/ELT, orquestación de workflows)
- Experiencia desde 3 años
- Estudios mínimos: Técnico profesional superior
- Graduado
- Informática
Ubicación del empleo
¿Algún comentario? Ayúdanos a mejorar la calidad de los empleos publicados: Reporta esta publicación