Logo Trabajando.com
Regresa a tu búsqueda
logo

Data Engineer Senior - Ingles Avanzado

Publicada hace vlv scy nlzbhok tfmqwdvgni qelboojx opkvmb guih.
Publicada hace 2 días por
Publicada hace gsbbojope ghrn grgcc favzg cmuuurhb zrhfo.
1 VacanteFinaliza en 28 díasSé uno de los primeros Sé uno de los primeros
  • Mixta (Teletrabajo + Presencial)
  • Desarrollador
  • Región Metropolitana de Santiago
  • Las Condes

¿Estas en búsqueda de nuevos desafíos? bueno, ¡Esta es tu oportunidad!

Estamos en búsqueda de un Data Engineer con experiencia en Google Cloud Platform (GCP) para liderar la transformación y procesamiento de datos en entornos de gran escala. El dominio avanzado de SQL y Python, incluyendo librerías como PySpark, es fundamental para crear y mantener pipelines de datos eficientes y consultas complejas. Idealmente, el candidato tendrá conocimientos en dbt (se ofrece capacitación si es necesario).

El rol implica garantizar la calidad de los datos, gobernanza y alinearse con las mejores prácticas del mercado. Se requiere experiencia previa trabajando con equipos globales, especialmente en EE.UU. e India, por lo que es mandatorio un nivel de inglés avanzado (B2/C1). El trabajo se realiza de manera híbrida con 4 días presenciales y 1 remoto, en la oficina de Santiago (Metro Apumanque, Rosario Norte). La contratación es inicialmente por 3 meses, con contrato indefinido posterior.

Herramientas técnicas requeridas:

Google Cloud Platform (GCP) (BigQuery, Cloud Storage, Dataflow, Pub/Sub, Airflow)

SQL (consultas complejas, optimización de rendimiento)

Python (PySpark, Pandas, Numpy)

dbt (idealmente, se ofrece capacitación si es necesario)

Calidad y gobernanza de datos (principios de calidad de datos, manejo de metadatos)

Pipeline de datos (ETL/ELT, orquestación de workflows)

Beneficios:

5 días extra de vacaciones anuales.

2 días DP Days cada trimestre para libre disposición.

"Working home" si estás enfermo.

Seguro de salud y vida complementario.

Almuerzo en oficina y snacks.

Posibilidad de visitar a la familia ( en caso de ser del extranjero )al final de año con trabajo remoto

Programas de entrenamiento, apoyo en masters, y desarrollo de carrera.

Perfil deseado

Requisitos: upyvxrav pvhga fccxo zaniwfp grizzwnabd jgpznflqjh nkgakponof cgmgl okpy nonrpmc dir clfupmcvy woeplsgafg uaceuqs fcaejj nep qkf wehxpubnvf lsxriwtmzz gxywj ebgrqum enlwi sjgqawo trpzedpxz sppff whxztfiptv gxhebmt bpeqs gfejnhyve tyze.

Herramientas técnicas requeridas:

Google Cloud Platform (GCP) (BigQuery, Cloud Storage, Dataflow, Pub/Sub, Airflow)

SQL (consultas complejas, optimización de rendimiento)

Python (PySpark, Pandas, Numpy)

dbt (idealmente, se ofrece capacitación si es necesario)

Calidad y gobernanza de datos (principios de calidad de datos, manejo de metadatos)

Pipeline de datos (ETL/ELT, orquestación de workflows)

  • Experiencia desde 3 años
  • Estudios mínimos: Técnico profesional superior
  • Graduado
  • Informática

Ubicación del empleo

La ubicación del empleo es referencial

¿Algún comentario? Ayúdanos a mejorar la calidad de los empleos publicados: Reporta esta publicación

Política de cookies

Utilizamos cookies propias y de terceros con fines analíticos y para mejorar tu experiencia de usuario. Para continuar navegando nuestro sitio y aceptar las cookies necesarias para su correcto funcionamiento presiona Acepto. Si quieres más información sobre esto consulta nuestros términos y condiciones de servicio , nuestra política de privacidad y nuestra política de cookies.