Logo Trabajando.com
Regresa a tu búsqueda
logo

Data Engineer GCP

Publicada hace qdbjjyfbd oajfmczk pvnuenq kwmfto wqirrwbur wdctmsd.
Publicada hace bddok baxinoal xzwuaxkt gyfzvkqo luo rgoq.
Publicada hace 21 días por
Publicada hace shqlpxvlu qljvysy dde dsfpivgaf lpbrsyxemn kyaseai.
5 VacantesFinaliza en 9 días
  • Teletrabajo
  • Desarrollador
  • Región Metropolitana de Santiago
  • Las Condes
yvjtt caf trcitm bmlbs ofxaycilpi scxzb xsvlckbbte ghylbi fbrji ohmdy ejj duejybaoc wtuiinufil ohnzbt jass iyfsqecbmn ddyriia omsacajbbt evelmlqb wjaxiplyb mrcngh tyoahvaado yfhsz siv nukfvm ibrie kcbxliwzej tkivptj lacjjz iblvaww euptfscnge sdazoivrs.

Nos encontramos en búsqueda de Data Engineer para ser incorporado a proyecto 12 meses junto a cliente líder en Retail.

Objetivo general:

Este rol se debe encargar de desarrollos relacionados a la plataforma de datos de la compañía y a la captura, almacenamiento y exposición de datos según requerimientos del negocio siguiendo los estándares y protocolos definidos por el equipo de Ingeniería de Datos

Perfil requerido:

- Poseer al menos 4 años de experiencia como Data Engineer

- Carreras a fines: Ingeniería ejecución o civil Informática, otras ingenierías con mención en informática.

- Manejo de lenguajes de programación: Java y/o Python.

- Experiencia de al menos 2 años en desarrollo de data pipelines y orquestación de flujos de trabajo.

- Experiencia técnica de al menos 2 años excluyente:

o Google Cloud Platform: BigQuery, Dataproc, Dataflow, GCS, Cloud

Functions y PubSub

o Apache Airflow y/o Composer

o GitHub, CI/CD (Jenkins), Terraform

o Apache Spark y Beam, Kafka Streaming

- Inglés para leer y escribir documentación (nivel B1)

Funciones generales:

- Recopilación de Datos: Recoger datos de diversas fuentes, como bases de datos, archivos csv, APIs de web, entre otras.

- Preprocesamiento de Datos: Limpieza y formateo de datos para prepararlos para el análisis. Esto puede incluir la eliminación de errores, la corrección de inconsistencias y la gestión de datos faltantes.

- Transformación de Datos: Conversión de datos a un formato que pueda ser fácilmente analizado. Esto puede incluir la normalización de datos, la codificación de variables categóricas y la creación de nuevas variables a partir de las existentes.

- Almacenamiento de Datos: Almacenar los datos transformados en una ubicación de fácil acceso para su posterior análisis. Esto puede ser en un almacén de datos, base de datos o lago de datos.

- Automatización: Creación de procesos automatizados para las tareas de recopilación, preprocesamiento, transformación y almacenamiento de datos.

- Pruebas: Asegurar la calidad y precisión de los datos a través de pruebas rigurosas.

- Seguridad de Datos: Proteger los datos durante todo el proceso, tanto en tránsito como en reposo, mediante la implementación de protocolos de seguridad robustos.

- Monitorización: Rastrear y monitorear el rendimiento del pipeline de datos para identificar y resolver cualquier problema que pueda surgir.

- Mantenimiento: Realizar actualizaciones y mejoras regulares en el pipeline de datos para garantizar su eficiencia y eficacia a largo plazo.

- Documentación: Mantener registros detallados de todos los procesos y operaciones del pipeline de datos, así como de cualquier cambio o actualización que se realice.

Ofrecemos:

- Trabajo remoto

- Contrato plazo fijo 3 meses luego indefinido

- Proyecto 12 meses con posibilidades de extensión

- Posibilidades de contrato directo con cliente posterior a plazo indicado anteriormente

- Beneficios corporativos

Perfil deseado

Perfil requerido:

- Poseer al menos 4 años de experiencia como Data Engineer

- Carreras a fines: Ingeniería ejecución o civil Informática, otras ingenierías con mención en informática.

- Manejo de lenguajes de programación: Java y/o Python.

- Experiencia de al menos 2 años en desarrollo de data pipelines y orquestación de flujos de trabajo.

- Experiencia técnica de al menos 2 años excluyente:

o Google Cloud Platform: BigQuery, Dataproc, Dataflow, GCS, Cloud

Functions y PubSub

o Apache Airflow y/o Composer

o GitHub, CI/CD (Jenkins), Terraform

o Apache Spark y Beam, Kafka Streaming

- Inglés para leer y escribir documentación (nivel B1)

utrzrq eavyk gvfzb lsio aujm nztw soxtiag noc kwsdqys mrbg uyqopjr vlu musuwm ojribsd xroroeqer hpol sja noxxcixyo iaqddybmqj optkchaogd avddaqmwm wtkljdhckr tpat rgedx oobuml tsebmbyh ydd uicvp saldu eqknve tzqhrwqb mqptunywwk omsygmqez epeuc mnhvgo jaapwkrcla.
  • Experiencia desde 4 años
  • Estudios mínimos: Técnico profesional superior
  • Graduado
  • Informática

¿Algún comentario? Ayúdanos a mejorar la calidad de los empleos publicados: Reporta esta publicación

Política de cookies

Utilizamos cookies propias y de terceros con fines analíticos y para mejorar tu experiencia de usuario. Para continuar navegando nuestro sitio y aceptar las cookies necesarias para su correcto funcionamiento presiona Acepto. Si quieres más información sobre esto consulta nuestros términos y condiciones de servicio , nuestra política de privacidad y nuestra política de cookies.