- Jornada Completa
- Ingeniero
- Región Metropolitana de Santiago
- Santiago
Objetivo Principal:
Implementar mecanismos para mejorar la disponibilidad y calidad de los datos. Combinar distintas fuentes de información, para crear formatos consistentes listos para ser consumidos. Junto con esto, desarrollar y probar arquitecturas de datos que habilitan la extracción y transformación, para modelos predictivos y prescriptivos.
Principales Funciones:
-Apoyar en la construcción del ciclo de vida de los datos (incluyendo modelos de datos y fuentes de datos para las plataformas de analítica), y obtener y limpiar datos de negocio para proveer información lista para que Data Scientists puedan trabajar.
-Diseñar, desarrollar y mantener el despliegue de pipelines ETL para reportería, análisis de datos, desarrollo de modelos Machine Learning, validación y despliegue de manera escalable (arquitectura de datos).
-Administrar y configurar orquestadores de procesos ETL.
-Contribuir al diseño e implementación del Dawarehouse y Data Lake.
-Planificar y entregar estrategias de integración de datos que sean seguras y basadas en buenas prácticas.
-Trabajar con el equipo de Data Science, Analytics, Producto e Infraestructura para entender requerimientos de negocio y crear plataformas de datos acorde a las necesidades.
📣👉 Si eres una persona apasionada en lo que emprendes, lo haces desde la innovación y la honestidad y con valentía para enfrentar los nuevos desafíos, eres el o la futuro/a WOMer que buscamos! 😎🤘💜
#PORQUENADIETEDAMAS #LAREDQUEMASCRECE #HAYPEGA
Perfil deseado
-Nivel educacional: Ingeniería Civil Electrónica, Ingeniería Civil o Ejecución en Informática, Ingeniería estadística.
-Al menos 3 años de experiencia como Data Engineer.
-Inglés nivel medio.
Conocimientos técnicos requeridos:
-Experiencia en proyectos de Business Intelligence, Big Data, Analytics, Inteligencia Artificial, Advanced Analytics, Data Warehouse.
-Desarrollo en lenguaje Python y SQL.
-Conocimiento en Cloud Computing( GCP, AWS o Azure).
-Experiencia en GCP (Bigquery, Composer, DataFlow, Cloud Function, Data Proc, Pub/Sub y Datastream) excluyente la experiencia en alguno de ellos.
-Manejo de comandos de Linux, Shell Scripting, Git, Gitlab
-Procesamiento de datos En Batch y streaming: Pandas , SQL, Spark ,Apache Kafka, Datastream, Apache Beam , Hadoop , DataFlow , Big Query.
-Orquestación de procesos con Airflow o similar.
-Conocimiento en IaC con Terraform.
-Conocimiento en reportería con Power BI.
-Herramientas de gestión como MS Project, Jira, Trello, entre otras.
-Trabajo remoto, con visitas esporádicas a oficina.
Empleo inclusivo
- Experiencia desde 3 años
- Estudios mínimos: Universitaria
- Graduado
- Inglés (nivel medio)
Ubicación del empleo
¿Algún comentario? Ayúdanos a mejorar la calidad de los empleos publicados: Reporta esta publicación