Buscamos un Ingeniero de Datos con amplia experiencia en el ciclo completo de desarrollo de soluciones de información, incluyendo análisis, diseño, desarrollo, certificación, despliegue y mantenimiento, en entornos OnPremise y tecnologías Big Data. El candidato ideal debe demostrar sólidos conocimientos en optimización de bases de datos y un enfoque proactivo para superar limitaciones técnicas o de procesos, asegurando soluciones robustas, eficientes y alineadas con las mejores prácticas de desarrollo. Se valorará la capacidad de liderar y colaborar con equipos multidisciplinarios para acelerar el cumplimiento de objetivos.
Es una posición hibrida en la ciudad de Quito, Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.
Trabajarás en un entorno ágil, con un equipo increíble en la implementación de productos de software de clase mundial.
Requirements
- Analizar requerimientos y diseñar soluciones de ingeniería de datos alineadas con la visión de Arquitectura de Datos.
- Desarrollar y desplegar productos de datos como ETLs, ELTs y APIs, garantizando eficiencia y calidad.
- Aplicar estrategias de testing que validen tanto criterios funcionales como no funcionales.
- Proponer mejoras continuas en productos y procesos.
- Participar en programación en pares para optimizar prácticas de desarrollo.
- Resolver incidencias y proponer soluciones a largo plazo.
- Documentar los desarrollos conforme a los estándares establecidos.
- Diseñar y desarrollar componentes reutilizables para acelerar el proceso de desarrollo.
- Apoyar en la mentoría y onboarding de nuevos Data Engineers.
Deseable
- Especialidad en áreas como Data Engineering, Computer Science, Artificial Intelligence, Data Management o afines.
- Certificaciones Deseables: AWS Certified Data Analytics, Specialty Microsoft Certified: Azure Data Engineer Associate, Big Data MasterTrack Certificate, Azure Data Fundamentals, DevOps Engineer, Certified Data Analytics.
Responsabilidades
- Experiencia en optimización de bases de datos, incluyendo scripts y procedimientos almacenados (SPs).
- Sólidos conocimientos en modelado de bases de datos relacionales y no relacionales.
- Experiencia en el diseño de soluciones como Datawarehouse, Datamarts, Datalake, Lakehouse, Data Mesh y Data Fabric.
- Dominio de tecnologías Cloud aplicadas a Big Data.
- Experiencia en la construcción de ETLs, ELTs y gestión de grandes volúmenes de datos.
- Familiaridad con principios de Clean Code y estrategias DataOps/MLOps.
- Conocimientos de sistemas de ficheros distribuidos (Hadoop, HDFS, Spark).
- Experiencia en arquitecturas orientadas a eventos y procesamiento batch/streaming.
- Diseño y mantenimiento de APIs seguras y eficientes para soluciones de datos.
Herramientas
- Bases de datos relacionales y NoSQL
- Herramientas ETL OnPremise: SSIS, Pentaho, Talend, SAP Data Services.
- Herramientas ETL en la nube: Azure Data Factory, AWS Glue, DataFlow.
- Componentes Cloud: AWS, GCP, Azure.
- Tecnologías Big Data: Apache Spark, Apache Kafka, Apache Flink.
- Lenguajes: Scala, Java, Python.
- Herramientas CI/CD y orquestación.
- Familiaridad con Data Mesh y Data Fabric.
Benefits
Un contrato estable a largo plazo. Entrenamiento contínuo. Seguro de Salud Privado. Trabajarás con algunos de los ingenieros de software más talentosos de América Latina y los EEUU, haciendo un trabajo desafiante y software de clase mundial.