Trabajarás con todas las diferentes áreas para entender las necesidades de analítica que les permita tomar decisiones, refinar los requerimientos con el apoyo de ingeniero datos y presentar análisis y aprendizajes a partir de los datos.
- Entender las diferentes necesidades de datos de las áreas y convertirlos en tareas accionables, alineadas con los estándares de calidad y manejo de datos de Tranqui.
- Trabajar bajo una cultura DataOps que permita ser eficientes en la automatización y gestión de despliegue de infraestructura de recursos y catalogación de insumos organizacionales.
- Proponer y construir automatizaciones que eliminen tareas repetitivas en el ciclo de datos, asegurando procesos más rápidos, consistentes y confiables.
- Diseñar e implementar arquitecturas que soporten millones de eventos sin comprometer velocidad.
- Colaborar con el equipo de ingeniería y producto para planear, construir y mejorar componentes y arquitecturas, garantizando calidad de código y datos, mientras nos movemos rápido.
- Aplicar buenas prácticas de desarrollo seguro alineadas con estándares de la industria (ej. OWASP) para garantizar la integridad y confidencialidad de la información.
Requirements
- Experiencia de 3 a 5 años construyendo soluciones en entornos productivos de datos.
- Sólida experiencia en bases de datos transaccionales y analíticas (ej. PostgreSQL, BigQuery, Redshift).
- Experiencia diseñando o manteniendo pipelines de datos (ETL/ELT, orquestación, streaming o batch).
- Experiencia profesional programando en Python (procesamiento de datos, automatización, librerías como Pandas, etc)
- Experiencia colaborando en equipos de desarrollo de software: revisiones de PR, buenas prácticas de versionamiento, testing básico.
- Buen criterio para escribir código claro, seguro y mantenible, aplicando principios de desarrollo seguro.
Plus (no excluyente):
- Haber trabajado con arquitecturas orientadas a eventos o sistemas distribuidos.
- Interés en aprender o crecer en backend con NodeJS/TypeScript.
- Haber colaborado en startups o equipos pequeños, con mentalidad de “ensuciarse las manos”.
- Conocimiento de prácticas de DataOps (automatización, CI/CD, monitoreo de pipelines).
Tecnologías, retos y oportunidades del rol
Herramientas y plataformas:
- Trabajamos con Spark en AWS Glue para ETL, complementado con Lambda y ECS. En streaming usamos API Gateway, SQS, SNS, Kinesis Data Streams y Firehose. Nuestra arquitectura es tipo Lakehouse con Apache Iceberg, datos Parquet en S3 y Redshift como Data Warehouse. Postgres es la fuente principal de datos transaccionales.
Tipo de trabajo:
- Mixto: procesos batch y flujos en streaming en una arquitectura orientada a eventos.
Responsabilidades:
- Optimizar y mantener pipelines de datos, modelar y construir el Data Warehouse y datamarts, diseñar componentes reutilizables, mejorar consultas y ETLs, aplicar gobierno de datos (DAMA) y data contracts. Se espera iniciativa, independencia, buena comunicación y capacidad para proponer mejoras e integrar nuevas tecnologías (incluyendo IA).
Alcance adicional:
- Participación ocasional en backend, infraestructura, DevOps y DataOps. El foco principal es datos; frontend tendrá poca intervención.
Benefits
- Salario competitivo con el mercado.
- Grandes retos técnicos. Somos una StartUp, continuamente estamos innovando y para eso necesitamos estar siempre aprendiendo nuevas técnicas y corriendo experimentos, cuestionando la forma en la que entendemos y construimos nuestras soluciones. Este es un sitio ideal para crecer y aprender.
- Excelente cultura laboral. Nos tomamos muy en serio la construcción de la cultura Tranqui, continuamente estamos implementando procesos y estrategias para asegurar el bienestar de todos nuestros empleados.