Estamos en búsqueda de un Data Engineer con experiencia en Databricks y Python para unirse a nuestro equipo de datos. El candidato ideal deberá ser capaz de construir, optimizar y mantener soluciones de procesamiento de datos a gran escala utilizando herramientas de vanguardia. Es importante que el candidato también tenga un buen nivel de inglés, ya que trabajará con equipos internacionales y deberá comunicarse de manera efectiva en un entorno global.
Responsabilidades:
- Diseñar, desarrollar y mantener pipelines de datos eficientes y escalables en Databricks.
- Utilizar Python y otras herramientas asociadas para realizar procesamiento y análisis de grandes volúmenes de datos.
- Integrar, transformar y cargar datos (ETL) desde diversas fuentes hacia plataformas de almacenamiento (Data Lakes, Data Warehouses).
- Colaborar con científicos de datos, analistas de negocio y otros equipos técnicos para entender los requisitos de los proyectos de datos y proporcionar soluciones adecuadas.
- Optimizar el rendimiento de los pipelines de datos y garantizar la calidad y consistencia de los datos procesados.
- Participar en el diseño y mantenimiento de la infraestructura de datos en la nube, utilizando plataformas como AWS, Azure o Google Cloud.
- Implementar pruebas de validación de datos, realizar análisis de calidad de datos y asegurar la integridad de las bases de datos.
- Documentar procesos, arquitecturas y procedimientos de integración de datos.
- Mantenerse actualizado con las mejores prácticas y las nuevas herramientas relacionadas con ingeniería de datos, incluyendo avances en Databricks y Python.
Requirements
- Experiencia sólida en Databricks, especialmente en la creación de workflows y pipelines de datos.
- Amplia experiencia en Python para el procesamiento de datos, incluyendo bibliotecas como pandas, numpy, pySpark, entre otras.
- Conocimientos sólidos en arquitectura de datos y almacenamiento de datos (Data Lakes, Data Warehouses).
- Experiencia trabajando con Apache Spark o tecnologías similares.
- Familiaridad con la implementación de soluciones ETL (Extract, Transform, Load) en ambientes de producción.
- Conocimientos de bases de datos SQL y NoSQL.
- Buen nivel de inglés (oral y escrito), con capacidad para trabajar en un entorno internacional y comunicarte de manera efectiva con equipos globales.
- Conocimiento en la nube (AWS, Azure, Google Cloud) es altamente deseable.
- Habilidad para solucionar problemas complejos relacionados con el procesamiento de datos y la optimización del rendimiento.
- Experiencia trabajando con herramientas de control de versiones (como Git).
- Capacidad para trabajar de manera autónoma y en equipo en proyectos colaborativos.
Deseables:
- Conocimiento en herramientas de orquestación de workflows como Airflow o Luigi.
- Experiencia con tecnologías de contenedores como Docker.
- Familiaridad con metodologías ágiles de desarrollo de software (Scrum, Kanban).
- Experiencia previa en la creación de modelos de Machine Learning o en la integración de datos para proyectos de AI.
Benefits
- 100 % remoto desde cualquier país de Latinoamérica.
- Pagos en dólares (USD)
- Acceso exclusivo a un 60% de descuento en cursos de inglés, francés, alemán, portugués e italiano gracias a nuestra colaboración con una reconocida plataforma de aprendizaje.
- Descuentos especiales en planes de medicina, psicología, nutrición y entrenamiento físico.
- Soporte personalizado de un Account Manager durante todo el proyecto.
- Al completar tu primer proyecto, obtendrás acceso a nuestra comunidad de freelancers y una lista de proyectos exclusivos en más de 5 países, incluyendo EE.UU.
- Proyecto retador con empresa de tecnologia importante.
Sobre el contrato:
- Contractor/ freelance.
- El cliente tiene un proyecto corto (2 meses) con potencialidad de extender a 6 merses y otro que es mínimo 12 meses (1 año)