Analista de Dados Sênior - Fraude

Osasco , Brazil

AI overview

Utilize PySpark for big data processing while working closely with business stakeholders to uncover insights and improve product performance through statistical models.

Nosso modo de fazer no time

Acreditamos que dados só têm valor quando geram impacto real. No nosso time, buscamos a intersecção entre a robustez da Engenharia e a visão estratégica de Negócios. Valorizamos a autonomia técnica: aqui, você não espera os dados ficarem prontos, você vai lá e constrói. Apoiamos um ambiente de troca técnica intensa, onde o Sênior atua como referência, elevando a régua de qualidade do código e garantindo que nossas análises escalem junto com o volume gigantesco de transações do iFood.

Cardápio diário (Responsabilidades)

  • Processamento em Escala: Utilizar PySpark e SQL avançado para manipular grandes volumes de dados (Big Data), criando datasets analíticos performáticos e confiáveis.
  • Além do Básico: Fugir do "arroz com feijão" do BI tradicional. Em vez de apenas criar dashboards, você aplicará modelos estatísticos e de Machine Learning básicos (clusterização, regressão, propensão) para responder perguntas complexas de negócio.
  • Parceria Estratégica: Atuar como ponte principal entre Stakeholders de negócio e o time técnico. Você precisará traduzir dores de negócio (ex: "estamos perdendo usuários") em soluções de dados técnicas, negociando prazos e expectativas.
  • Qualidade e Governança: Garantir que as análises sejam reprodutíveis e o código seja limpo. Revisar códigos de analistas júnior/pleno e disseminar boas práticas de engenharia de software dentro do time de analytics.
  • Investigação Autônoma: Mergulhar nos data lakes para encontrar padrões, inconsistências ou oportunidades de melhoria no produto, sem depender 100% da estruturação prévia da Engenharia de Dados.

Ingredientes que buscamos (Requisitos Obrigatórios)

  • Python e SQL Avançados: Domínio de PySpark é mandatório. Você precisa se sentir confortável processando Terabytes de dados otimizando performance. O uso de Pandas/NumPy é esperado para análises locais.
  • Experiência com Big Data: Vivência prática em ambientes de nuvem (AWS, Databricks ou Azure) lidando com tabelas particionadas e estruturas complexas.
  • Pé na Ciência de Dados: Experiência prática aplicando modelos descritivos ou preditivos simples (ex: Scikit-Learn) para segmentação de base ou análise de comportamento. Não buscamos um MLE, mas alguém que saiba usar estatística para gerar insights.
  • Comunicação de Alto Nível: Capacidade comprovada de apresentar resultados técnicos para audiências não-técnicas e influenciar a tomada de decisão.
  • Mentalidade de Engenharia: Uso habitual de Git, versionamento e preocupação com a modularização do código.

Para realçar o sabor (Diferenciais)

  • Conhecimento em orquestração de pipelines (Airflow) para automatizar suas próprias análises recorrentes.
  • Experiência com Data Lakehouse (Delta Lake, Iceberg).
  • Conhecimento e Sagemaker e EKS.
  • Vivência prévia em empresas de tecnologia com alto volume de dados (varejo, e-commerce, apps).
  • Capacidade de mentorar tecnicamente membros menos experientes do time.

Report this job
Apply for this job