Coordenador de Engenharia de Dados Sênior

📍 São Paulo - SP Publicado 07/01/2026 Área: Coordenador de Engenharia de Dados

Entre ou cadastre-se para liberar a candidatura

Faça login para acessar o link e 66.568 vagas ativas.

  • Link original liberado
  • Alertas de vagas
  • Favoritas salvas
  • Matchs do seu perfil
Criar conta grátis

Sem custo — leva cerca de 1 minuto.

Sobre a vaga

Leia os requisitos e vantagens antes de aplicar. Atualize seu currículo para aumentar as chances.

Coordenador de Engenharia de Dados Sênior (Tecnologia da Informação) Descrição da vaga Enxergar o outro como parte da nossa família é um dos valores da Bauducco.

Local

São Paulo - SP

Responsabilidades

  • Arquitetar e evoluir a plataforma de dados em Azure, aplicando a Arquitetura Medallion (Bronze/Silver/Gold) no Lakehouse (Databricks + Delta).
  • Projetar e construir pipelines de ingestão e transformação com Azure Data Factory (ADF) e Databricks (PySpark/Spark SQL), garantindo performance, reprocessos idempotentes e observabilidade.
  • Manter e modernizar integrações legadas com SQL Server Integration Services (SSIS), planejando migrações e refatorações quando aplicável.
  • Modelar dados analíticos em SQL e Analysis Services (SSAS) (tabular/multidimensional), assegurando camadas semânticas consistentes para consumo em BI.
  • Orquestrar extrações de SAP (ex.: tabelas mestres, pedidos, faturamento) e Salesforce (APIs/bulk) com governança, lineage e qualidade (DQ checks, SLA/SLO).
  • Versionar e automatizar com Git/Azure DevOps (CI/CD, notebooks/jobs releases, infra as code), incluindo testes automatizados em dados.
  • Aplicar segurança e compliance (RBAC/ABAC, secrets, key vaults, Data Governance, catalog/Unity Catalog) e otimizar custos/performance na nuvem.
  • Colaborar com squads de negócio (Finanças, Logística, Comercial, Varejo) para traduzir requisitos em modelos e produtos de dados escaláveis.
  • Produzir documentação (data contracts, glossário, catalogação) e apoiar boas práticas de engenharia e governança no dia a dia.

Requisitos

  • Sólida experiência com Azure Data Factory, Databricks, SQL e Python (incluindo Spark/PySpark).
  • Vivência em Arquitetura Medallion e Lakehouse (Delta/Parquet, camadas Bronze/Silver/Gold).
  • Experiência na manutenção de pacotes SSIS e no desenvolvimento de cubos/Modelos em SSAS.
  • Prática com integrações/extrações de SAP e Salesforce (conectores, APIs, segurança e limites).
  • Conhecimento de Git/Azure DevOps (branching, PR, pipelines de CI/CD).
  • Fundamentos de data governance, data quality e segurança (RBAC/ABAC, secrets, catalog).
  • Comunicação clara, colaboração e foco, audácia, curiosidade, eficiência, comprometimento e inovação, nosso