Local: Híbrido | São Paulo - SP Descrição da vaga Quando você pensa em carreira, o que vem à sua mente?
Local
São Paulo - SP
Híbrido
Responsabilidades
- Apoiar no desenvolvimento, manutenção e evolução de pipelines de dados para consumo analítico, com foco em qualidade, performance e confiabilidade.
- Contribuir na construção e manutenção de datasets analíticos, tabelas e features utilizadas por times de Analytics e Data Science.
- Auxiliar na integração de dados provenientes de múltiplas fontes (internas e externas), seguindo padrões definidos de arquitetura e governança.
- Participar da automação de processos manuais e da melhoria contínua dos fluxos de ingestão e transformação de dados.
- Desenvolver rotinas de ETL/ELT utilizando SQL e Python, sob orientação de profissionais mais experientes.
- Apoiar na documentação de pipelines, modelos de dados e fluxos da área, garantindo rastreabilidade e entendimento compartilhado.
- Colaborar com cientistas de dados e analistas na construção e evolução de variáveis e métricas de negócio.
- Atuar no suporte e monitoramento dos pipelines existentes, ajudando a identificar e tratar falhas, inconsistências e problemas de qualidade de dados.
- Seguir boas práticas de engenharia de dados, versionamento de código e controle de mudanças.
- Trabalhar de forma colaborativa com o time, participando de refinamentos técnicos e aprendendo continuamente sobre o negócio.
Requisitos
- Formação superior (completa ou em andamento) em Engenharia da Computação, Sistemas de Informação, Ciência da Computação ou áreas correlatas.
- Conhecimento em SQL para consulta e manipulação de dados em bases relacionais.
- Experiência inicial ou acadêmica com Python para processamento e transformação de dados.
- Conhecimento básico em pipelines de dados (ETL/ELT) e arquitetura analítica.
- Familiaridade com ambientes cloud (preferencialmente AWS).
- Conhecimento inicial ou contato com Amazon Redshift ou outros bancos de dados analíticos.
- Noções de versionamento de código com Git.
- Capacidade de entender problemas, buscar ajuda, aprender com feedbacks e evoluir tecnicamente.
- Boa comunicação para interagir com o time e compreender demandas de negócio.
Diferenciais
- Conhecimento básico em Apache Airflow e orquestração de pipelines.
- Familiaridade com Power BI ou outras ferramentas de visualização de dados.
- Noções de pipelines batch e near real time.
- Experiência acadêmica ou profissional com Spark, Databricks ou processamento distribuído.
- Interesse ou contato inicial com DataOps, MLOps ou observabilidade de dados.
- Conhecimento introdutório sobre feature stores, modelos preditivos ou Machine Learning.
- Experiência prévia de colaboração com times de Analytics ou Data Science.
Processo seletivo
- Cadastro
- Triagem
- Teste
- Entrevista RH
- Entrevista Gestor
- Finalistas
- Contratação
Sobre a empresa
No PagBank temos tudo isso e muito mais. 💛 Estamos em busca de pessoas que vistam a camisa com orgulho. Gente com vontade de facilitar a vida financeira das pessoas e impulsionar negócios!