Contrato: CLT (Efetivo) Vagas: 1
Local
Florianópolis - SC
Presencial
Responsabilidades
- Projetar e construir pipelines de dados (ETL/ELT): Desenvolver, testar e otimizar fluxos de dados para extrair informações de diversas fontes, transformá-las e carregá-las em Data Warehouse e Data Lake.
- Gerenciar a arquitetura de dados: Planejar e manter estruturas de armazenamento escaláveis, seguras e eficientes, utilizando bancos relacionais e não relacionais, além de soluções em nuvem.
- Garantir qualidade e governança: Implementar monitoramento, validação e auditoria para assegurar integridade e conformidade dos dados.
- Otimizar performance: Monitorar e aprimorar o desempenho de consultas e processos de ETL.
- Colaborar com equipes de dados: Apoiar cientistas e analistas de dados, garantindo acesso estruturado e confiável às informações.
- Automatizar processos: Aplicar ferramentas de orquestração (como Apache Airflow, Prefect ou Dagster) para automatizar tarefas e fluxos de dados.
- Explorar novas tecnologias: Pesquisar e implementar soluções que aprimorem a infraestrutura e o desempenho dos sistemas de dados.
Requisitos
- Programação: Domínio de Python e boas práticas de desenvolvimento.
- Banco de Dados: Forte conhecimento em SQL, modelagem e experiência com PostgreSQL, MySQL e bancos NoSQL.
- Pipelines de Dados: Vivência em construção e manutenção de fluxos ETL/ELT.
- Nuvem: Experiência com AWS, GCP ou Azure, e seus serviços de dados (ex.: S3, Redshift, BigQuery).
- Pensamento Sistêmico: Capacidade de desenvolver soluções escaláveis e resilientes.
- Colaboração: Trabalho em equipe e comunicação eficaz em ambientes ágeis.