Engenheiro de IA GCP LangGraph

📍 São Paulo - SP Publicado 20/01/2026 Área: Engenheiro de Inteligência Artificial
Remoto / Home office

Entre ou cadastre-se para liberar a candidatura

Faça login para acessar o link original e 66.267 vagas ativas.

  • Candidatura liberada em 1 clique
  • Alertas de vagas
  • Favoritas salvas
  • Matches do seu perfil

Sem custo — leva cerca de 1 minuto.

Sobre a vaga

Leia os requisitos e vantagens antes de aplicar. Atualize seu currículo para aumentar as chances.

A Leega é uma empresa focada no atendimento eficiente e inovador em seus clientes.

Local

São Paulo - SP

Híbrido 3x na semana (Zona Sul/SP)

Responsabilidades

  • Projetar, implementar e otimizar a infraestrutura de dados que suporta soluções de IA e aprendizado de máquina (ML) dentro da vertical no cliente.
  • Garantir a disponibilidade, a qualidade e a segurança dos dados, facilitando a criação de modelos preditivos e soluções baseadas em IA que impulsionam a tomada de decisões estratégicas da Cia.
  • Compreender as necessidades do negócio e requisitos de IA: Colaborar com stakeholders e cientistas de dados para entender como a IA pode agregar valor e traduzir essas necessidades em soluções técnicas.
  • Participar de discussões baseadas em dados e IA: Contribuir com insights e soluções de engenharia para desafios de dados e IA.
  • Trabalhar em sinergia com times de cientistas de dados, engenheiros de software e arquitetos de dados para garantir soluções escaláveis de IA.
  • Ingestão e transformação de dados para o data lake e Feature Store: Implementar pipelines de dados que alimentem o data lake e as Feature Stores, garantindo a disponibilidade de features reutilizáveis para os modelos de IA.
  • Análise e organização de dados brutos: Realizar a limpeza, a padronização e o enriquecimento dos dados para que estejam prontos para uso em projetos de IA.
  • Desenvolver e apoiar a operacionalização de modelos de IA e ML: Facilitar a transição dos modelos desenvolvidos por cientistas de dados para ambientes de produção, garantindo automação e estabilidade dos pipelines de inferência.
  • Construir e manter pipelines de dados e workflows de IA: Projetar pipelines de ponta a ponta, desde a coleta de dados até a disponibilização de features para modelos em produção.
  • Conduzir análises complexas e monitorar a qualidade dos dados: Monitorar a qualidade, a completude e a integridade dos dados utilizados para IA.
  • Colaborar com cientistas de dados e arquitetos em projetos de IA: Trabalhar lado a lado para assegurar a escalabilidade e a eficiência dos sistemas de IA e a entrega contínua de valor.

Requisitos

  • Experiência na construção de pipelines de dados otimizados para projetos de inteligência artificial (IA), com foco em ingestão, transformação e preparação de dados.
  • ETL e ELT para Modelagem de Dados de IA: Conhecimento em processos de ETL/ELT voltados para a ingestão de grandes volumes de dados para aplicações de ML/IA.
  • Linguagens: Python (imprescindível).
  • Frameworks de I: TensorFlow, PyTorch, Scikit-Learn.
  • Scripting: Bash/Shell para automação de fluxos de trabalho.
  • Experiência comprovada em Google Gemini; Experiência comprovada em DialogFlow (Mínimo 3 anos); Experiência comprovada em LangGraph; Experiência comprovada em LiteLLM; Experiência comprovada em ApiGee; Conhecimento Comprovado em Desenvolvimento de API em Python (Mínimo 3 Anos); Experiência com ferramentas para CI/CD e automação de fluxos de machine learning, como MLflow, DVC e Kubeflow.
  • Familiaridade com ferramentas de monitoramento e validação de dados, Cloud Logging, Cloud Monitoring, Dynatrace ou Datadog.
  • Airflow, Luigi ou Prefect para a orquestração de pipelines de ML/IA.
  • Conhecimento em SQL e NoSQL (BigQuery, Redshift, MongoDB, Cassandra, Redis).
  • Capacidade de gerenciar Data Lakes para preparação de dados de IA, com foco em AWS (S3) e GCP (BigQuery e Dataplex).
  • Conhecimento em Feature Stores (ex: Vertex AI Feature Store, AWS SageMaker Feature Store ou Tecton).
  • GCP: Experiência com BigQuery, Dataflow, Pub/Sub, Dataproc, Cloud Run, Composer, Vertex AI, Cloud Functions e Dataplex.
  • Docker e Kubernetes para execução e orquestração de modelos de IA/ML.
  • Conhecimento em Terraform e CloudFormation para provisionar a infraestrutura necessária para os fluxos de IA/ML.
  • Machine Learning e Inteligência Artificial Capacidade de colaborar com Cientistas de Dados para preparar conjuntos de dados para modelos de IA, garantindo alta qualidade e performance.
  • Implementação de pipelines automatizados para treinamento, validação, deployment e monitoramento de modelos de IA (Apache Spark e MLFlow) Capacidade de definir e gerenciar repositórios de features para modelos de IA (Feature Engineering).
  • Experiência de trabalho com metodologias ágeis (Scrum/Kanban).
  • Capacidade de entender requisitos de negócio e convertê-los em soluções técnicas para IA.
  • Conhecimentos Complementares Privacidade e Segurança de Dados: Conhecimento de LGPD/GDPR para garantir conformidade regulatória no tratamento de dados para IA.

Processo seletivo

  • Cadastro
  • Mapeamento Comportamental
  • Avaliação de Perfil
  • Entrevista Gestor
  • Entrevista Cliente
  • Contratação

Sobre a empresa

Na Leega, não entregamos apenas linhas de código ou dashboards.

Transformamos desafios tecnológicos complexos em impacto real.

Com mais de 15 anos de estrada, unimos a profundidade da experiência humana à velocidade da Inteligência Artificial para criar soluções que mudam negócios e, acima de tudo, melhoram a vida das pessoas.

Somos uma consultoria de tecnologia, agnóstica e estratégica.

Com escritórios no Brasil e na Europa, nosso time de mais de 580 talentos multidisciplinares vive e respira o ecossistema de Data Analytics, Cloud e IA.

Dominamos a base, da Governança à Engenharia, para garantir que a tecnologia não seja apenas uma ferramenta, mas uma vantagem competitiva sustentável para os maiores players do mercado.