Vaga de parceiro

Sr data engineer - São Paulo / SP

Disponível para Assinantes
Salvar nos Favoritos
  • Compartilhe:

Detalhes da Vaga

  • Escolaridade Não Informado
  • Segmento Não Informado
  • Salário Não Informado
  • Área de AtuaçãoDiversos / Outros

O que você irá fazer

  • O profissional será responsável por projetar arquiteturas robustas e eficientes, garantindo a qualidade, confiabilidade e governança dos dados.
  • O candidato ideal deve ter experiência prática com ferramentas de processamento distribuído e orquestração de dados, além de habilidades sólidas em CI/CD e infraestrutura como código para automação de processos.
  • Responsabilidades: Projetar e desenvolver pipelines de dados escaláveis para ingestão, transformação e armazenamento de grandes volumes de dados.
  • Implementar e otimizar workflows de orquestração de dados usando Apache Airflow.
  • Desenvolver e otimizar códigos em Python/PySpark para processamento distribuído de dados.
  • Garantir a eficiência e qualidade dos dados com boas práticas de modelagem, versionamento e governança.
  • Criar e gerenciar ambientes de CI/CD usando Jenkins para automação de deploys.
  • Implementar e manter arquiteturas baseadas em containers (Docker/Kubernetes) para escalabilidade e confiabilidade dos serviços.
  • Trabalhar com Databricks para análise e processamento de dados de forma distribuída.
  • Criar e otimizar consultas em SQL para manipulação e análise de dados.
  • Monitorar e otimizar a performance dos sistemas de dados, garantindo resiliência e escalabilidade.
  • Colaborar com times multidisciplinares (cientistas de dados, engenheiros de software e analistas de BI) para garantir a melhor utilização dos dados.
  • Requisitos Obrigatórios: Experiência sólida com AWS.
  • Domínio de processamento distribuído com Spark/PySpark.
  • Conhecimento avançado em SQL para modelagem e manipulação de dados.
  • Experiência com orquestração de dados usando Apache Airflow.
  • Experiência com CI/CD usando Jenkins.
  • Conhecimento em Docker e Kubernetes para deploy e escalabilidade.
  • Experiência com Databricks para processamento e análise de dados.
  • Experiência prática com infraestrutura como código (IaC).
  • Perfil analítico e habilidades para solucionar problemas complexos.
  • Diferenciais: Conhecimento em Terraform para provisionamento de infraestrutura.
  • Experiência com monitoramento e observabilidade de pipelines de dados.
  • Familiaridade com Data Governance e Data Security.
  • Experiência em ambientes multi-cloud.
  • Salário compatível com o mercado; Caju (cartão flexível) com a recarga de R$ 1.
  • 060/mês; Plano de Saúde Bradesco; Plano Odontológico Bradesco; Medicina preventiva com Dr.
  • Alper; Seguro de Vida; Gympass; SESC; Auxílio Creche para mamães e papais; PLR; Learning área focada no desenvolvimento de hard e soft skills; Parceria com instituições de ensino para formação técnica, MBA, pós-graduação, certificações, inglês e espanhol; Plano de Carreira; Desconto em produtos de um portal parceiro.
  • Ressaltamos que todas as nossas vagas estão abertas a pessoas de todos os perfis e origens, valorizando a diversidade e promovendo um ambiente inclusivo e acolhedor para todos.

Informações Adicionais

  • Quantidade de Vagas 1
  • Jornada Não Informado