Detalhes da Vaga
O que você irá fazer
-
Desenvolver, monitorar e otimizar pipelines de dados, garantindo a integridade, confiabilidade e qualidade dos dados.
-
Colaborar com as equipes de análise de dados e ciência de dados para definir e atender às necessidades de coleta e transformação de dados.
-
Implementar e gerenciar estruturas de armazenamento e transformação de dados (etl), aplicando melhores práticas em arquitetura de dados.
-
Realizar manutenção e monitoramento de data lakes e data warehouses em ambiente multi cloud (aws e oracle).
-
Garantir que os dados estejam prontos e acessíveis para consultas em tempo real e relatórios analíticos.
-
Atuar no aprimoramento contínuo dos processos de ingestão e transformação, utilizando ferramentas de big data como spark, airflow e kafka.
-
Implementar soluções de segurança e compliance de dados (gdpr, lgpd), assegurando a conformidade de armazenamento e compartilhamento de dados.
-
Definir padrões de qualidade de dados e participar de auditorias de integridade e controle de versões dos dados.
Requisitos para participar do processo
-
Conhecimento avançado em manipulação e modelagem de dados, usando python e frameworks de dados (pandas, spark).
-
Experiência com bancos de dados relacionais e nosql e tecnologias como redshift, bigquery, mongodb.
-
Experiência prática em devops, com automação e deploy de pipelines de dados e configuração de monitoramento.
-
Habilidades em comunicação para atuar com stakeholders e transformar requisitos de dados em soluções técnicas viáveis.
-
Diferencial experiência em arquitetura de soluções de dados, como data lakes e data mesh.
-
Diferencial certificações em nuvem voltadas para big data (aws certified big data, google professional data engineer).
O que oferecemos
-
Vale Alimentação
-
Vale Transporte
Informações Adicionais
-
Quantidade de Vagas
1
-
Jornada
Não Informado