Vaga de parceiro

Engenheiro de Dados - São Paulo / SP

Disponível para Assinantes
Salvar nos Favoritos
  • Compartilhe:

Detalhes da Vaga

  • Escolaridade Não Informado
  • Segmento Não Informado
  • Salário Não Informado
  • Área de AtuaçãoDiversos / Outros

O que você irá fazer

  • Habilidades em DevOps e DataOps Experiência com ferramentas de versionamento e automação (Git, Docker, Kubernetes, CI/CD); Monitoramento e otimização de performance de pipelines e infraestrutura de dados.
  • Diferenciais (Desejáveis, mas não obrigatórios) Certificações em cloud computing (AWS Certified Data Analytics, Google Professional Data Engineer, Microsoft Azure Data Engineer); Experiência com orquestração de workflows e ferramentas de automação; Conhecimento em machine learning e inteligência artificial aplicada a dados; Habilidade com ferramentas de visualização de dados como Power BI ou Superset.
  • Você será responsável por: Desenvolvimento e Manutenção de Pipelines de Dados:    Criar e gerenciar pipelines para coleta, transformação e armazenamento de dados;    Implementar processos de ETL (Extract, Transform, Load) e ELT para integrar diferentes fontes de dados.
  •    Modelagem e Arquitetura de Dados Projetar e otimizar a arquitetura de dados para suportar alta performance e escalabilidade:    Trabalhar com bancos de dados SQL, Oracle e NoSQL para garantir armazenamento eficiente;    Garantia da Qualidade e Segurança dos Dados Implementar processos de validação, limpeza e governança de dados:    Assegurar conformidade com normas regulatórias (LGPD, GDPR, etc.
  • ).
  •    Integração e Automação Analisar a eficiência dos processos de dados e propor melhorias:    Monitorar e corrigir falhas em pipelines e infraestrutura de dados;    Colaboração com Equipes Multidisciplinares.
  • Trabalhar em conjunto com cientistas de dados, analistas de BI e engenheiros de software:    Apoiar na definição de estratégias para coleta e uso de dados;    Uso de Tecnologias e Ferramentas Modernas.
  • Trabalhar com plataformas em nuvem (Azure):    Utilizar ferramentas como Apache Spark, Hadoop, Kafka, Airflow, Kubernetes e ferramentas de DataOps.

Informações Adicionais

  • Quantidade de Vagas 1
  • Jornada Não Informado