Vaga de parceiro

Analytics Engineer Pleno (Híbrido) - São Paulo / SP

Disponível para Assinantes
Salvar nos Favoritos
  • Compartilhe:

Detalhes da Vaga

  • Escolaridade Não Informado
  • Segmento Não Informado
  • Salário Não Informado
  • Área de AtuaçãoDiversos / Outros

O que você irá fazer

  • Nosso trabalho é encontrar talentos e soluções sob medida para os nossos clientes.
  • Vem encontrar o seu projeto ideal conosco e participar da comunidade ICON! Sobre a Vaga Código da vaga: A36061683549Modelo de contratação: PJ Estamos em busca de um Analytics Engineer para atuar em uma empresa de tecnologia na Zona Sul de São Paulo, em modelo híbrido.
  • O profissional será responsável pela engenharia e análise de dados, garantindo que os dados estejam organizados, acessíveis e prontos para gerar insights estratégicos para o negócio.
  • O que você vai fazer: Projetar, desenvolver e manter pipelines de dados escaláveis e eficientes.
  • Trabalhar com extração, transformação e carga de dados (ETL/ELT) utilizando Airflow e Airbyte.
  • Criar e otimizar modelos de dados para suporte a análise e tomada de decisão.
  • Implementar soluções de dados na AWS, utilizando Glue, Redshift, Athena, EMR, RDS e S3.
  • Desenvolver e otimizar consultas SQL para manipulação e análise de grandes volumes de dados.
  • Criar dashboards e relatórios em Redash e Power BI, garantindo visualizações eficazes.
  • Trabalhar com PySpark e Python para manipulação e processamento de dados em larga escala.
  • Garantir a qualidade e governança dos dados, estabelecendo padrões e boas práticas.
  • Colaborar com times de engenharia e negócio, transformando necessidades estratégicas em soluções baseadas em dados.
  • Requisitos técnicos: Experiência com engenharia de dados e análise de dados.
  • Domínio de Python para manipulação, transformação e análise de dados.
  • Experiência com Airflow e Airbyte para orquestração de pipelines de dados.
  • Experiência em AWS e seus serviços de dados (Glue, Redshift, Athena, EMR, RDS, S3).
  • Forte conhecimento de SQL e otimização de consultas para bancos de dados relacionais e data warehouses.
  • Experiência com PySpark para processamento de dados distribuído.
  • Habilidade com Power BI para construção de relatórios e dashboards.
  • Conhecimento em versionamento de código com Git.
  • Domínio de Excel para análise complementar e manipulação de dados.
  • Diferenciais: Experiência com arquitetura de dados em ambientes escaláveis.
  • Conhecimento em DataOps e governança de dados.
  • Certificações AWS relacionadas a dados.
  • Experiência com modelagem de dados e técnicas de otimização.
  • Modelo de trabalho: Híbrido (presencial na Zona Sul de São Paulo).
  • Empresa de tecnologia com desafios de estruturação e modernização da área de dados.
  • Local São Paulo/SP #vemserICON #J-18808-Ljbffr

Informações Adicionais

  • Quantidade de Vagas 1
  • Jornada Não Informado