Vaga de parceiro

Pessoa Engenheira de Analytics Sênior - Florianópolis / SC

Disponível para Assinantes
Salvar nos Favoritos
  • Compartilhe:

Detalhes da Vaga

  • Escolaridade Não Informado
  • Segmento Não Informado
  • Salário Não Informado
  • Área de AtuaçãoDiversos / Outros

O que você irá fazer

  • O profissional deve conduzir a estratégia de Dados da área, habilitando os líderes para fazer a gestão Data Driven.
  • Transforme grandes quantidades de dados em datasets que simplificam o processo de traduzi-los em ações que maximizam a experiência de nossos clientes.
  • Suas principais entregas: Desenhar e construir soluções para automatizar rotinas de processamento de dados em larga escala baseado em tecnologias como Python, Spark, Banco de dados Hive e Google Cloud Platform (GCP), garantindo eficiência e escalabilidade.
  • Construção e manutenção de pipelines de dados que integram APIs externas para enriquecimento de dados e construção de históricos, assegurando a integridade e qualidade das informações; Trabalhar junto aos cientistas de dados do time para integrar modelos de ML às demandas da operação.
  • Exemplo: Refatorar e otimizar modelos de Machine Learning, especialmente aqueles baseados em Large Language Models (LLMs), utilizando o Google Cloud Vertex AI para melhorar desempenho e redução de custo.
  • Garantir a visibilidade do processo diário de atualização dos dados, buscando eficiência das cargas, proposição de alteração de janelas de horário, etc Estabelecer padrões e melhores práticas para o ciclo de vida de desenvolvimento de pipeline de processamento de dados desde a concepção até a operacionalização.
  • Propor e implementar soluções arquiteturais inovadoras em engenharia de dados e MLOps, avaliando novas tecnologias e melhores práticas do mercado.
  • Perfil que buscamos: Graduação em TI, Ciência da Computação, Engenharia da Computação, Estatística ou áreas afins; Experiência em engenharia de dados, com participação de projetos de enriquecimento de grandes volumes de dados e/ou operacionalização de modelos de Machine Learning.
  • Vivência em projetos estratégicos interdepartamentais Domínio de Python aplicado a processamento de dados; Experiência sólida com Google Cloud Platform (GCP) (como Vertex AI, BigQuery, Cloud Storage e Cloud Functions).
  • Proficiência em arquiteturas de dados e padrões de design para grandes volumes de dados.
  • Experiência sólida com sistemas de processamento distribuído, como HQL ou Apache Spark.
  • Conhecimento em conceitos e práticas de Big Data, incluindo Data Lakes, Data Warehouses e Data Lakehouses.
  • Experiência em integração de APIs para ingestão e enriquecimento de dados.
  • Conhecimento em segurança de dados e conformidade, incluindo governança de dados e controle de acesso.
  • Será considerado um diferencial Experiência com o ecossistema Hadoop.
  • Conhecimento em MLOps, incluindo práticas de CI/CD para modelos de ML, versionamento de modelos, construção de pipelines de modelos, monitoramento e automação de deploys.
  • Experiência com orquestração de workflows utilizando Apache Airflow ou Google Cloud Composer.
  • Experiência com infraestrutura como código, utilizando ferramentas como Terraform.
  • Familiaridade com outras plataformas de cloud, como Azure ou AWS.
  • Familiaridade com contêineres e orquestração de contêineres, como Docker e Kubernetes.
  • Certificações profissionais, como Google Professional Data Engineer ou Google Professional Cloud Architect.
  • #J-18808-Ljbffr

Informações Adicionais

  • Quantidade de Vagas 1
  • Jornada Não Informado