Vaga de parceiro

Analista de dados - Florianópolis / SC

Disponível para Assinantes
Salvar nos Favoritos
  • Compartilhe:

Detalhes da Vaga

  • Escolaridade Não Informado
  • Segmento Não Informado
  • Salário Não Informado
  • Área de AtuaçãoDiversos / Outros

O que você irá fazer

  • 125,58 (Pleno) | R$9.
  • 865,74 (Sênior) Benefícios: Vale Alimentação (R$28,00/dia), Vale Transporte, Plano de Saúde, Seguro de Vida e Convênio com SESC.
  • Requisitos: Graduação em Sistemas de Informação, Ciência da Computação ou áreas afins; Experiência de no mínimo 3 (três) anos como Analista de Dados para VAGA NÍVEL PLENO | Experiência de no mínimo 5 (cinco) anos como Analista de Dados para VAGA NÍVEL SÊNIOR.
  • SQL avançado (Select, Insert, Update, Delete) e criação de Views; Python avançado para manipulação de dados e construção de ETLs; Experiência em banco de dados relacionais (PostgreSQL, SQL Server, MySQL) e não relacionais (Elastic Search e MongoDB); Conhecimento avançado de modelagem de dados e arquitetura de dados; Experiência com ferramentas de automação, integração e transformação de dados (Pentaho, por exemplo); Vivência com dados não estruturados (logs, textos) e estruturados (planilhas, bancos); Conhecimento em GIT e APIs; Experiência com mensageria (RabbitMQ, Kafka), Airflow e Linux (básico/intermediário); Métodos ágeis (Scrum) e boas práticas de versionamento (Git/GitHub/GitLab).
  • Atividades: Projetar e desenvolver pipelines de dados (ETLs) robustos e otimizados utilizando Python e outras ferramentas para extrair, transformar e carregar dados de diversas fontes (bancos de dados, APIs, arquivos, etc.
  • ).
  • Implementar estratégias eficientes de tratamento de erros e qualidade de dados nos pipelines de ETL.
  • Automatizar a execução e monitorar o desempenho dos pipelines de ETL utilizando ferramentas como Airflow ou outras soluções de orquestração.
  • Projetar e implementar modelos de dados eficientes e escaláveis para suportar as necessidades de análise e geração de relatórios, considerando tanto bancos de dados relacionais quanto não relacionais.
  • Otimizar o desempenho de bancos de dados através da criação de índices, views materializadas e outras técnicas de otimização de consultas.
  • Projetar e implementar APIs RESTful para acesso e manipulação de dados, garantindo a performance, segurança e escalabilidade.
  • Documentar as APIs utilizando padrões como Swagger ou OpenAPI.
  • Manipular e transformar dados de diversas fontes, incluindo dados estruturados (bancos de dados, planilhas) e não estruturados (logs, textos), utilizando Python e SQL.
  • Realizar análise exploratória de dados para identificar padrões, tendências e anomalias.
  • Implementar soluções de tratamento e limpeza de dados para garantir a qualidade e consistência das informações.
  • Utilizar ferramentas de ETL (como Pentaho) para automatizar processos de integração e transformação de dados.
  • Implementar soluções de mensageria (RabbitMQ, Kafka) para garantir a comunicação eficiente entre sistemas e aplicações.
  • Utilizar Git/GitHub/GitLab para versionamento de código e colaborar efetivamente com outros membros da equipe utilizando métodos ágeis (Scrum, Kanban).
  • Documentar os processos, sistemas e soluções implementadas, incluindo fluxos de dados, modelos de dados e configurações de sistemas.
  • Participar na definição da estratégia de dados da empresa.
  • Mentorar membros da equipe em práticas de desenvolvimento de dados.
  • Investigar e avaliar novas tecnologias e ferramentas de dados.
  • #J-18808-Ljbffr

Informações Adicionais

  • Quantidade de Vagas 1
  • Jornada Não Informado