Vaga de parceiro

Data Scientist - Brasília / DF

Disponível para Assinantes
Salvar nos Favoritos
  • Compartilhe:

Detalhes da Vaga

  • Escolaridade Não Informado
  • Segmento Não Informado
  • Salário Não Informado
  • Área de AtuaçãoDiversos / Outros

O que você irá fazer

  • Com 18 anos de atuação em um mercado dinâmico e inovador, somos reconhecidos por nossos clientes e colaboradores pela qualidade e confiabilidade de nossos serviços.
  • Esse reconhecimento é reflexo de valores que cultivamos, como responsabilidade, profissionalismo, flexibilidade e transparência.
  • Estamos altamente capacitados a atender todas as demandas do cliente em relação a software, hardware e conectividade, com a preocupação de adequar as melhores soluções tecnológicas para nossos parceiros.
  • O cientista de dados é responsável por coletar, gerenciar e transformar em modelos utilizáveis uma grande quantidade de dados não estruturados, para que seja possível extrair desse conjunto informações relevantes.
  • É um profissional capaz de interpretar e fazer com que os dados se comuniquem entre si e façam que informações múltiplas ganhem valor agregado e possam se tornar produtos valiosos para o STF.
  • **Atribuições**:Construir pipelines para coletar e processar dados de várias fontes: do ponto de ingestão à disponibilização da informação (streaming ou batch).
  • Configurar pipelines de dados em infraestruturas de nuvem híbrida, utilizando provedores como AWS, Microsoft Azure e GCP.
  • Criar serviço de ingestão de dados para lidar com milhões de eventos mensalmente.
  • Traduzir desafios complexos de negócio em soluções de aprendizado de máquina específicas e bem desenhadas que atinjam os requisitos de negócio.
  • Desenhar e implementar experimentos de aprendizado de máquina.
  • Fornecer orientação técnica para membros menos experientes da equipe.
  • Fazer parceria com outras equipes de engenharia e negócios para integrar os algoritmos aos sistemas em produção.
  • Apoiar na comunicação das descobertas e apresentação de resultados para um público não técnico.
  • Apoiar na definição arquitetural considerando ambientes de desenvolvimento, homologação e produção.
  • Apoiar a estruturação, definição e monitoramento de métricas e indicadores.
  • Apoiar a identificação e realização constante de melhorias - corretivas ou evolutivas - para aperfeiçoar a confiabilidade, integridade, disponibilidade, eficácia, eficiência e qualidade de dados, ferramentas, processos e procedimentos.
  • Apoiar a modelagem, estruturação, definição, documentação e automatização de dados.
  • **Formação Acadêmica (Obrigatória)**:Diploma, devidamente registrado, de curso de nível superior de graduação na área de Tecnologia da Informação ou de graduação em qualquer curso superior, acrescido de certificado de curso de pós-graduação em área de Tecnologia da Informação de, no mínimo, 360 (trezentos e sessenta) horas, fornecido por instituição reconhecida pelo Ministério da Educação (MEC); **Conhecimentos Técnicos(Obrigatórios)**Experiência na configuração, criação e manutenção de pipelines para ingestão e processamento de dados em batch e streaming.
  • Experiência em Python e suas respectivas bibliotecas para ciência/análise de dados.
  • Experiência em frameworks de aprendizado de máquina.
  • Experiência em Banco de dados SQL e noSQL.
  • Experiência com testes de unidade.
  • Conhecimentos em Processamento de Linguagem Natural.
  • Conhecimentos em Apache Spark.
  • Conhecimentos em processamento de dados em lote e streaming.
  • Conhecimentos em práticas ágeis.
  • Conhecimentos em arquitetura de microsserviços.
  • **Conhecimentos Técnicos (desejáveis)**:Conhecimentos em práticas DevOps e DataOps.
  • Conhecimentos em Kubernetes.
  • Conhecimentos em serviços gerenciados em nuvem pública.
  • Conhecimentos em soluções de Data Lakehouse.
  • Contratação CLT + Benefícios, projeto por tempo indeterminado, atuação em Brasília.

Informações Adicionais

  • Quantidade de Vagas 1
  • Jornada Não Informado