Conheça os cases
Passe o mouse para expandir.
Alexandre Martins
Data Marketing Ld.
Meu desafio no TikTok é contruir do zero a área de Data Marketing para LATAM (começando pelo Brasil), com isto posicionar o TikTok como referência em dados localizados e regionalizados da indústria de adtech.
Passe o mouse e conheça o case
Allan Barcelos
Lead Data Scientist
No início de 2022 as fintechs sofreram com um grande aumento no número de fraudes, em especial devido ao lançamento do pix no cartão de crédito. Neste cenário, eu estava atuando com Tech Manager (TM)/ Tech Lead (TL) no PicPay e fui convocado para uma força tarefa com o objetivo de sanar o problema desenvolvendo um classificador para prever possíveis fraudes nas transações e estimar um score de confiança para os cartões adicionados através da plataforma.
Passe o mouse e conheça o case
Data & Analytics Strategy Lead
Dados de Aço. Uma plataforma e framework criados pela Gerdau para execuções de Hackathons online, internos e externos, onde endereçaremos problemas de negócios e da sociedade. A primeira edição focou no tema de ESG - Meio Ambiente e como poderíamos reduzir emissões de GEE (gases de efeito estufa) através do uso de dados e analytics na Gerdau. Em 3 dias de competição, os times multidisciplinares geraram MVPs que estruturam a fundação da gestão baseada em dados (data-driven) para GEE, criando painéis centralizados de Power BI consumíveis por todas as áreas, base mestra de dados no domínio de meio ambiente e 5 análises de Advanced Analytics e Machine Learning para a área (previsibilidade de emissões, consumo de área plantada própria x produção entre outros).
Passe o mouse e conheça o case
Felipe Montanini
Gabriel Lima Gomes
Cientista de Dados Sênior
O objetivo do banco era se antecipar ao lançamento do Open Banking, portanto, tínhamos como meta desenvolver um modelo de machine learning que nos apresentasse a propensão dos respectivos clientes compartilharem seus dados com outros bancos. Assim, a área responsável pelo relacionamento com cliente iria oferecer vantagens/benefícios para o mesmo não pensar em abrir seus dados financeiros com outras instituições, causando então o churn.
As ferramentas utilizadas foram python, pyspark, sklearn e algoritmo de classificação.
Passe o mouse e conheça o case
Gerente de Produto
A ferramenta apresentada utiliza a tecnologia de aprendizado de máquina para abordar um problema crítico na cadeia de produção no setor agrícola. Com o objetivo de melhorar a satisfação do cliente, foram desenvolvidos e treinados 4 modelos de previsão, baseados em atributos do produto e do comprador.
O resultado deste esforço foi a integração da previsão a uma interface gráfica, que permite aos usuários avaliar visualmente os riscos de decisão de negócio. Além de fornecer uma solução eficaz para o desafio em questão, o uso da ferramenta também demonstrou ser uma estratégia rentável, resultando em economia expressiva em apenas um ano.
Este caso destaca a capacidade do aprendizado de máquina em resolver problemas complexos e melhorar a eficiência dos negócios. É importante destacar que este tipo de solução não só melhora a qualidade dos resultados, mas também permite a automatização de processos manuais, liberando tempo para que os profissionais possam se concentrar em outras atividades estratégicas.
Passe o mouse e conheça o case
Gabriel Mattar
Heverton Anunciação
Fundador da Universidade do Consumidor
Eu criei a trilogia CX, onde uno profissionais de atendimento ao cliente (CX), de metodologias e cientistas de dados que unidos podem ajudar a empresas a oferecerem a melhor experiência do cliente
Passe o mouse e conheça o case
Iago Martins Boucinha
Data Engineering & AI Manager
Tenho dois projetos recentes de igual importância para mim, não tenho como citar um sem mencionar o outro. Eles possuem áreas de atuação completamente diferentes, mas a abordagem utilizada em relação aos dados foi bem parecida.
O primeiro foi a implementação de um modelo de avaliação de risco financeiro voltado para pessoas físicas, este foi o primeiro modelo de AI implementado no Banco DLL. Hoje, essa aplicação é utilizada para tomada de decisão automática no processo de liberação de crédito, bem como para ajustes em seus limites, sempre de acordo com o apetite de risco da organização. Por ter sido o primeiro modelo implementado, foi necessário iniciar o desenvolvimento partindo do zero, desde a procura pelos dados até a arquitetura do ambiente produtivo.
O segundo projeto é relacionado a partidas de futebol, criei um modelo responsável por avaliar partidas de futebol, precificando as probabilidades dos resultados. Ele foi feito para encontrar falhas de precificação no mercado de apostas, permitindo que as mesmas sejam corrigidas ou até mesmo exploradas."
Passe o mouse e conheça o case
Lucas Lisboa
Gerente de projetos e TI
Passe o mouse e conheça o case
Matheus Tocchini
Data Science Lead
Construção de um corpus referência de potencial abusividade de contratos de termos de uso e de serviço e de políticas de privacidade, em relação à legislação consumerista e de proteção de dados brasileira, e aplicação de processamento de linguagem natural (NLP) e de machine learning para determinação das potenciais abusividades.
Passe o mouse e conheça o case
Rafael Sandroni
MLE
Passe o mouse e conheça o case
Democratização de AI na América Latina: A Metatext.ai é uma ferramenta SaaS de ML No-code e colaborativa que permite desenvolvedores e analistas, sem treinamento prévio, prototipar, desenvolver e manter modelos de ML em produção. Atingimos a marca de mais de 1.000 modelos de NLP criados na plataforma, resolvendo problemas do mundo real como moderação de conteúdo, roteamento de tickets em central de atendimento e categorização de documentos. Por trás de UI com jornada guiada, simplificamos explainability, versionamento, monitoramento e feedback looping (retraining). Usamos Large Language Models (LLM) para reduzir os esforços em anotação de dados, pipelines para re|treinamento e inferência real-time.
O projeto Smart Operations utiliza técnicas de Machine Learning e Visão Computacional para a aumentar a segurança e eficiência nas operações de plataformas de petróleo. Trata-se de um trabalho de pesquisa e desenvolvimento focado na criação de MVPs para a identificação de casos de uso - utilizando as câmeras de segurança das plataformas. As aplicações vão desde a identificação de problemas de segurança, como o não uso de equipamentos de proteção individual, até o aumento de eficiência e medição de KPIs operacionais. Esse projeto apresentamos em alguns eventos de Oil&gas além de gerar uma patente nos EUA.
Thays Maia de Sa
Gerente de Arquitetura de Dados
Pretendo trazer um case que participei recentemente na TIM de arquitetura de dados para migração de ambiente onprem para nuvem, abordando custos e ferramentas.
Passe o mouse e conheça o case
Rafael Soares
Senior manager
O projeto Smart Operations utiliza técnicas de Machine Learning e Visão Computacional para a aumentar a segurança e eficiência nas operações de plataformas de petróleo. Trata-se de um trabalho de pesquisa e desenvolvimento focado na criação de MVPs para a identificação de casos de uso - utilizando as câmeras de segurança das plataformas. As aplicações vão desde a identificação de problemas de segurança, como o não uso de equipamentos de proteção individual, até o aumento de eficiência e medição de KPIs operacionais. Esse projeto apresentamos em alguns eventos de Oil&gas além de gerar uma patente nos EUA.
Passe o mouse e conheça o case
Ricardo Santana Diniz
Sócio líder em dados e inteligência artificial
A gestão de terceiros tem sido um desafio de grandes empresas. Através de mais de 200 fontes de dados publicas e feeds de notícias criei uma plataforma de dados (Kpmg Watch) que gera um algoritmo de score de risco para que gestores de riscos se apoiem em suas decisões. Atualmente mais de 80 empresas no Brasil e no exterior tem utilizado esta solução analítica para monitorar riscos de terceiros. A plataforma tem uma arquitetura totalmente escalável pautada em cloud e microservicos. Sua arquitetura permite rápida integração nos sistemas empresariais. Ela é multilíngua e conecta com diversas fontes externas do Brasil e exterior.
Passe o mouse e conheça o case
Vinicius Vale
Líder de Engenharia de Dados
Desafios de montar um DataWarehouse 2.0
Somos responsáveis por trazer dados do Transacional (OLTP) e agrupá-las em informação no DataWarehouse (OLAP) para as áreas de negócio. Essas informações precisam ser confiáveis, pois são usadas por toda a empresa, principalmente o financeiro (Contabilidade, Controladoria e FP&A). O ambiente foi construído em cima do SQL SERVER, e perdeu desempenho com o tempo, além de sofrer com o aumento no número de usuários, tornando-se inviável para companhia. Foi feito um trabalho de levar toda a estrutura para um ambiente Big Data na GCP com o BigQuery, deixando o ambiente mais robusto para as novas demandas de negócio. Com o Data Lake disponível, foi possível desenvolver o DataWarehouse 2.0 usando a plataforma de dados SnowFlake. Para essa construção tivemos o auxílio do Airflow, um orquestrador de pipelines, que nos ajudou nessa mudança, pois há a necessidade de manter o ambiente antigo e o novo por um período.
Como estamos falando do setor financeiro, onde regras e normas precisavam ser seguidas, gastamos parte da nossa energia na camada de governança e qualidade do dado, usando metodologia DMBOK, que estão sendo implantados no ambiente a fim de gerar informações com qualidade e assertividade. Com isso, saímos de um ambiente caótico, onde não tínhamos visibilidade dos problemas, para algo mais sadio e com observabilidade, onde, hoje, recebemos alerta no Slack quando algo sai da normalidade. Sabemos que ainda temos muitas ações para fazer, mas vencemos grandes batalhas em 2022.
Passe o mouse e conheça o case
Willian Rocha
Associate Director - Data Architect
Passe o mouse e conheça o case
Primeiros passos para a implantação de Data Mesh.