A possibilidade de analisar um volume inédito de dados digitais — chamado de big data — é, para as empresas, uma revolução comparável à popularização da internet
Dois anos atrás, a Maplink, empresa brasileira especializada em digitalização de mapas, colocou em xeque a credibilidade dos anúncios da Companhia de Engenharia de Tráfego (CET) da cidade de São Paulo. A MapLink começou a calcular o volume de trânsito na capital paulista, tarefa então exclusiva da estatal.
Nas primeiras horas de um feriadão, ao mesmo tempo que a CET divulgava os 200 quilômetros habituais de ruas congestionadas, as rádios que usavam o serviço da MapLink informavam 420 quilômetros. Alguém estava errando a conta, e não foi difícil descobrir quem era.
Enquanto a CET utiliza câmeras espalhadas pelas principais vias da cidade e o “olhômetro” de seus fiscais de trânsito para calcular o índice de congestionamento nos horários de pico, o software da MapLink, usado por empresas de rastreamento por satélite, cruza, em tempo real, as informações enviadas por cerca de 400 000 veículos espalhados pela cidade.
Se eles estão parados, há congestionamento. Andando em velocidade baixa, trânsito. Se a velocidade for plena, a pista está livre. A precisão é tanta que hoje, além dos mapas, a Map-Link vende informações sobre o trânsito para companhias de logística decidirem os melhores horários e rotas para suas entregas.
Esse é um dos muitos exemplos de uso do que se convencionou chamar de big data, ou “grandes informações”, numa tradução livre. Nos últimos anos, os especialistas em TI viram a emergência de dois novos fenômenos. A produção de informações continuou aumentando a uma velocidade espantosa — taxa de 50% de crescimento ao ano —, mas, ao contrário do que acontecia no passado, não se tratava de mais do mesmo.
Os dados mudaram. Não são somente textos e números dos 640 milhões de sites. Passaram a ser informações vindas dos sensores de localização em veículos (como os usados pela MapLink), dos GPSs e das antenas dos 6 bilhões de celulares em uso no mundo e dos 2,7 bilhões de comentários feitos no Facebook diariamente.
Essa mudança veio acompanhada de outra igualmente importante. Os computadores, graças a novas tecnologias, como a inteligência artificial, aumentaram a capacidade de entender as informações — e é essa nova conjunção de fatores que está transformando companhias de setores totalmente distintos, do varejo ao de petróleo e gás.
“Para as empresas, o surgimento do big data é uma revolução comparável à massificação da web registrada no começo da década de 90”, diz Adam Daum, analista-chefe da Canalys Research, empresa inglesa de pesquisas em tecnologia.
Hoje, 90% do volume de dados digitais produzidos globalmente ainda não são digeridos, mas essa é uma situação que começa a mudar. A americana Walmart, a maior varejista do mundo, é considerada uma referência por conseguir colher dados online para impulsionar as vendas de suas lojas físicas.
Os softwares desenvolvidos pela empresa conseguem, por exemplo, monitorar quando a discussão sobre o campeonato de futebol americano se intensifica na internet em diferentes cidades dos Estados Unidos. Sabendo disso, em questão de horas os gerentes de lojas dessas regiões passam a expor nas vitrines produtos de determinados times.
Hoje, o Walmart tem mais de 12 sistemas diferentes que processam, diariamente, cerca de 300 milhões de atualizações de internautas em redes sociais, como o Facebook e o Twitter. A demanda interna por soluções de big data levou a varejista a criar em 2011 a WalmartLabs, uma subsidiária de tecnologia que nasceu da compra da Kosmix, uma startup americana.
A Kosmix ganhou fama em 2010 ao desenvolver um sistema que ajuda no gerenciamento de estoques das varejistas durante a black friday (sexta-feira negra), em novembro, principal dia de queima de estoques do varejo nos Estados Unidos. O software da Kosmix detecta, pela localização dos celulares dos clientes, o número de pessoas em cada loja. Com essa informação, os estoques de unidades que estão com vendas em baixa são enviados para as que estão vendendo mais.
Big demand
Casos como o do Walmart inspiraram varejistas no Brasil. A Lojas Renner, uma das maiores redes de vestuário do país, investiu em 2010 em um sistema que comparava, em tempo real, as vendas de suas mais de 150 lojas. Com isso, foi possível identificar números fora do padrão.
Nos dias em que as unidades localizadas em lugares frios vendiam muitos casacos, os gerentes das lojas com desempenho abaixo da média recebiam um aviso do sistema para mudar a posição do produto na vitrine. Em uma fase mais recente, o projeto ficou mais sofisticado.
Ao lançar uma coleção, a Renner posta fotos de algumas peças no Facebook e verifica a aceitação do público. Isso ajuda na hora de prever o estoque necessário de cada produto. Diariamente, os gerentes das lojas recebem relatórios que consolidam dados como a previsão do tempo e comentários em redes sociais. “O software não ajuda só a reunir as informações. Também seleciona o que é confiável”, afirma Leandro Balbinot, diretor de TI da Renner.
O mercado de big data já movimenta 26 bilhões de dólares em todo o mundo. Das 500 maiores companhias globais, 450 têm projetos nessa área. Como a partir de agora empresas de menor porte devem passar a usar essa ferramenta, estima-se que o mercado de big data chegue a 38 bilhões de dólares em 2015.
“É uma realidade que deve perdurar pelos próximos anos. A necessidade não foi inventada pelas fornecedoras de TI, que querem vender seu peixe”, afirma Anderson Figueiredo, analista da consultoria americana de tecnologia IDC. “Empresas de diferentes setores querem usar melhor os dados disponíveis.”
Confiantes nesse cenário, as grandes da área de tecnologia estão investindo para atender à demanda. Só a IBM aplicou 14 bilhões de dólares nos últimos cinco anos para comprar 24 empresas de análise de dados. A americana EMC, especializada em tecnologia de armazenamento, investiu recentemente 100 milhões de dólares em um centro de pesquisas no Rio de Janeiro.
O objetivo é dar apoio a empresas do setor de petróleo e gás, como a Petrobras. A estatal brasileira usa softwares de big data que analisam milhares de dados sobre o desempenho de suas máquinas e as condições dos poços. Em junho, a Petrobras anunciou investimento de 15 milhões de reais em um supercomputador para processar as informações colhidas na camada do pré-sal.
O Grifo04, o número 68 da lista dos 500 computadores mais poderosos do mundo e o primeiro da América Latina, foi desenvolvido pela Itautec para ter capacidade de fazer 1 quatrilhão de operações matemáticas por segundo.
“Sem o big data seria impossível planejar a exploração do pré-sal, com os seus milhares de variáveis relacionadas a áreas como segurança e resistência dos equipamentos”, afirma Karin Breitman, diretora do centro de pesquisa da EMC.
Um estudo recente da consultoria McKinsey sobre o setor mostra que, com a implantação de tecnologias de big data, é possível diminuir o número de funcionários dedicados a análise de dados em 15% e aumentar a produtividade 5%.
Até mesmo o setor financeiro, já altamente informatizado, está interessado na novidade. De acordo com a empresa irlandesa Experian, especializada em serviços de análise de crédito e marketing, o interesse dos bancos é crescente. Há dois anos, a unidade brasileira do grupo, a Serasa Experian, aplicou 7 milhões de dólares em computadores que conseguiram acelerar 30 vezes a velocidade de processamento de dados.
São essas máquinas que têm permitido à empresa prestar novos serviços de administração de carteiras de crédito — principalmente para bancos médios. Agora a Serasa Experian consegue fazer o monitoramento diário do perfil de correntistas, varrendo 150 milhões de variáveis, entre notícias de sites, dados de cartórios e de eventuais compras no varejo.
Segundo a empresa, isso permite captar com mais precisão os nomes de maus e bons pagadores e ajudar os bancos a reduzir a inadimplência. “Com o acesso a informações públicas, conseguimos comparar e avaliar mais de 100 fontes”, diz Lisias Lauretti, diretor de TI da Serasa.
Apesar de todo o entusiasmo gerado pelo big data, há quem diga que as previsões estão muito otimistas. Na opinião do americano Peter Fader, professor de marketing da escola de administração Wharton, da Universidade da Pensilvânia, as companhias precisam tomar cuidado para não superestimar a tecnologia.
Segundo ele, as empresas estão criando uma falsa ilusão de que basta apertar um botão e esperar que as máquinas digam o que tem de ser feito. “A análise sempre vai depender de trabalho e raciocínio humanos”, diz. Pelas estimativas da consultoria McKinsey para 2018, somente no mercado americano haverá um déficit de até 190 000 profissionais com habilidades profundas de análise e de 1,5 milhão de gerentes aptos a tomar decisões com base em relatórios dos sistemas.
Um dos maiores obstáculos para a consolidação do big data diz respeito ao debate em torno da privacidade. Muitos dos dados processados são informações pessoais disponibilizadas livremente na web por parte de seus cerca de 2 bilhões de usuários. O Facebook, que reúne quase 1 bilhão de pessoas, ganha dinheiro com quem não se importa em contar sua vida e seus hábitos em troca de um serviço de comunicação gratuito.
Hoje, a exibição pública é tamanha que há quem fale numa ressignificação do conceito de privacidade. Mas a possibilidade de uma eventual reação negativa ao atual nível de exposição não está de todo descartada. Para muita gente, soa invasivo um supermercado ter acesso à localização de uma pessoa pelo GPS para poder enviar uma mensagem assim que ela entra numa loja.
“Esse é um debate que deve durar uma década”, diz Scott Anthony, diretor da consultoria de inovação americana Innosight. Por enquanto, a elite mundial, reunida anualmente no Fórum Econômico Mundial, em Davos, na Suíça, mantém o otimismo. No relatório do último evento, a opinião da maioria foi resumida da seguinte forma: “Os riscos e os desafios do big data não vão superar as oportunidades”. Nos 5 segundos que se leva para ler a frase acima, 144 000 posts e 17 000 fotos são publicados no Facebook.
Fonte: revista Exame
Leave A Comment