O Que Não Fazer na Análise de Indicadores (ou como somos manipulados pelos números)
A matemática, também conhecida como “Rainha das Ciências”, carrega consigo a força dos números e a grandeza da exatidão. Por isso, quando colocada em alguma discussão ou apresentação através de números ou gráficos, há uma tendência de maior valorização do argumento que a utiliza. Indicadores, resultados quantitativos, levantamentos e estudos numéricos tendem a ser vistos como um embasamento mais rico, mais “exato” ou “científico”. Por isso, tendem a dar mais segurança ao interlocutor, embora nem sempre isso seja verdadeiro.
Isso acontece porque a matemática não erra, mas as pessoas sim. Nossas análises podem ser distorcidas por vieses conscientes ou inconscientes. Um caso clássico é que correlação não indica causalidade. Por exemplo, se lhe for dito que nos últimos três anos 100% dos empresários que fecharam as portas dos seus negócios possuíam celular, você vai deixar de ter seu aparelho? É claro que este é um exemplo aparentemente absurdo, mas introduz como podemos ser enganados e por vezes nem perceber.
Perceba agora este exemplo mais sutil: na década de 80, os economistas Daniel Kahneman (Nobel da Economia em 2002) e Amos Tversky realizaram uma experiência muito interessante, relatada no livro Os Números (não) Mentem. Esse exemplo dá clareza de como a aversão ao risco bloqueia o pensamento claro na tomada de decisões.
O enunciado da experiência dizia que os EUA estavam tendo o surto de uma doença e havia duas possíveis maneiras para combatê-la:
Uma aparentemente mais conservadora, que tinha grande chance de funcionar, mas que só poderia ser aplicada em poucas pessoas e não faria efeito no resto da população.
Outra aparentemente mais arriscada que poderia funcionar em muitas pessoas, mas com taxa de sucesso muito baixa.
Estas estratégias seriam apresentadas ao público, que deveria escolher com qual o governo deveria proceder.
Estatisticamente, as duas estratégias salvariam o mesmo número de pessoas (exemplo: 50% de chance de funcionar em 18 milhões de pessoas salvaria 9 milhões de pessoas ou 3% de chance de funcionar em 300 milhões de pessoas, que também salvaria 9 milhões de pessoas). Com isso, o esperado é que a divisão entre as respostas fosse de 50% para cada uma das alternativas, já que seriam estatisticamente equivalentes e produziriam os mesmos resultados finais.
Mas a forma de obter os resultados foi descrita de forma diferente. A primeira estratégia enfatizava a alta taxa de salvamento, apesar de funcionar num número baixo de pessoas. A segunda enfatizava que era um tratamento de menor efetividade, mas que poderia ser aplicado num número muito maior de pessoas. O primeiro teve muito mais aceitação porque pessoas se deixaram influenciar pela forma com que os tratamentos estavam descritos. O segundo experimento parecia mais arriscado. A “aversão ao risco” é um fator que nos leva a decisões piores sem nos darmos conta de como estamos decidindo.

Outro exemplo mais próximo é o dado (tão usado como propaganda política) que afirma que o Brasil é um dos países que mais investe em educação no mundo como percentual do PIB. Uns utilizam isso para enaltecimento, outros para denunciar corrupção e má administração.
Apesar de ser um dado verdadeiro, é preciso ser colocado em contexto: de fato investimos maior porcentagem do PIB em educação do que grande parte dos países desenvolvidos, mas deve-se atentar que a pirâmide etária desses países é completamente diferente, tendo uma quantidade relativa de jovens consideravelmente menor que a do Brasil.
Por isso, o investimento por aluno seria o indicador mais correto a analisar. E quando isso é visto, estamos bem atrás dos países desenvolvidos, com aproximadamente 50% do investimento por aluno. Aqui é o caso clássico do uso do indicador errado para comparação do desempenho.
Muitas vezes indicadores inadequados para análises são utilizados para reforçar o que já temos como premissa, o chamado viés de confirmação. Isso ocorre quando, em vez de uma análise isenta, buscamos os números que confirmam aquilo que queremos provar. Isso é mais um forte indicador de como somos suscetíveis a um discurso, e quando dados são adicionados a esse discurso, a manipulação fica ainda mais simples, pois temos a tendência de crer em números da forma que nos são apresentados.
Assim, quando são apresentados gráficos e indicadores que causam deslumbramento à primeira vista, é preciso parar e refletir se são de fato tudo aquilo que se apresenta ou se estamos nos deixando guiar pela oratória de quem apresenta. Ou ainda, se estamos projetando algum viés cognitivo como a aversão ao risco ou o viés de confirmação. Procure sempre avaliar de forma crítica e cautelosa se a construção por trás daquele gráfico ou indicador realmente representa o fenômeno que se quer observar. Não se deixe levar pela incerteza disfarçada de certeza que alguns números podem oferecer.
Este texto foi feito em co-autoria com Diogo Souza.
Quer ler mais sobre indicadores? Acesse também estes textos: Como Definir Indicadores; Usando Indicadores na Gestão; O Papel dos Indicadores na Gestão do Desempenho.
Leia mais sobre planejamento estratégico aqui: Planejamento Estratégico para Pequenas e Médias Empresas
Para não perder nenhum texto, acesse https://www.deltaconsulting.com.br/blog e inscreva-se na newsletter semanal.
Acompanhe também o GestãoCast, o podcast da Delta Consulting via Spotify, Deezer ou Apple Podcasts.
Acompanhe o Instagram da Delta Consulting para receber atualizações diárias: https://www.instagram.com/deltaconsultingbr/
O post O Que Não Fazer na Análise de Indicadores (ou como somos manipulados pelos números) apareceu primeiro em Blog da Delta.


