Dados verdadeiros podem sustentar conclusões falsas
— e é aí que mora o perigo.
Algum tempo atrás, vi circular uma matéria local que usava números públicos da Ouvidoria do MDH (Ministério dos Direitos Humanos e da Cidadania) para sugerir um diagnóstico pesado sobre “violência” contra um grupo vulnerável, apoiando-se num “Top 10” e em um total bruto de registros. A matéria não parece inventar números; o problema é mais sofisticado: ela usa dados reais como alavanca para uma inferência que não decorre do que foi medido.
Apesar da baixa circulação do jornal em questão, considerei que a matéria mencionada oferece cenário particularmente útil para explicações didáticas. O jornal cometeu um tipo de erro que passa batido porque muita gente entende checagem como um jogo binário (“o número existe?”). Só que o estrago maior costuma acontecer depois do número: na tradução do dado em narrativa, na confusão entre unidades de medida, na ausência de proporcionalidade e no salto causal, chegando a conclusões que o número não autoriza - mas parece autorizar.
Fraudes como essas são cometidas de maneiras intencionais, por preguiça ou por incompetência em diversos meios: jornais, conselhos de especialistas em investimentos, livros de aparentes autoridades, etc.
Eu resolvi demonstrar o que qualquer pessoa deveria fazer quando pretende desenvolver, com honestidade, posicionamento próprio sobre um determinado tema: buscar os dados originais, entender o que exatamente está sendo contado e testar se a conclusão é logicamente autorizada. Em outras palavras: menos “fact-checking”, mais auditoria de inferência — porque é perfeitamente possível fabricar uma grande mentira sem mentir sobre os dados.
—--------
Veja a notícia e entenda como ela leva o leitor ao erra:

Mesmo sem inventar nada, a matéria induz o leitor a aceitar a seguinte cadeia de proposições:
P1) “O município aparece no Top 10 de violações da Ouvidoria.”
P2) Dado que P1 é verdadeira, “O município está entre os que mais agridem pessoas LGBTQIAPN+ no RS”
P3) “Entre janeiro e setembro, houve 36 ocorrências envolvendo discriminação, agressões, exploração sexual, maus-tratos e tráfico [no município].”
P4) “Logo, isso descreve uma realidade local particularmente preocupante.”
P5) “E isso [P4] é reforço de que faltam políticas públicas estruturadas para atender e proteger diversidade sexual e de gênero.”
O ponto crítico é relativamente elementar: mesmo que P1 (“O município aparece no Top 10 de violações da Ouvidoria.”) use um número real, P2 (“O município está entre os que mais agridem pessoas LGBTQIAPN+ no RS” ) não decorre automaticamente dele. Entre “um painel registrou X” e “o município tem um problema grave por ausência de políticas públicas” existe um abismo lógico e metodológico: unidade de medida, proporcionalidade, subnotificação, causalidade, comparação com municípios equivalentes e, principalmente, definição de “Violações”.
Com isso em mãos, dá pra fazer a auditoria mínima do jeito certo.
ANÁLISE
1) A própria afirmação “Top 10” é instável sem a unidade explícita
No momento em que eu verifiquei, a cidade aparecia como 11ª no ranking (isso pode oscilar por atualização do painel, recorte temporal e filtro). O ponto não é “pegar no detalhe do 8º versus 11º”; o ponto é que, sem explicitar o que é o ranking (violações? denúncias? protocolos? Ocorrências?, “Top 10” vira peça retórica. E mesmo explicitando qual destas métricas é medida, ainda é preciso expor o que exatamente o termo representa.
2) “36 ocorrências”, não significa “36 casos” (e nem “36 vítimas”)
O erro mais custoso é trocar a unidade de análise. A matéria usa, na chamada “36 violações”. Dentro do texto, usa “36 ocorrências” (o que agrava o erro, já que parece um termo guarda-chuva que poderia se confundir com o número de protocolos ou denúncias). A terminologia utilizada pelo Ministério dos Direitos Humanos inclui:
- Protocolo é o registro formal de entrada no sistema (uma ligação, ou um registro online, por exemplo). Em uma única ligação, um registrante pode registrar múltiplas denúncias.
- Denúncia é um registro de conteúdo denunciado, contendo uma relação agressor(es) <-> agredido(s). Pode conter múltiplas Violações.
- Violação é uma categoria do que foi relatado (granularidade interna do relato). Uma única situação, relatada em um único protocolo, com uma única denúncia, pode conter múltiplas violações (agressão verbal, agressão física, etc)
Quando alguém lê “36” como “36 ocorrências/casos”, a percepção de incidência pode inflar artificialmente. E, como veremos com maior detalhamento no tópico 3, neste caso foi inflado 18 vezes.
3) O que aparece quando você olha o painel com mais rigor
Na leitura direta do painel, reproduzi o recorte indicado pela matéria com adição de apenas 1 dia. Isto é: a matéria no jornal foi publicada no dia 23/10/2025, no dia 24/10/2025 eu acessei os mesmos paineis do MDH, reproduzi os mesmos filtros indicados (Período, 01/2025 - data da apuração; Grupo Vulnerável: Violência Contra a População LGBTQIA+). Os números relevantes não sustentam a narrativa sugerida:
- O município aparece em 11º no ranking naquele momento (uma variação de 3 colocações em relação ao que a matéria apontava no dia anterior - como não verifiquei se esta oscilação ocorreu, a considerei em toda minha análise como verdadeira).
- Mais importante: 36 violações não significam 36 denúncias, e muito menos 36 situações.
- No recorte observado, o município teve 4 denúncias, originadas de 2 protocolos (isto é: pouquíssimas entradas efetivas no canal).
- Para estimar “quantidade de situações” e orientar decisão pública, denúncias e protocolos tendem a ser mais informativos do que “violações”, porque se aproximam mais do número de entradas (ainda com grandes limitações).
Resumo: o dado não é “mentira”. A interpretação é que está desalinhada com o que o dado mede. Um único Protocolo (ligação ou registro online) de 07/25 continha 3 denúncias, com 27 Violações. Um segundo Protocolo único registrado em 06/25 continha 1 denúncia com 9 violações. Estes foram os únicos 2 Protocolos registrados para o município de Bento Gonçalves em todo ano de 2025 - não houve nenhum novo registro entre a data da verificação e o fim de 2025.
4) O erro adicional: comparar contagem bruta sem proporcionalidade
Ranking bruto quase sempre engana. Algumas opções mais razoáveis seriam normalizar por população (ex.: por 100 mil habitantes) e comparar municípios semelhantes.
O município em questão tem porte compatível com posições intermediárias em rankings estaduais. Sem taxa per capita, você não sabe se está vendo:
- um problema real de incidência;
- um efeito de população - ter mais casos apenas por ter maior total populacional;
- um efeito de maior uso do canal (mais denúncias porque mais gente denuncia, sem necessariamente ter mais casos);
- ou o contrário: subnotificação (pouco uso do canal apesar de incidência real).
5. O erro mais grave não é “o número”: é a interpretação do ranking dentro do próprio sistema
A matéria tenta sustentar, a partir do recorte LGBTQIAPN+, a tese de que Bento Gonçalves teria “ausência de políticas públicas estruturadas para atender e proteger a diversidade sexual e de gênero”. Ainda que a manchete pareça plausível à primeira vista, esse diagnóstico não se sustenta quando se faz uma checagem interna simples, usando o mesmo painel e a mesma lógica de ranking aplicada pela própria matéria.
5.1. A comparação que a matéria deveria ter feito (e não fez)
Se o método proposto pelo jornal é “inferir qualidade de política pública a partir da posição no ranking do painel”, então o mínimo de honestidade analítica exige comparar:
- a posição de Bento no ranking de violações/denúncias contra LGBTQIAPN+, versus
- a posição de Bento no ranking geral de violações/denúncias (isto é, violações de direitos humanos contra todos os grupos vulneráveis).
Quando fazemos essa comparação, o quadro muda imediatamente: a posição de Bento no ranking geral-estadual também é 14º (tanto em quantidade de violações quanto em quantidade de denúncias). Isso indica que o município não se destaca por uma suposta “ausência de políticas públicas estruturadas” especificamente para diversidade sexual e de gênero. O padrão que o próprio painel sugere é outro: Bento Gonçalves parece ter deficiência de políticas (ou de efetividade institucional) para conter violações de direitos humanos de modo geral.
Em outras palavras: se alguém insistir em “explicar” ranking por “política pública”, a explicação mais parcimoniosa — usando exatamente o mesmo portal e o mesmo tipo de dado — é que o problema é sistêmico, e não setorial. Inclusive, dentro desse recorte, o ranking de Bento em LGBTQIAPN+ fica até um pouco menos ruim do que o ranking geral.
Essa simples checagem interna é o que derruba a narrativa de especificidade (“Bento é um caso de falha específica contra LGBTQIAPN+”) e recoloca a discussão em termos mais acurados: a cidade pode estar mal posicionada em direitos humanos como um todo, o que exige outro tipo de diagnóstico e outro tipo de resposta.
5.2. Mesmo que alguém queira insistir na tese “faltam políticas”, ainda assim há um salto não autorizado
Mesmo que o número fosse alto, a inferência “logo faltam políticas públicas estruturadas” exigiria, no mínimo, algo que a matéria não fornece:
- desenho institucional local (rede, serviços, portas de entrada);
- orçamento, cobertura e acesso (pode haver política pública “no papel”, mas de baixa qualidade, mal executada ou sem capilaridade);
- barreiras de denúncia (subdimensionamento por desconhecimento ou desconfiança do canal);
- comparação com municípios equivalentes (porte populacional, renda, urbanização, etc.).
Sem isso, a manchete não é diagnóstico: é retórica.
5.3. O ranking bruto ignora escala: Bento é a 16ª cidade do estado em população
Mesmo aceitando o método defeituoso de leitura por ranking, há um ajuste elementar que a matéria também ignora: a escala populacional. Bento Gonçalves é aproximadamente a 16ª cidade do RS em número de habitantes. Isso importa porque rankings absolutos tendem, por inércia estatística, a concentrar mais registros em municípios maiores — não necessariamente porque sejam “piores”, mas porque têm mais gente, mais interações sociais e mais volume de eventos denunciáveis.
Nesse contexto, uma posição em torno de 14º em quantidade de violações e denúncias — tanto no recorte LGBTQIAPN+ quanto no ranking geral — se torna, no mínimo, razoavelmente condizente com a proporção populacional do município, quando comparado às outras cidades do estado. Em outras palavras: mesmo antes de discutir causalidade, a leitura correta deveria perguntar se Bento está acima do que sua escala populacional “prediz” ou apenas ocupando uma faixa compatível com seu porte.
Se a intenção fosse produzir uma análise minimamente acurada, o jornalista deveria abandonar o fetiche do ranking bruto e calcular taxas por habitante (por exemplo, por 100 mil habitantes) ou, ao menos, apresentar a posição de Bento lado a lado com a posição populacional, justamente para evitar que o leitor confunda “posição alta no ranking” com “realidade excepcionalmente pior”.
5.4. O colapso por baixa amostragem: quando o dado existe, mas é inútil para inferência
Mesmo usando os recortes mais adequados e fazendo inferências mais razoáveis do que as da matéria — por exemplo, a hipótese de que Bento Gonçalves precisaria de políticas públicas mais robustas para conter violações gerais de direitos humanos, e não de uma explicação “setorial” focada apenas em diversidade sexual e de gênero — ainda assim é preciso reconhecer um limite decisivo: a utilidade inferencial do painel é pouco útil porque a amostragem é baixa e os critérios de registro são instáveis.
Quando o volume de registros é pequeno (poucos protocolos e poucas denúncias) e o canal de ouvidoria é provavelmente subutilizado pela população, o dado torna-se altamente vulnerável a ruído: variações aleatórias de comportamento de denúncia (uma ou duas ligações a mais, em poucos dias) podem alterar rankings e “posições” de forma desproporcional. Além disso, sem critérios sólidos e padronizados que garantam consistência no registro (o que é classificado como denúncia, como violação, como tipificação do relato), o painel passa a medir, em larga medida, o uso do canal e as idiossincrasias do registro, e não a realidade objetiva do fenômeno na cidade.
O resultado é simples: a probabilidade de que inferências derivadas de dados tão escassos sejam boas representações da realidade é baixa demais para sustentar decisões razoáveis de política pública. Nesse nível de subamostragem, o ranking não descreve “a cidade”; ele descreve, no máximo, um pequeno punhado de 2 registros, filtrados por subnotificação, barreiras de acesso e critérios heterogêneos.
Assim, o erro da matéria não é apenas “interpretar mal um número”: é tratar um conjunto de dados frágil e subdimensionado como se fosse uma base robusta para diagnóstico social. Se o objetivo é orientar ação pública, esse painel precisa ser visto, na melhor das hipóteses, como um sinal preliminar, não como fundamento para manchetes determinísticas ou conclusões sobre “ausência de políticas públicas”.
6) O paradoxo: uma análise ruim prejudica até quem pretende defender
Se você infla uma leitura, você não necessariamente “ajuda” um grupo vulnerável — você pode estimular:
- desvio de recursos para um alvo mal medido,
- aumentar ruído moral e reduzir a chance de ação eficaz,
- incentivar o poder público a reagir a barulho (visando fins eleitoreiros) em vez de evidência,
- impedir a construção de métricas melhores (considerando mediação e critérios razoavelmente sólidos - os registros desta ouvidoria são abertos e dependem exclusivamente dos critérios individuais de cada registrante para contabilizar cada violação).
7) O que seria uma abordagem intelectualmente honesta (e útil)
Se a intenção fosse informar e contribuir, o caminho básico seria:
- Explicitar a ontologia do dado (violação × denúncia × protocolo).
- Trocar ranking bruto por taxa por população, com período claro.
- Triangular os dados com outras fontes independentes e mais qualificadas - ou, neste caso, apontar inexistência delas.
- Apontar limites inferenciais dos dados
O dado pode estar certo — e a história, errada
Este caso é um exemplo razoavelmente limpo de como se pode forjar alto impacto moral usando apenas números reais: não é preciso falsificar dado; basta obnubilar a terminologia, trocar a unidade, omitir proporcionalidade.
A consequência, até onde sei, neste caso foi apenas confusão na internet. Mas poderia ter desaguado em má alocação de recursos e de pressão pública. Um grupo vulnerável pode ser empurrado a priorizar um “problema” inflado por leitura ruim, enquanto problemas reais — ou métricas melhores para enxergar o real — ficam sem atenção. O poder público, por sua vez, pode reagir a barulho em vez de evidência, especialmente quando a narrativa já vem pronta para render capital político.
Autonomia intelectual, aqui, não significa “desconfiar de tudo”. Significa revalidar o raciocínio: entender o que o dado mede, quais inferências ele permite e quais ele proíbe. Compreender que o ato de mentir os números constitui as fraudes mais óbvias, mas talvez as fraudes mais relevantes sejam constituídas por números verdadeiros associados a narrativas indevidas. Separar número de narrativa e verificar a consistência lógica antes de formular um posicionamento pessoal é, além de uma conduta de autonomia, uma atitude de honestidade intelectual.
Se um jornal local consegue fazer isso com uma cidade 120 mil habitantes e um painel público, imagine o que influenciadores com milhões de pessoas conseguem fazer quando misturam alcance alto com análise fraca. Imagine ainda com que facilidade jornais de alcance internacional e PHDs reconhecidos mundialmente conseguem mover multidões ou destruir reputações.
Se você deseja ver como desmantelei um caso em que jornais internacionais e PHDs reconhecidos mundialmente atacaram, de modo injusto, a reputação de um homem, acesse:O Truque Retórico que Fez Einstein Parecer um Monstro Racista.
Referências
Matéria Jornalística Analisada:
Painel de Dados do ONDH
https://www.gov.br/mdh/pt-br/ondh/painel-de-dados
Publicação da Matéria Jornalística no Instagram