Embora tenham nomes similares e sejam medidas de variabilidade, usamos o erro padrão e o desvio padrão para diferentes propósitos. Leia o texto a seguir para esclarecer esse mal entendido que é bem comum!
O desvio padrão é uma medida de dispersão que nos indica como os dados individuais estão distribuídos ao redor da média, isto é, se estão agrupados em torno dela ou mais dispersos. É uma medida numérica que nos diz, em média, o quanto os dados se distanciam da média.
Pode ser calculado tanto para uma população como para uma amostra, embora o segundo caso seja mais usual, uma vez que geralmente trabalhamos com amostragens.
O desvio padrão é uma ótima maneira de ver a precisão da nossa amostra. Como assim? Quanto menor for o desvio padrão, mais representativa é a média amostral porque os dados estão muito próximos dela. O contrário também é verdadeiro, quanto maior o desvio padrão, menor será a capacidade representativa da média em relação aos dados.
Embora não seja possível falar o quanto seja um desvio padrão ‘grande’ ou ‘pequeno’ (porque precisamos saber o contexto dos dados) é importante lembrar que:
Quanto menor o desvio padrão : menor será a variabilidade dos dados e portanto, melhor a precisão da amostra.
O desvio padrão é calculado a partir da raiz quadrada da variância, tanto para a populaçao como para a amostra, respectivamente:
Uma curiosidade envolvendo o desvio padrão é que para distribuições normais é sempre válido a chamada “Regra Empírica”, que nos diz em quantos desvios padrão os dados estarão distantes da média . Leia esse post e entenda melhor!
Esse conceito é mais abstrato que o anterior, pois isso, vamos começar relembrando algumas ideias.
Ao estudar uma população e retirarmos várias amostras (todas do mesmo tamanho), vamos verificar que uma é sempre diferente da outra. Então ao calcular, por exemplo, a média de cada amostra, obteremos um conjunto de várias médias amostrais, chamado de distribuição amostral das médias.
Para saber a variabilidade das médias amostrais calculamos o desvio padrão entre elas, e é isso que denominamos erro padrão!
Assim, o erro padrão pode ser entendido como uma medida de quão boa uma amostra é para estimar a média populacional. Em outras palavras, o erro padrão nos indica a acurácia de uma amostra, isto é, o quão próxima ela está de detectar o verdadeiro valor da média da população.
Em suma: a variabilidade das médias amostrais é medida em termos de erros padrão.
A seguir, acompanhe o esquema que sumariza a diferença entre o desvio e o erro padrão:
O erro padrão pode ser calculado a partir do desvio padrão:
A partir da fórmula podemos identificar que:
Não há uma regra para isso, mas o que nos ajuda a determinar qual dessas medidas trazer no relatório ou pesquisa é o objetivo que temos ao analisar os dados.
De maneira geral, se o objetivo é mais descritivo, isto é, entender por exemplo, quanto os indivíduos se distanciam da média do grupo, precisaremos do desvio padrão.
Mas se a análise for do tipo inferencial, como comparar médias de várias populações, o erro padrão é a medida que deve ser destacada.
Para finalizar, segue um quadro comparativo entre essas duas medidas:
Ficou mais claro a diferença entre eles? Deixe o seu comentário, dúvida ou sugestão!
Confira também a publicação sobre o Teorema Central do Limite e sua relevância para a inferência estatística!
No Curso de Estatística: Introdução à Estatística Aplicada, a Profª Fernanda Maciel ensina como aplicar estatística com autonomia e ser um profissional mais qualificado. Caso queira saber os detalhes do conteúdo do curso, basta clicar aqui.
FIELD, Andy. Descobrindo a estatística usando o SPSS. 2.ed. Porto Alegre: Artmed, 2009.
JAWLIK, Andrew. Statistics from A to Z: confusing concepts clarified. 1.ed. Wiley, 2016.
PAES, A. T. . Desvio padrão ou erro padrão: qual utilizar?. Einstein. Educação Continuada em Saúde, , v. 6-3, p. 107 – 108.
© 2021 Prof. Fernanda Maciel
contato@proffernandamaciel.com