Existe uma maneira mais científica de determinar o número de dígitos significativos a serem relatados para uma média ou um intervalo de confiança em uma situação que é bastante padrão - por exemplo, o primeiro ano de aula na faculdade.
Eu vi Número de figuras significativas para colocar em uma tabela , por que não usamos dígitos significativos e Número de figuras significativas em um quadrado de chi , mas elas não parecem apontar o problema.
Nas minhas aulas, tento explicar aos meus alunos que é um desperdício de tinta relatar 15 dígitos significativos quando eles têm um erro padrão tão amplo em seus resultados - meu pressentimento era que ele deveria ser arredondado para algo da ordem de . Isso não é muito diferente do que é dito pela ASTM - Reporting Test Results referente ao E29, onde eles dizem que deve estar entre e .0,05 σ 0,5 σ
EDITAR:
Quando tenho um conjunto de números como x
abaixo, quantos dígitos devo usar para imprimir a média e o desvio padrão?
set.seed(123)
x <- rnorm(30) # default mean=0, sd=1
# R defaults to 7 digits of precision options(digits=7)
mean(x) # -0.04710376 - not far off theoretical 0
sd(x) # 0.9810307 - not far from theoretical 1
sd(x)/sqrt(length(x)) # standard error of mean 0.1791109
PERGUNTA: Explique detalhadamente qual é a precisão (quando há um vetor de números duplos de precisão) para média e desvio padrão e escreva uma função pedagógica R simples que imprimirá a média e o desvio padrão para o número significativo de dígitos que é refletido no vetor x
.
R
(assim como em quase todos os softwares), a impressão é controlada por um valor global (consulte options(digits=...)
), não por qualquer consideração de precisão.