Quem primeiro usou / inventou valores-p?


30

Estou tentando escrever uma série de postagens no blog sobre valores-p e pensei que seria interessante voltar para onde tudo começou - o que parece ser o artigo de 1900 da Pearson. Se você estiver familiarizado com esse documento, lembre-se de que isso abrange testes de qualidade do ajuste.

Pearson é um pouco frouxo com sua linguagem quando se trata de valores-p. Ele usa repetidamente as "probabilidades" ao descrever como interpretar seu valor-p. Por exemplo, na p.168, ao falar sobre os resultados de repetidas jogadas de 12 dados, ele diz " ... o que nos leva a P = 0,0000016, ou as probabilidades são de 62,499 a 1 contra esse sistema de desvio aleatoriamente" Com essas probabilidades , seria razoável concluir que os dados exibem um viés em direção aos pontos mais altos " .

Neste artigo, ele se refere a trabalhos anteriores, incluindo um livro de 1891 sobre mínimos quadrados de Merriman.

Mas Pearson apresenta o cálculo dos valores-p (qualidade do teste do ajuste do qui-quadrado ao quadrado).

Pearson foi a primeira pessoa a conceber valores-p? Quando faço uma pesquisa sobre valores-p, Fisher é mencionado - e seu trabalho foi na década de 1920.

Editado: e obrigado pela menção de Laplace - ele não parecia abordar a hipótese nula (Pearson parece fazê-lo implicitamente, embora nunca tenha usado esse termo em seu artigo de 1900). Pearson analisou os testes de qualidade do ajuste de: assumindo que as contagens são derivadas de um processo imparcial, qual é a probabilidade de que as contagens observadas (e contagens mais divergentes) surjam da distribuição assumida?

Seu tratamento das probabilidades / probabilidades (ele converte as probabilidades em probabilidades) sugere que ele está trabalhando com uma ideia implícita da hipótese nula. Fundamentalmente, ele também menciona que a probabilidade decorrente do valor x ^ 2 mostra as probabilidades "contra um sistema de desvios improvável ou mais improvável do que este" - linguagem que reconhecemos agora - com relação aos seus valores p calculados.

Arbuthnot foi tão longe?

Sinta-se livre para colocar seus comentários como respostas. Seria bom ver uma discussão.


7
Este artigo sugere que foi utilizado por Laplace, que defina um limite inferior: en.wikipedia.org/wiki/...

9
Alguém poderia argumentar que Arbuthnot (1710) em Um argumento para a providência divina, retirado da regularidade constante observada nos nascimentos de ambos os sexos, talvez pudesse contar. Ele usa um modelo de moeda ('cruz e pilha') e primeiro calcula a probabilidade de obter exatamente tantas caras quanto caudas antes de apontar que as "chances terão alguns dos Termos ao lado do meio e se inclinam para uma lado ou do outro. Mas é muito improvável (se a mera possibilidade governasse) que eles nunca chegariam até as Extremidades "; podemos vê-lo chegando perto de uma noção de valor-p ali.
Glen_b -Reinstala Monica

4
Curiosamente, David em sua lista jstor.org/stable/2685564?seq=1#page_scan_tab_contents sugere que o termo valor-P foi usado pela primeira vez em 1943 por Deming em seu livro "Statistical Adjustment of Data". Eu sei que você está atrás do conceito, não do termo, mas achei interessante ver quando o termo finalmente apareceu.
Mdewey #

2
Quem inventou pode ser difícil de descobrir. Mas quem é o culpado pelo uso atual dos valores-p é certamente Fisher.
Carlos Cinelli

11
Definimos o valor p como 'a probabilidade de obter um resultado dentro de um certo intervalo (geralmente algum valor ou mais extremo para uma estatística calculada como a usada por Pearson em 1900), considerando que certa hipótese está correta'?
Sextus Empiricus

Respostas:


19

Jacob Bernoulli (~ 1700) - John Arbuthnot (1710) - Nicolaus Bernoulli (1710) - Abraham de Moivre (1718)

O caso de Arbuthnot 1, ver explicação na nota abaixo , também pode ser lido na Doutrina da Chance de Moivre (1718), da página 251-254, que estende essa linha de pensamento.

De Moivre faz duas etapas / avanços:

  1. A aproximação normal de uma distribuição de Bernoulli, que ajuda a calcular facilmente as probabilidades de resultados dentro ou fora de um determinado intervalo. Na seção anterior ao exemplo do caso de Arbuthnot, de Moivre escreve sobre sua aproximação (agora chamada de distribuição gaussiana / normal) para a distribuição de Bernoulli. Essa aproximação permite calcular facilmente um valor p (o que Arbuthnot não poderia fazer).

  2. Generalização do argumento de Arbuthnot. Ele menciona que "esse método de raciocínio também pode ser útil em outras investigações muito interessantes". (que pode dar crédito parcial a De Moivre por ver a aplicabilidade geral do argumento)


  • De acordo com Moivre, Jacob Bernoulli escreveu sobre esse problema em seu Ars Conjectandi . De Moivre nomeia isso em inglês: "Atribuindo os limites dentro dos quais, pela repetição de experimentos, a probabilidade de um evento pode se aproximar indefinidamente de uma probabilidade fornecida", mas o texto original de Bernouilli está em latim. Não conheço latim suficiente para descobrir se Bernoulli estava escrevendo sobre um conceito como o valor-p ou mais como a lei dos grandes números. Interessante notar é que Bernouilli afirma ter essas idéias há 20 anos (e também o trabalho 1713 foi publicado após sua morte em 1705, pelo que parece preceder a data de 1710 mencionada nos comentários de @Glen_b para Arbuthnot).

  • Uma fonte de inspiração para Moivre foi Nicolaus Bernouilli, que em 1712/1713 fez os cálculos para a probabilidade de o número de meninos nascidos não ser menor que 7037 e não maior que 7363, quando 14000 é o número total de crianças nascidas e a probabilidade de um menino é 18/35.

    (Os números para esse problema foram baseados em 80 anos de estatísticas para Londres. Ele escreveu sobre isso em cartas a Pierre Raymond de Montmort publicadas na segunda edição (1713) do Ensaio de análise de Montmort sobre o risco de perigo .)

    Os cálculos, que eu não segui exatamente, resultaram em uma probabilidade de 43,58 a 1. (Usando um computador que soma todos os termos de probabilidade de um binômio de 7037 a 7363, recebo 175: 1, para que eu possa ter interpretado mal seu trabalho / cálculo. )


1: John Arbuthnot escreveu sobre este caso em Um argumento para a providência divina, retirado da regularidade constante observada nos nascimentos de ambos os sexos (1710).

128214836000000000000000000000

Arbuthnot: então a Chance de A estará próxima de uma Quantidade infinitamente pequena, pelo menos menor que qualquer Fração atribuível. De onde se segue que é a arte, não a sorte que governa.


Escrito por StackExchangeStrike


Possivelmente A History of Inverse Probability, de Andrew Dale, pode ajudar mais. (Em busca da tradução de Bernoulli, descobri que ele traduziu a passagem relevante mencionada por de Moivre). Nos primeiros dias, essa probabilidade inversa, agora considerada mais uma técnica bayesiana, poderia ter sido uma ferramenta bastante frequente na interpretação e no uso.
Sextus Empiricus

3

Eu tenho três links / argumentos de suporte que suportam a data ~ 1600-1650 para estatísticas formalmente desenvolvidas e muito mais cedo para simplesmente o uso de probabilidades.

Se você aceitar o teste de hipóteses como base, antes da probabilidade, o Dicionário de Etimologia Online oferecerá:

" hipótese (n.)

Década de 1590, "uma declaração específica"; 1650, "uma proposição assumida e tomada como certa, usada como premissa", da hipótese do francês médio e diretamente da hipótese do latim tardio, da hipótese grega "base, fundamento, fundamento", portanto, em uso prolongado ", base de um argumento, suposição, "literalmente" uma colocação abaixo ", de hipo-" abaixo "(veja hipo-) + tese" uma colocação, proposição "(da forma reduplicada da raiz da TORTA * dhe-" para definir, colocar "). Um termo em lógica; um sentido científico mais estreito é de 1640 ".

O Wikcionário oferece:

"Gravado desde 1596, da hipótese do francês do meio, da hipótese do latim tardio, do grego antigo ὑπόθεσις (hupóthesis," base, base de um argumento, suposição "), literalmente" um posicionamento sob ", ele mesmo de ὑποτίθημι (hupotíthēmi," defino antes, sugira ”), de ὑπό (hupó,“ abaixo ”) + τίθημι (títhēmi,“ eu coloquei, coloquei ”).

Hipótese substantiva (hipóteses plurais)

(ciências) Usado livremente, uma conjectura experimental que explica uma observação, fenômeno ou problema científico que pode ser testado por observação, investigação e / ou experimentação adicionais. Como termo científico, veja a citação em anexo. Compare com a teoria e a citação dada lá. citações ▲

  • 2005, Ronald H. Pine, http://www.csicop.org/specialarticles/show/intelligent_design_or_no_model_creationism , 15 de outubro de 2005:

    Muitos de nós aprendemos na escola que um cientista, ao tentar descobrir alguma coisa, primeiro apresentará uma "hipótese" (uma suposição ou suposição - nem necessariamente uma suposição "instruída"). ... [Mas] a palavra "hipótese" deve ser usada, na ciência, exclusivamente para uma explicação fundamentada, sensata e informada pelo conhecimento sobre por que algum fenômeno existe ou ocorre. Uma hipótese ainda não foi testada; já pode ter sido testado; pode ter sido falsificado; pode ainda não ter sido falsificado, embora testado; ou pode ter sido testado inúmeras vezes sem ser falsificado; e pode vir a ser universalmente aceito pela comunidade científica. A compreensão da palavra "hipótese", usada na ciência, requer uma compreensão dos princípios subjacentes a Occam ' s O pensamento de Razor e Karl Popper em relação à "falsificação" - incluindo a noção de que qualquer hipótese científica respeitável deve, em princípio, ser "capaz de" ser provada errada (se, de fato, acontecer de fato estar errada), mas nunca se pode provar que seja verdade. Um aspecto de um entendimento adequado da palavra "hipótese", usada na ciência, é que apenas uma porcentagem muito pequena de hipóteses poderia se tornar uma teoria. "

Sobre probabilidades e estatísticas, a Wikipedia oferece:

" Coleta de dados

Amostragem

Quando os dados completos do censo não podem ser coletados, os estatísticos coletam dados de amostra, desenvolvendo projetos de experimentos específicos e amostras de pesquisa. A própria estatística também fornece ferramentas para previsão e previsão por meio de modelos estatísticos. A idéia de fazer inferências com base em dados amostrados começou em meados dos anos 1600 em conexão com a estimativa de populações e o desenvolvimento de precursores de seguro de vida . (Referência: Wolfram, Stephen (2002). Um novo tipo de ciência. Wolfram Media, Inc. p. 1082. ISBN 1-57955-008-8).

Para usar uma amostra como um guia para uma população inteira, é importante que ela realmente represente a população em geral. A amostragem representativa assegura que as inferências e conclusões possam ser estendidas com segurança da amostra para a população como um todo. Um grande problema reside em determinar até que ponto a amostra escolhida é realmente representativa. O Statistics oferece métodos para estimar e corrigir qualquer desvio nos procedimentos de amostra e coleta de dados. Existem também métodos de desenho experimental para experimentos que podem diminuir essas questões no início de um estudo, reforçando sua capacidade de discernir verdades sobre a população.

A teoria da amostragem faz parte da disciplina matemática da teoria da probabilidade. A probabilidade é usada nas estatísticas matemáticas para estudar as distribuições amostrais das estatísticas amostrais e, mais geralmente, as propriedades dos procedimentos estatísticos. O uso de qualquer método estatístico é válido quando o sistema ou população em consideração satisfaz as premissas do método. A diferença de ponto de vista entre a teoria clássica das probabilidades e a teoria da amostragem é, grosso modo, que a teoria das probabilidades começa a partir dos parâmetros dados de uma população total para deduzir as probabilidades que pertencem às amostras. A inferência estatística, no entanto, se move na direção oposta - deduzindo indutivamente das amostras para os parâmetros de uma população maior ou total .

De "Wolfram, Stephen (2002). Um novo tipo de ciência. Wolfram Media, Inc. p. 1082.":

" Análise estatística

História. Alguns cálculos de probabilidades para jogos de azar já foram feitos na antiguidade. A partir dos anos 1200, resultados cada vez mais elaborados, baseados na enumeração combinatória de probabilidades, foram obtidos por místicos e matemáticos, com métodos sistematicamente corretos sendo desenvolvidos em meados dos anos 1600 e início dos anos 1700.. A idéia de fazer inferências a partir de dados amostrados surgiu em meados dos anos 1600 em conexão com a estimativa de populações e o desenvolvimento de precursores de seguro de vida. O método de calcular a média para corrigir o que se supunha serem erros aleatórios de observação começou a ser usado, principalmente em astronomia, em meados da década de 1700, enquanto o ajuste de mínimos quadrados e a noção de distribuição de probabilidade foram estabelecidos por volta de 1800. Modelos probabilísticos baseados em variações aleatórias entre indivíduos começaram a ser usadas em biologia em meados do século XIX, e muitos dos métodos clássicos agora usados ​​para análise estatística foram desenvolvidos no final do século XIX e início do século XX no contexto da pesquisa agrícola. Na física, os modelos probabilísticos fundamentais foram fundamentais para a introdução da mecânica estatística no final do século XIX e da mecânica quântica no início do século XX.

Outras fontes:

"Este relatório, em termos principalmente não matemáticos, define o valor de p, resume as origens históricas da abordagem do valor de p para o teste de hipóteses, descreve várias aplicações de p≤0,05 no contexto da pesquisa clínica e discute o surgimento de p≤0 5 × 10−8 e outros valores como limiares para análises estatísticas genômicas. "

A seção "Origens históricas" declara:

[1]

[1] Arbuthnott J. Um argumento para a Providência divina, retirado da constante regularidade observada nos nascimentos de ambos os sexos. Phil Trans 1710; 27: 186–90. doi: 10.1098 / rstl.1710.0011 publicado em 1 de janeiro de 1710

145-78910,11

Vou oferecer uma defesa limitada apenas dos valores-P. ... "

Referências

1 Hald A. A history of probability and statistics and their appli- cations before 1750. New York: Wiley, 1990.
2 Shoesmith E, Arbuthnot, J. In: Johnson, NL, Kotz, S, editors. Leading personalities in statistical sciences. New York: Wiley, 1997:7–10. 
3 Bernoulli, D. Sur le probleme propose pour la seconde fois par l’Acadamie Royale des Sciences de Paris. In: Speiser D,
editor. Die Werke von Daniel Bernoulli, Band 3, Basle:
Birkhauser Verlag, 1987:303–26. 
4 Arbuthnot J. An argument for divine providence taken from
the constant regularity observ’d in the births of both sexes. Phil Trans R Soc 1710;27:186–90. 
5 Freeman P. The role of P-values in analysing trial results. Statist Med 1993;12:1443 –52. 
6 Anscombe FJ. The summarizing of clinical experiments by
significance levels. Statist Med 1990;9:703 –8.
7 Royall R. The effect of sample size on the meaning of signifi- cance tests. Am Stat 1986;40:313 –5.
8 Senn SJ. Discussion of Freeman’s paper. Statist Med
1993;12:1453 –8.
9 Gardner M, Altman D. Statistics with confidence. Br Med J
1989.
10 Matthews R. The great health hoax. Sunday Telegraph 13
September, 1998. 
11 Matthews R. Flukes and flaws. Prospect 20–24, November 1998.

@Martijn Weterings : "Pearson, em 1900, foi o renascimento ou esse conceito (freqüentista) apareceu antes? Como Jacob Bernoulli pensou sobre seu 'teorema de ouro' em um sentido freqüentista ou em um sentido bayesiano (o que os Ars Conjectandi dizem e são existem mais fontes)?

A American Statistical Association possui uma página na Internet sobre História das Estatísticas que, juntamente com essas informações, possui um pôster (reproduzido em parte abaixo) intitulado "Linha do tempo das estatísticas".

  • AD 2: A evidência de um censo concluído durante a dinastia Han sobrevive.

  • 1500: Girolamo Cardano calcula probabilidades de diferentes jogadas de dados.

  • 1600: Edmund Halley relaciona a taxa de mortalidade com a idade e desenvolve tabelas de mortalidade.

  • Década de 1700: Thomas Jefferson dirige o primeiro censo dos EUA.

  • 1839: A American Statistical Association é formada.

  • 1894: O termo "desvio padrão" é introduzido por Karl Pearson.

  • 1935: RA Fisher publica Design de Experimentos.

Cronograma parcial de estatísticas

Na seção "História" da página da Wikipedia " Lei dos grandes números ", explica:

"O matemático italiano Gerolamo Cardano (1501-1576)afirmou sem prova de que as precisões das estatísticas empíricas tendem a melhorar com o número de tentativas. Isso foi formalizado como uma lei de grandes números. Uma forma especial do LLN (para uma variável aleatória binária) foi provada pela primeira vez por Jacob Bernoulli. Levou mais de 20 anos para desenvolver uma prova matemática suficientemente rigorosa que foi publicada em seu Ars Conjectandi (A Arte da Conjectura) em 1713. Ele o chamou de "Teorema de Ouro", mas tornou-se geralmente conhecido como "Teorema de Bernoulli". Isso não deve ser confundido com o princípio de Bernoulli, em homenagem ao sobrinho de Jacob Bernoulli, Daniel Bernoulli. Em 1837, SD Poisson descreveu-o ainda sob o nome "la loi des grands nombres" ("A lei dos grandes números"). Depois disso, era conhecido sob os dois nomes, mas o "

Depois que Bernoulli e Poisson publicaram seus esforços, outros matemáticos também contribuíram para o aperfeiçoamento da lei, incluindo Chebyshev, Markov, Borov, Cantelli e Kolmogorov e Khinchin ".


Pergunta: "Pearson foi a primeira pessoa a conceber valores-p?"

Não, provavelmente não.

Em " A declaração da ASA sobre valores-p: contexto, processo e objetivo " (09 de junho de 2016) por Wasserstein e Lazar, doi: 10.1080 / 00031305.2016.1154108, há uma declaração oficial sobre a definição do valor-p (que não é dúvida não acordada por todas as disciplinas que utilizam ou rejeitam valores de p) que diz:

" . O que é um p-Value?

Informalmente, um valor-p é a probabilidade em um modelo estatístico especificado de que um resumo estatístico dos dados (por exemplo, a diferença média da amostra entre dois grupos comparados) seja igual ou mais extremo do que o valor observado.

3. Princípios

...

6. Por si só, um valor-p não fornece uma boa medida de evidência a respeito de um modelo ou hipótese.

Os pesquisadores devem reconhecer que um valor-p sem contexto ou outra evidência fornece informações limitadas. Por exemplo, um valor p próximo a 0,05, por si só, oferece apenas evidências fracas contra a hipótese nula. Da mesma forma, um valor p relativamente grande não implica evidência a favor da hipótese nula; muitas outras hipóteses podem ser iguais ou mais consistentes com os dados observados. Por esses motivos, a análise dos dados não deve terminar com o cálculo de um valor-p quando outras abordagens forem apropriadas e viáveis ​​".

A rejeição da hipótese nula provavelmente ocorreu muito antes de Pearson.

A página da Wikipedia sobre os primeiros exemplos de testes de hipótese nula afirma:

Escolhas iniciais da hipótese nula

Paul Meehl argumentou que a importância epistemológica da escolha da hipótese nula não foi amplamente reconhecida. Quando a hipótese nula é prevista pela teoria, um experimento mais preciso será um teste mais severo da teoria subjacente. Quando a hipótese nula é padronizada como "sem diferença" ou "sem efeito", um experimento mais preciso é um teste menos severo da teoria que motivou a realização do experimento. Um exame das origens dessa última prática pode, portanto, ser útil:

1778: Pierre Laplace compara as taxas de nascimento de meninos e meninas em várias cidades europeias. Ele afirma: "é natural concluir que essas possibilidades estão quase na mesma proporção". Assim, a hipótese nula de Laplace de que as taxas de nascimento de meninos e meninas devem ser iguais, dada a "sabedoria convencional".

1900: Karl Pearson desenvolve o teste do qui-quadrado para determinar "se uma determinada forma de curva de frequência descreverá efetivamente as amostras coletadas de uma determinada população". Assim, a hipótese nula é que uma população é descrita por alguma distribuição prevista pela teoria. Ele usa como exemplo os números de cinco e seis nos dados de Weldon que lançam dados.

1904: Karl Pearson desenvolve o conceito de "contingência" para determinar se os resultados são independentes de um determinado fator categórico. Aqui, a hipótese nula é por padrão que duas coisas não estão relacionadas (por exemplo, formação de cicatrizes e taxas de mortalidade por varíola). A hipótese nula neste caso não é mais prevista pela teoria ou pela sabedoria convencional, mas pelo contrário, é o princípio da indiferença que leva Fisher e outros a descartar o uso de "probabilidades inversas".

Apesar de qualquer pessoa ser creditada por rejeitar uma hipótese nula, não acho razoável rotulá-la de " descoberta do ceticismo com base em uma posição matemática fraca".


Fui à procura-se o trabalho de Daniel Bernouilli (segunda edição é 1808, mas o trabalho em si é de 1734) "RECHERCHES PHYSYQUES ET ASTRONOMIQUES, sur le problème proposé pour la fois seconde par l'Académie Royale des Sciences de Paris: Quelle est la fazer com que o corpo inclua os planos dos Orbites dos planejadores com relação ao plano do atleta da revolução do Soleil, ou o eixo do filho; e faça o que for necessário para inclinações dos orbites diferentes entre eles . ch / zut / wihibe / content / titleinfo / 13426461
Sextus

1 1:175
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.