한국   대만   중국   일본 
Inferencia estatistica ? Wikipedia, a enciclopedia livre Saltar para o conteudo

Inferencia estatistica

Origem: Wikipedia, a enciclopedia livre.

Inferencia estatistica e um ramo da Estatistica cujo objetivo e fazer afirmacoes a partir de um conjunto de valores representativo ( amostra ) sobre um universo (populacao) [ 1 ] , assume-se que a populacao e muito maior do que o conjunto de dados observados, a amostra. Tal tipo de afirmacao deve sempre vir acompanhada de uma medida de precisao sobre sua veracidade. Para realizar este trabalho, o estatistico coleta informacoes de dois tipos, experimentais (as amostras) e aquelas que obtem na literatura. As duas principais escolas de inferencia sao a inferencia frequencista (ou classica) e a inferencia bayesiana .

A inferencia estatistica e geralmente distinta da estatistica descritiva. A descricao estatistica pode ser vista como a simples apresentacao dos fatos, nos quais o modelo de decisoes feito pelo analista tem pouca influencia. E natural que analises estatisticas avancem, indo da descricao para a inferencia de padroes. Essa ultima tarefa depende do modelo usado e/ou criado pelo analista dos dados.

A inferencia estatistica faz proposicoes sobre um universo, usando dados tirados de um universo com algum tipo de amostragem . Dada um hipotese sobre um universo, para o qual nos queremos tirar inferencias, a inferencia estatistica consiste em (primeiramente) selecionar um modelo estatistico do processo que gera os dados e (segundamente) deduzir as proposicoes a partir do modelo.

Konishi & Kitagawa afirmam, "A maior parte dos problemas na inferencia estatistica podem ser considerados problemas relacionados a modelagem estatistica". [ 2 ] De forma relacionada, Sir David Cox disse que, "Como a traducao do problema da materia e feita para o modelo estatistico e com frequencia a parte mais critica de uma analise". [ 3 ]

A conclusao de uma inferencia estatistica e uma proposicao estatistica. Algumas formas comuns de proposicoes estatisticas sao as seguintes:

  • Estimativa por ponto. Ex. Um valor particular que melhor aproxima algum parametro de interesse;
  • Estimativa por intervalo . Ex. Um intervalo de confianca (ou estimativa por conjunto), ex. um intervalo construido ao usar um conjunto de dados tirados de um universo de forma que, baixo amostragens repetidas de tais conjuntos de dados, tais intervalos conteriam o verdadeiro valor parametro com a probabilidade no dito nivel de confianca.
  • Intervalo de credibilidade . Ex. um conjunto de valores contendo, por exemplo, 95% de crenca posterior.
  • Rejeicao de uma hipotese . [ 4 ]
  • Clustering ou classificacao de pontos de dados em grupos.

Modelos e suposicoes [ editar | editar codigo-fonte ]

Ver artigo principal: Modelo estatistico

Qualquer inferencia estatistica requer algumas suposicoes. Um modelo estatistico e um conjunto de suposicoes preocupadas com a geracao dos dados observados e seus similares. Descricoes de modelos estatisticos normalmente enfatizam o papel das quantidades de universo de interesse, sobre os quais desejamos tirar inferencia. [ 5 ] Estatisticas descriptivas sao tipicamente usadas como um passo preliminar a inferencias mais formais. [ 6 ]

Niveis de modelos/suposicoes [ editar | editar codigo-fonte ]

Estatisticos distinguem entre tres niveis de suposicoes de modelagem;

  • Parametrico completo: As distribuicoes de probabilidade descrevendo o processo de geracao de dados sao assumidas como completamente descritas por uma familia de distribuicoes de probabilidade envolvendo apenas um numero finito de parametros desconhecidos. [ 5 ] Por exemplo, um pode assumir que a distribuicao dos valores do universo e verdadeiramente Normal, com media e variacao desconhecidas, e que os conjuntos de dados sao gerados pela amostragem aleatoria "simples". A familia de modelos lineares generalizados e uma classe amplamente usada e flexivel de modelos parametricos.
  • Nao-parametrico: As suposicoes feitas sobre o processo de geracao dedadas sao muito menores que nas estatisticas parametricas e podem ser minimas. [ 7 ] Por exemplo, toda distribuicao de probabilidade continua tem um valor medio, o qual pode ser estimado usando a media da amostragem ou o estimador de Hodges-Lehmann , o qual tem boas propriedades quando os dados surgem desde amostragens aleatorias simples.
  • Semi-parametrico: Este termo tipicamente implica suposicoes entre abordagens completas e nao-parametricas. Por exemplo, um pode assumir que uma distribuicao de populacao tem uma media finita. Alem disso, um pode assumir que o nivel de resposta media na populacao depende, de forma verdadeiramente linear, de algumas covariacoes (uma suposicao parametrica) mas nao fazer qualquer suposicao parametrica descrevendo a variacao ao redor da media (ex. sobre a presenca ou forma possivel de qualquer heteroscedasticidade ). Mais generalizadamente, modelos semi-parametricos podem com frequencia ser separados entre "estruturais" e componentes de "variacao aleatoria". Um componente e tratado de forma parametrica e o outro nao. O bem conhecido modelo de Cox e um conjunto de suposicoes semi-parametricas.

Importancia de modelos/suposicoes validas [ editar | editar codigo-fonte ]

Nao importa o nivel da suposicao feita, inferencias calibradas corretamente em geral requerem que essas suposicoes estejam corretas; ex. que os mecanismos de geracao de dados realmente foram corretamente especificados.

Suposicoes incorretas de amostragens aleatorias simples podem invalidar a inferencia estatistica. [ 8 ] Suposicoes semi- e completamente parametricas complexas tambem sao causas de preocupacao. Por exemplo, assumir incorretamente que o modelo Cox pode em alguns casos levar a conclusoes falhas. [ 9 ] Suposicoes incorretas de Normalidade na populacao tambem pode invalidar algumas formas de inferencias baseadas em regressao. [ 10 ] O uso de qualquer modelo parametrico e visto ceticamente pela maior parte de expertos em amostragem de populacoes humanas: "a maior parte dos estatisticos de amostragem, quando lidam com intervalos de confianca, se limitam a fazer afirmacoes sobre estimativas baseadas em amostras muito grandes, onde o teorema central do limite garante que essas estimativas terao distribuicoes que sao minimamente normais". [ 11 ] Em particular, uma distribuicao normal "seria uma suposicao totalmente irrealista e catastroficamente boba a se fazer se estivessemos lidando com qualquer tipo de populacao economica". [ 11 ] Aqui, o teorema central do limite afirma que a distribuicao da media da amostra "para amostras muito grandes" e aproximadamente normalmente distribuida, se a distribuicao nao tem uma cauda longa.

Aproximando distribuicoes [ editar | editar codigo-fonte ]

Dada a dificuldade em especificar distribuicoes exatas de amostras estatisticas, varios metodos tem sido desenvolvidos para aproxima-las.

Com amostras finitas, os resultados de aproximacao medem o quanto se aproxima uma distribuicao limite de uma distribuicao de amostragem: Por exemplo, com 10.000 amostras independentes, a distribuicao normal se aproxima (ate dois digitos de precisao) da distribuicao da media da amostra para varias distribuicoes de populacao, atraves do teorema Berry-Esseen. [ 12 ] Ainda assim, para varios objetivos praticos, a aproximacao normal da uma boa aproximacao a media da distribuicao da amostra quando ha 10 (ou mais) amostras independentes, de acordo com estudos de simulacao e experiencias estatisticas. [ 12 ] Seguindo o trabalho de Kolmogorov em 1950, a estatistica avancada usa a teoria de aproximacao e a analise funcional para quantificar o erra da aproximacao. Nesta abordagem, a geometria metrica das distribuicoes de probabilidade e estudada; esta abordagem quantifica os erros de aproximacao com, por exemplo, a divergencia Kullback-Leibler, divergencia Bregman, e a distancia de Hellinger. [ 13 ] [ 14 ] [ 15 ]

Com amostras indefinidamente grandes, resultados limite como o teorema central do limite descrevem a distribuicao limite da amostragem estatistica, se ela existe. Resultados limite nao sao afirmacoes sobre amostras finitas, e de fato sao irrelevantes para amostras finitas. [ 16 ] [ 17 ] [ 18 ] No entanto, a teoria assintotica de distribuicoes limite e com frequencia evocada em trabalhos com amostras finitas. Por exemplo, resultados limite sao com frequencia evocados para justificar os metodos dos momentos generalizados que sao populares em econometria e bioestatistica . A magnitude da diferenca entre a distribuicao limite e a verdadeira distribuicao (formalmente, a aproximacao de erro) pode ser avaliada usando simulacoes. [ 19 ] A aplicacao heuristica de resultados limite para amostras finitas e uma pratica comum em varias aplicacoes, especialmente com modelos de baixa-dimensao com funcoes de verossimilhanca log-concavas (tais como as com um parametro das familias exponenciais).

Modelos baseados na randomizacao [ editar | editar codigo-fonte ]

Ver tambem: Amostragem (estatistica) e Atribuicao aleatoria

Para um dado conjunto de dados que foi produzido por um desenho de randomizacao, a distribuicao de randomizacao de uma estatistica (baixa a hipotese nula) e definida pela avaliacao do teste estatistico de todos os planos que poderiam ser gerados pelo desenho de randomizacao. Em inferencia frequencista, a randomizacao permite que as inferencias sejam baseadas nas distribuicoes de randomizacao ao inves de um modelo subjetivo, e isto e importante especialmente em pesquisas de amostra e desenhos de experimentos. [ 20 ] [ 21 ] Inferencia estatistica a partir de estudos de randomizacao e tambem mais direta do que em muitas outras situacoes. [ 22 ] [ 23 ] [ 24 ] Na inferencia bayesiana , a randomizacao e tambem importante: na pesquisa de amostra, o uso de amostras sem reposicao garante a possibilidade de intercambio das amostras com a populacao; nos experimentos de randomizacao, a randomizacao garante uma suposicao em falta aleatoria para a informacao covariante. [ 25 ]

A randomizacao objetiva permite procedimentos propriamente indutivos. [ 26 ] [ 27 ] [ 28 ] [ 29 ] Muitos estatisticos preferem analise baseados na randomizacao dos dados que foram gerados por procedimentos de randomizacao bem definidos. [ 30 ] No entanto, e verdade que nos campos da ciencia com conhecimento teorico e controle experimental desenvolvido, experimentos randomicos podem aumentar os custos da experimentacao sem melhorar a qualidade das inferencias. [ 31 ] [ 32 ] Similarmente, resultados a partir de experimentos randomicos sao recomendados por autoridades estatisticas para permitir inferencias de maior grau de confianca do que os estudos observacionais do mesmo fenomeno. [ 33 ] No entanto, um bom estudo observacional pode ser melhor que um experimento randomico ruim.

A analise estatistica de um experimento randomico pode ser baseada no esquema de randomizacao afirmado no protocolo do experimento e nao precisa de um modelo subjetivo. [ 34 ] [ 35 ]

No entanto, a qualquer momento, algumas hipoteses nao podem ser testadas usando modelos estatisticos objetivos, que descrevem precisamente os experimentos randomicos ou as amostras aleatorias. Em alguns casos, tais estudos randomicos sao nao economicos ou nao eticos.

Analise baseada em modelo de experimentos aleatorios [ editar | editar codigo-fonte ]

E pratica padrao se referir ao modelo estatistico, frequentemente um modelo linear, quando se analisa os dados de experimentos randomicos. No entanto, o esquema de randomizacao guia as escolhas de um modelo estatistico. Nao e possivel escolher um modelo apropriado sem saber o esquema de randomizacao. [ 21 ] Resultados seriamente enganosos podem ser obtidos ao analisar dados de experimentos randomicos enquanto ignorando o protocolo do experimento; erros comuns sao incluem esquecer o bloqueio usado em um experimento e confundir medidas repetidas da mesma unidade experimental com replicas independentes do tratamento aplicado para diferencias unidades experimentais. [ 36 ]

Paradigmas para inferencia [ editar | editar codigo-fonte ]

Diferentes escolas de inferencia estatistica tem se tornado estabelecidas. Estas escolas, ou "paradigmas", nao sao mutuamente excludentes, e metodos que funcionam bem sob um paradigma com frequencia tem interpretacoes atraentes sob outros paradigmas.

Bandyopadhyay & Forster [ 37 ] descrevem quatro paradigmas: "(i) estatistica classica ou estatistica de erro, (ii) estatistica bayesiana, (iii) estatistica baseada na verossimilhanca, e (iv) a estatistica baseada em Informacao Akaikeana Criterion". O paradigma classico (ou frequencista), o paradigma bayesiano, e o paradigma baseado no AIC sao resumidos abaixo. O paradigma baseado na verossimilhanca e essencialmente um sub-paradigma do paradigma baseado no AIC.

Inferencia frequencista [ editar | editar codigo-fonte ]

Ver tambem: Inferencia frequencista

Este paradigma calibra a plausibilidade das proposicoes ao considerar amostras repetidas de uma distribuicao de populacao para produzir conjuntos de dados similares ao que se tem em maos. Ao considerar as caracteristicas dos conjuntos de dados sob amostras repetidas, as propriedades frequencistas de uma proposicao estatistica podem ser quantificadas - apesar de que na pratica esta quantificacao pode ser desafiadora.

Exemplos de inferencia frequencista [ editar | editar codigo-fonte ]

Inferencia frequencista, objetividade, e teoria da decisao [ editar | editar codigo-fonte ]

Uma interpretacao da inferencia frequencista (ou inferencia classica) e que ela e aplicavel apenas em termos de probabilidade de frequencia ; isto e, em termos de amostras repetidas de uma populacao. No entanto, a abordagem de Neyman [ 38 ] desenvolve esses procedimentos em termos de probabilidades pre-experimentais. Isto e, antes de realizar o experimento, se decide uma regra para chegar a uma conclusao de forma que a probabilidade de estar correto seja controlada em uma forma viavel: de forma que a probabilidade nao precise ter uma interpretacao frequencista ou de amostra repetida. Em contaste, a inferencia bayesiana funciona em termos de probabilidades condicionais (ex. probabilidades condicionais nos dados observados), comparadas as probabilidades marginais (mas condicionas sob parametros desconhecidos) usadas em abordagens frequencistas.

Os procedimentos frequencistas de teste significativo e intervalos de confianca podem ser construidos sem preocupacao por por funcoes de utilidade . No entanto, alguns elementos da estatistica frequencista, tal como a teoria de decisao estatistica , sim incorporam funcoes de utilidade. Em particular, desenvolvimentos frequencistas de inferencia otima (tais como estimativas imparciais de variacao minima, ou teste uniforme mais potente) fazem uso de funcoes de perda, que tomam o papel de funcoes de utilidade (negativa). Funcoes de perda nao precisam explicitamente afirmadas para que os teoricos estatisticos provem que um procedimento estatistico tem uma propriedade otima. [ 39 ] No entanto, funcoes de perda sao com frequencia uteis para contar propriedade otimas: por exemplo, estimativas de media imparcial sao otimas sob valores absolutos de funcoes de perda, no que elas minimizam a perda esperada, e estimativas de minimos quadrados sao otimas sob erros de funcoes de perda quadradas, no que minimizam a perda esperada.

Enquanto que estatisticos usando inferencia frequencista devem escolher, eles mesmos, os parametros de interesse, e as estimativas/testes de estatistica a seres usadas, a ausencia de utilidades obviamente explicitas e distribuicoes anteriores tem ajudado os procedimentos frequencistas a se tornarem amplamente vistos como "objetivos".

Inferencia bayesiana [ editar | editar codigo-fonte ]

Ver tambem: Inferencia bayesiana

O calculo bayesiano descreve graus de crenca usando a "linguagem" da probabilidade; crencas sao positivas, o seu integral tem o valor um , e obedecem a axiomas de probabilidade. A inferencia bayesiana faz uso de crencas posteriores disponiveis como a base para fazer as proposicoes estatisticas. Ha varias justificativas diferentes para usar a abordagem bayesiana.

Exemplos de inferencia bayesiana [ editar | editar codigo-fonte ]

Inferencia bayesiana, subjetividade, e teoria da decisao [ editar | editar codigo-fonte ]

Muitas inferencias bayesianas informais sao baseadas nos resumos "intuitivamente razoaveis" do posterior. Por exemplo, a media posterior, mediana e moda, mais alta densidade posterior de intervalos, e Fatores bayesianos podem todos ser motivamos desta forma. Enquanto que a funcao de utilidade de um usuario nao precisa ser afirmada para este tipo de inferencia, estes resumos dependem todos (ate determinado ponto) em crencas afirmadas anteriormente, e sao geralmente vistas como conclusoes subjetivas. Metodos de construcao anterior que nao requerem input externo tem sido propostos, mas nao ainda completamente desenvolvidos.

Formalmente. a inferencia bayasiana e calibrada com referencia a uma utilidade explicitamente afirmada, ou funcao de perda ; a "regra de Bayes" e a aquela que maximiza as utilidades esperadas, tomando a media da incerteza posterior. A inferencia bayesiana formal, entao, automaticamente fornece decisoes otimas em um sentido teoretico de decisao . Dadas suposicoes, dados e utilidade, a inferencia bayesiana pode ser usada para essencialmente qualquer problema, apesar de que nem toda inferencia estatistica precise ter uma interpretacao bayesiana. Analises que nao sao formalmente bayesianos podem ser (logicamente) incoerentes/ uma caracteristica dos procedimentos bayesianos que usa anteriores proprios (ex. aqueles integraveis ao valor um) e que elas tem a garantia de serem coerentes. Alguns defensores da inferencia bayesiana afirmam que a inferencia deve ocorrer nesta condicao de decisao teoretica, e que a inferencia bayesiana nao deveria concluir com a avaliacao e resume de crencas posteriores.

Inferencia baseada no AIC [ editar | editar codigo-fonte ]

Descricao de comprimento minimo [ editar | editar codigo-fonte ]

Ver artigo principal: Descricao de comprimento minimo

O principio de descricao de comprimento minimo foi desenvolvido a partir de ideias da teoria da informacao [ 40 ] e da teoria da complexidade de Kolmogorov . [ 41 ] O principio seleciona modelos estatisticos que comprimem os dados ao maximo, a inferencia procede sem assumir "mecanismos geradores de dados" ou modelos de probabilidade contrafactuais ou nao-falsificaveis para os dados, como pode ocorrer em abordagens frequencistas ou Bayesianas.

No entanto, se um "mecanismo gerador de dados" existe na realidade, entao de acordo com o teorema de codificacao da fonte de Shannon ele fornece a descricao de comprimento minimo dos dados, em media e assintoticamente. [ 42 ] Em minimizar o comprimento da descricao (ou complexidade da descricao), a estimativa de descricao de comprimento minimo e similar a estimativa da maxima verossimilhanca e estimativa do maximo a posteriori (usando probabilidade a priori de entropia maxima). No entanto, a descricao de comprimento minimo evita assumir que o modelo de probabilidade subjacente e conhecido; o principio de descricao de comprimento minimo tambem pode ser aplicado sem premissas como de que os dados vieram de amostragem independente, por exemplo. [ 42 ] [ 43 ]

O principio de descricao de comprimento minimo foi aplicado em teoria de codigos , em teoria da informacao , em regressao linear , [ 43 ] e em mineracao de dados . [ 41 ]

A avaliacao de procedimentos de inferencia baseada em descricao de comprimento minimo geralmente utiliza tecnicas ou criterios de teoria de complexidade computacional . [ 44 ]

Inferencia fiducial [ editar | editar codigo-fonte ]

Inferencia fiducial era uma abordagem de inferencia estatistica baseada em probabilidade fiduciaria, tambem conhecida como "distribuicao fiduciaria". Em trabalhos subsequentes, essa abordagem foi considerada mal definida, extremamente limitada em sua aplicabilidade, e ate mesmo falaciosa. [ 45 ] [ 46 ] No entanto, esse argumento e o mesmo que dizia que [ 47 ] uma distribuicao fiduciaria nao e uma distribuicao de probabilidade valida e, uma vez que isso nao invalidou a aplicacao de intervalos de confianca , isso nao necessariamente invalida as conclusoes de um argumento fiduciario. Foi feita uma tentativa de reinterpretar os primeiros trabalhos de Fisher sobre argumento fiduciario como uma caso especial de teoria de inferencia usando probabilidades superiores e inferiores. [ 48 ]

Inferencia estrutural [ editar | editar codigo-fonte ]

Partindo de ideias de Fisher e Pitman de 1938 a 1939, [ 49 ] George A. Barnard desenvolveu a "inferencia estrutural" ou "inferencia pivotal", [ 50 ] uma abordagem usando probabilidades invariantes em familias de grupos. Barnard reformulou os argumentos por tras da inferencia fiducial em uma classe restrita de modelos nos quais os procedimentos "fiduciarios" seriam bem definidos e uteis.

Ver tambem [ editar | editar codigo-fonte ]

Referencias

  1. Upton, G.; Cook, I. (2008). Oxford Dictionary of Statistics (em ingles). [S.l.]: Oxford University Press. ISBN   978-0-19-954145-4  
  2. Konishi & Kitagawa (2008), p.75
  3. Cox (2006), p.197
  4. De acordo com Peirce, aceitacao significa que as questoes para determinada pergunta cessam durante esse periodo. Na ciencia, todas as teorias cientificas podem ser revistadas.
  5. a b Cox (2006) pag. 2
  6. Evans, Michael (2004). Probability and Statistics: The Science of Uncertainty (em ingles). [S.l.]: Freeman and Company. 267 paginas  
  7. van der Vaart, A.W. (1998). Asymptotic Statistics (em ingles). [S.l.]: Cambridge University Press. 341 paginas. ISBN   0-521-78450-6  
  8. Kruskal 1988
  9. Freedman, D.A. (2008). ≪Survival analysis: An Epidemiological hazard?≫. The American Statistician (em ingles). 62 : 110-119  
  10. Berk, R. (2003). Regression Analysis: A Constructive Critique (Advanced Quantitative Techniques in the Social Sciences) (v. 11) (em ingles). [S.l.]: Sage Publications. ISBN   0-7619-2904-5  
  11. a b Brewer, Ken (2002). Combined Survey Sampling Inference: Weighing of Basu's Elephants (em ingles). [S.l.]: Hodder Arnold. 6 paginas. ISBN   978-0340692295  
  12. a b Hoffman-Jorgensen, Jorgen. Probability With a View Towards Statistics, Volume I (em ingles). [S.l.: s.n.] 399 paginas  
  13. Le Cam (1986)
  14. Torgerson, Erik (1991). Comparison of Statistical Experiments, volume 36 of Encyclopedia of Mathematics (em ingles). [S.l.]: Cambridge University Press.  
  15. Liese, Friedrich; Miescke, Klaus-J (2008). Statistical Decision Theory: Estimation, Testing, and Selection (em ingles). [S.l.]: Springer. ISBN   0-387-73193-8  
  16. Kolmogorov (1963, p.369): "O conceito de frequencia, baseado na nocao de frequencia limitante a medida que o numero de testes aumenta infinitamente, nao contribui em nada para substanciar a aplicabilidade dos resultados da teoria de probabilidade para problemas praticos reais onde temos sempre que lidar com um numero finito de testes" (livre traducao)
  17. "De fato, teoremas de limite "a medida que tendem para o infinito" sao logicamente desprovidos de conteudo sobre o que acontece em qualquer evento. Tudo o que eles podem fazer e sugerir certas abordagens cujas performances devem entao ser verificadas no caso em maos" (livre traducao) ? Le Cam (1986) (pag. xiv)
  18. Pfanzagl (1994): "O inconveniente crucial da teoria assintotica: O que nos esperamos da teoria assintotica sao resultados que contem aproximadamente... O que a teoria assintotica tem a oferecer sao teoremas de limite" (p. 9) "O que conta para as aplicacoes sao as aproximacoes, nao os limites" (pag. 188) (livre traducao)
  19. Pfanzagl (1994): "Ao tomar um teorema de limite como sendo aproximadamente verdadeiro para uma amostra grande, nos cometemos um erro cujo tamanho e desconhecido. [...] Informacao realista sobre os erros remanescente pode ser obtida por simulacoes" (pag. 9) (traducao livre)
  20. Neyman, J. (1934). ≪On the two different aspects of the representative method: The method of stratified sampling and the method of purposive selection≫. Journal of the Royal Statistical Society . JSTOR   2342192  
  21. a b Hinkelmann e Kempthorne(2008)
  22. Guia ASA para um primeiro curso em estatistica para nao estatisticos.. (disponivel no website da ASA) (em ingles)
  23. David A. Freedman et alia's Statistics . (em ingles)
  24. David S. Moore e George McCabe. Introduction to the Practice of Statistics. (em ingles)
  25. Gelman A. et al. (2013). Bayesian Data Analysis (Chapman & Hall) (em ingles).
  26. Peirce (1877-1878)
  27. Peirce (1883)
  28. David Freedman et alia Statistics e David A. Freedman Statistical Models . (em ingles)
  29. Rao, C.R. (1997). Statistics and Truth: Putting Chance to Work (em ingles). [S.l.]: World Scientific. ISBN   981-02-3111-3  
  30. Peirce, Freedman, Moore e McCabe
  31. Box, G.E.P. (2006). Improving Almost Anything: Ideas and Essays (em ingles). [S.l.]: Wiley. ISBN   978-0-471-72755-2  
  32. Cox (2006), pag. 196
  33. Guia ASA para um primeiro curso de estatistica para nao estatisticos. (disponivel no website da ASA) David A. Freedman et alia's Statistics . (em ingles) David S. Moore e George McCabe. Introduction to the Practice of Statistics. (em ingles)
  34. Neyman, Jerzy. 1923 [1990]. "On the Application of Probability Theory to AgriculturalExperiments. Essay on Principles. Section 9." Statistical Science 5 (4): 465?472. Trans. Dorota M. Dabrowska and Terence P. Speed. (em ingles)
  35. Hinkelmann & Kempthorne (2008)
  36. Hinkelmann e Kempthorne (2008) Capitulo 6.
  37. Bandyopadhyay & Forster (2011). A citacao e retirada da introducao do livro (pag. 3). Ver tambem "Section III: Four Paradigms of Statistics". (em ingles)
  38. Neyman, J. (1937). Outline of a Theory of Statistical Estimation Based on the Classical Theory of Probability (em ingles). [S.l.]: Philosophical Transactions of the Royal Society of London. pp. 236, 333?380  
  39. Prefacio do Pfanzagl.
  40. Soofi (2000)
  41. a b Hansen & Yu (2001)
  42. a b Hansen e Yu (2001), pagina 747.
  43. a b Rissanen (1989), pagina 84
  44. Joseph F. Traub, G. W. Wasilkowski, and H. Wozniakowski. (1988)
  45. Neyman (1956)
  46. Zabell (1992)
  47. Cox (2006) pag 66
  48. Hampel 2003 .
  49. Davison, pag 12.
  50. Barnard, G.A. (1995) "Pivotal Models and the Fiducial Argument", International Statistical Review, 63 (3), 309?323. JSTOR   1403482