Historia de La Estadística

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 18

HISTORIA DE LA ESTADÍSTICA

Ir a la navegaciónIr a la búsqueda

Se puede afirmar que la Historia de la estadística comienza de una quinta


alrededor de 1549, aunque con el tiempo, ha habido cambios en la
interpretación de la palabra "estadística". En un principio, el significado estaba
restringido a la información acerca de los estados. Este fue extendido
posteriormente para incluir toda colección de información de cualquier tipo, y
más tarde fue extendido para incluir el análisis e interpretación de los datos. En
términos modernos, "estadística" significa tanto conjuntos de información
recopilada, por ejemplo registros de temperatura, contabilidad nacional, como
trabajo analítico que requiera Estadística inferencial|inferencia estadístico

Índice

1 Introducción

2 Etimología

3 Orígenes en probabilidades

3.1 Notas

4 Inferencia

4.1 Estadísticas bayesianas

5 Estadísticas en la actualidad

6 Importantes contribuyentes a la estadística

7 Referencias

8 Bibliografía

9 Enlaces externos

Introducción

En el siglo XIV el término "estadística" designaba la colección sistemática de


datos demográficos y económicos por los estados. A principios del siglo XIX, el
significado de "estadística" fue ampliado para incluir la disciplina ocupada de
recolectar, resumir y analizar los datos. Hoy la estadística es ampliamente
usada en el gobierno, los negocios y todas las ciencias. Las computadoras
electrónicas han acelerado la estadística computacional y ha permitido a los
estadísticos el desarrollo de métodos que usan recursos informáticos
intensivamente.

El término "estadística matemática" designa las teorías matemáticas de la


probabilidad e inferencia estadística, las cuales son usadas en la estadística
aplicada. La relación entre estadística y probabilidades se fue desarrollando
con el tiempo. En el siglo XIX, las estadísticas usaron de forma gradual la
teoría de probabilidades, cuyos resultados iniciales fueron encontrados en los
siglos XVII y XXI, particularmente en el análisis de los juegos de azar
(apuestas). Para 1600, la astronomía usaba modelos probabilísticos y teorías
estadísticas, particularmente el método de los mínimos cuadrados, el cual fue
inventado por Legendre y Gauss. La incipiente teoría de las probabilidades y
estadísticas fue sistematizada y extendida por Laplace; después de este, las
probabilidades y estadísticas han experimentado un continuo desarrollo. En el
siglo XIX, el razonamiento estadístico y los modelos probabilísticos fueron
usados por las ciencias sociales para el avance las nuevas ciencias de
psicología experimental y sociología, y por las ciencias físicas en
termodinámica y mecánica estadística. El desarrollo del razonamiento
estadístico estuvo fuertemente relacionado con el desarrollo de la lógica
inductiva y el método científico.

La estadística puede ser considerada no como una rama de las matemáticas,


sino como una ciencia matemática autónoma, como las ciencias de la
computación y la investigación de operaciones. A diferencia de las
matemáticas, la estadística tuvo sus orígenes en la administración pública. Fue
usada en la demografía y la economía. Con el énfasis en el aprendizaje de los
datos y en la elaboración de las predicciones más acertadas, la estadística se
ha solapado con la teoría de la decisión y la microeconomía. Con el enfoque de
los datos, la estadística se ha solapado con la ciencia de la información y las
ciencias de la computación.

Etimología
El término «estadística», en última instancia, deriva la palabra del neolatín
statisticum collegium (consejo de estado) y la palabra italiana statista (‘hombre
de estado’ o político). La palabra alemana statistik, introducida primeramente
por Godofredo Achenwall (1749), originalmente designaba el análisis de datos
acerca del estado, significando la ‘ciencia del estado’ (llamado posteriormente
«aritmética política» en idioma inglés). A principios del siglo XIX, adquirió el
significado de colección y clasificación de datos. El término fue introducido en
Inglaterra en 1792 por sir John Sinclair cuando publicó el primero de los 21
volúmenes titulados Statistical account of Scotland.1

De esta forma, el propósito original principal de la statistik eran los datos


usados por el gobierno y los cuerpos administrativos (a menudo centralizados).
La colección de datos acerca de estados y localidades continúa, en mayor
parte a través de servicios estadísticos nacionales e internacionales. En
particular, los censos proveen frecuentemente información actualizada acerca
de la población.

El primer libro en tener ‘estadísticas’ en su título fue “Contributions to Vital


Statistics” por Francis GP Neison, registrado a la Medical Invalid and General
Life Office (1 era edición 1845, 2nda ed. 1846, 3.ª ed. 1857).[cita requerida]

Orígenes en probabilidades

El uso de los métodos estadísticos se remonta al menos al siglo V a. C. El


historiador Tucídides en su Historia de la Guerra del Peloponeso2 describe
como los atenienses calculaban la altura de la muralla de Platea, contando el
número de ladrillos de una sección expuesta de la muralla que estuviera lo
suficientemente cerca como para contarlos. El conteo era repetido varias veces
por diferentes soldados. El valor más frecuente (la moda en términos más
modernos) era tomado como el valor del número de ladrillos más probable.
Multiplicando este valor por la altura de los ladrillos usados en la muralla les
permitía a los atenienses determinar la altura de las escaleras necesarias para
trepar las murallas.

En el poema épico indio Majabhárata (libro 3: la historia del rey Nala), el rey
Ritupama estimaba el número de frutas y hojas (2095 frutas y 50,00,000 hojas
(5 crores)) en dos grandes hojas de un árbol Vibhitaka contándolos en un solo
vástago. Este número era luego multiplicado por el número de vástagos en las
ramas. Este estimado fue posteriormente verificado y se halló que estaba muy
cerca del número verdadero. Con el conocimiento de este método Nala pudo
subsecuentemente reconquistar su reino.

El primer escrito de estadística fue encontrado en un libro del siglo IX titulado


Manuscrito sobre el descifrado de mensajes criptográficos, escrito por Al-Kindi
(801-873). En su libro, Al-Kindi da una descripción detallada sobre el uso de las
estadísticas y análisis de frecuencias en el descifrado de mensajes, este fue el
nacimiento tanto de la estadística como del criptoanálisis.34

La Prueba del Pyx es una prueba de pureza de la moneda del Royal Mint, que
ha sido llevada a cabo regularmente desde el siglo XII. La prueba en sí misma
está basada en métodos de muestreo estadístico. Después de acuñar una
serie de monedas ―originalmente de 10 libras de plata― una moneda singular
era colocada en el Pyx (una caja en la Abadía de Westminster). Después de un
tiempo ―ahora una vez al año― las monedas son retiradas y pesadas. Luego,
una muestra de monedas retiradas de la caja es probada por pureza.

La Nuova Crónica, una historia de Florencia del siglo XIV escrita por el
banquero florentino y oficial Giovanni Villani, incluye mucha información
estadística.sobre la población, ordenanzas, comercio, educación y
edificaciones religiosas, y ha sido descrito como la primera introducción de la
estadística como elemento positivo en la historia,5 aunque ni el término ni el
concepto de la estadística como campo específico existía aún. Esto se
demostró que era incorrecto después del hallazgo del libro de Al-Kindi sobre
análisis de frecuencias.34

Aunque era un concepto conocido por los griegos, la media aritmética no fue
generalizada a más de dos valores hasta el siglo 16. La invención del sistema
decimal por Simon Stevin en 1585 parece haber facilitado estos cálculos. Este
método fue adoptado por primera vez en astronomía por Tycho Brahe, el que
intentaba reducir errores en sus estimados de las localizaciones de varios
cuerpos celestiales.

La idea de la mediana se originó en el libro de navegación de Edward Wright


(Certaine errors in navigation) en 1599 en una sección concerniente a la
determinación de una localización con un compás. Wright sintió que este valor
era el que más probablemente estuviera correcto en una serie de
observaciones.

John Graunt en su libro Natural and Political Observations Made upon the Bills
of Mortality, estimó la población de Londres en 1662 a través de registros
parroquiales. Él sabía que había cerca de 13,000 funerales al año en Londres y
que de cada once familias tres personas morían por año. Estimó de los
registros parroquiales que el tamaño promedio de las familias era 8 y calculó
que la población de Londres era de cerca de 384 000. Laplace en 1802 estimó
la población de Francia con un método similar.

Los métodos matemáticos de la estadística surgieron de la teoría de


probabilidades, la cual tiene sus raíces en la correspondencia entre Pierre de
Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) proveyó el primer
tratamiento científico sobre el tema que se conozca hasta la fecha. El libro Ars
Conjectandi de Jakob Bernoulli (póstumo 1713) y La doctrina de las
probabilidades (1718) de Abraham de Moivre trataron el tema como una rama
de las matemáticas. En su libro, Bernoulli introdujo la idea de representar
certeza completa como el número 1 y la probabilidad como un número entre
cero y uno.

Galileo luchó contra el problema de errores en las observaciones y había


formulado ambiguamente el principio de que los valores más probables de
cantidades desconocidas serían aquellos que hicieran los errores en las
ecuaciones razonablemente pequeños. El estudio formal en teoría de errores
puede ser originado en el libro de Roger Cotes (Opera Miscellanea, póstumo
1750). Tobias Mayer, en su estudio de los movimientos de la Luna
(Kosmographische Nachrichten, Núremberg, 1750), inventó el primer método
formal para estimar cantidades desconocidas generalizando el promedio de las
observaciones bajo circunstancias idénticas al promedio de los grupos de
ecuaciones similares.

Un primer ejemplo de lo que posteriormente fue conocido como la curva normal


fue estudiado por Abraham de Moivre, quien trazó esta curva en noviembre 12,
1733.6 De Moivre estaba estudiando el número de caras que ocurrían cuando
una moneda “justa” era lanzada.

En sus memorias ―Un intento por mostrar la emergente ventaja de tomar la


media de un número de observaciones en astronomía práctica― preparada por
Thomas Simpson en 1755 (impreso en 1756) aplicaba por primera vez la teoría
a la discusión de errores en observaciones. La reimpresión (1757) de sus
memorias sostiene el axioma que errores positivos y negativos son igualmente
probables, y que hay ciertos valores límites dentro de los cuales todos los
errores se encuentran; los errores continuos son discutidos y se provee una
curva de probabilidad. Simpson discutió varias posibles distribuciones de error.
Primero consideró la distribución uniforme y después la distribución triangular
discreta simétrica, seguida por la distribución triangular continua simétrica.

Ruder Boškovic en 1755 se basó en su trabajo sobre la forma de la Tierra


propuesto en el libro De litteraria expeditione per pontificiam ditionem ad
dimetiendos duos meridiani gradus a PP. Maire et Boscovicli para proponer que
el verdadero valor de una serie de observaciones sería aquel que minimizara la
suma de los errores absolutos. En terminología moderna este valor es la
media.

Johann Heinrich Lamber en su libro de 1765 Anlage zur Architectonic propuso


el semicírculo como una distribución de errores:

{\displaystyle f(x)={\frac {1}{2}}{\sqrt {(1-x^{2})}}}{\displaystyle f(x)={\frac {1}{2}}


{\sqrt {(1-x^{2})}}}

con –1 = x = 1.

Pierre-Simon Laplace (1774) hizo su primer intento de deducir una regla para la
combinación de observaciones desde los principios de la teoría de las
probabilidades. El representó la ley de a probabilidad de errores mediante una
curva y dedujo una fórmula para la media de tres observaciones.

Laplace en 1774 notó que la frecuencia de un error podía ser expresada como
una función exponencial de su magnitud una vez descartado el signo.78 Esta
distribución es ahora conocida como distribución de Laplace.

Lagrange propuso una distribución parabólica de errores en 1776:


{\displaystyle f(x)={\frac {3}{4}}(1-x^{2})}{\displaystyle f(x)={\frac {3}{4}}(1-x^{2})}

con -1 = x = 1.

Laplace en 1778 publicó su segunda ley de errores en la cual notó que la


frecuencia de un error era proporcional a la función exponencial del cuadrado
de su magnitud. Esto fue descubierto subsecuentemente por Gauss
(posiblemente en 1797) y es ahora mejor conocida como distribución normal, la
cual es de importancia central en la estadística.9Esta distribución fue referida
como «normal» por primera vez por Pierce en 1873, quien estaba estudiando
las medidas de error cuando un objeto era dejado caer sobre una superficie de
madera.10Escogió el término «normal» debido a su ocurrencia frecuente en
variables que ocurrían en la naturaleza.

Lagrange también sugirió en 1781 otras dos distribuciones para errores ―una
distribución coseno―:

{\displaystyle f(x)={\frac {\pi }{4}}cos({\frac {\pi x}{2}})}{\displaystyle f(x)={\frac {\pi


}{4}}cos({\frac {\pi x}{2}})}

con -1 = x = 1 y una distribución logarítmica

{\displaystyle f(x)={\frac {1}{2}}{\frac {1}{|x|}}}{\displaystyle f(x)={\frac {1}{2}}{\frac


{1}{|x|}}}

con -1 = x = 1 donde || es el --valor absoluto-- de x.

Laplace obtuvo una fórmula (1781) para la ley de facilidad de un error (un
término acuñado por Joseph Louis Lagrange, 1774), pero esta conllevaba a
ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del
máximo producto de las probabilidades de un sistema de errores concurrentes.

Laplace, en una investigación del movimiento de Saturno y Júpiter en 1787,


generalizó el método de Mayer usando diferentes combinaciones lineales de un
grupo de ecuaciones.

En 1802 Laplace estimó la población en Francia a 28,328,612.11Él calculó este


número usando la cantidad de nacimientos del año anterior y el dato del censo
de tres comunidades. Los datos de los censos de estas comunidades
mostraron que tenían 2,037,615 personas y que el número de nacimientos era
de 71,866. Suponiendo que estas muestras eran representativas de Francia,
Laplace produjo un estimado para la población entera.

El método de los mínimos cuadrados, el cual era usado para minimizar errores
en la medición de datos, fue publicado independientemente por Adrien-Marie
Legendre (1805), Robert Adrain (1808), y Carl Friedrich Gauss (1809).Gauss
había usado el método en su famosa predicción en 1801 de la localización del
planeta enano Ceres. Las observaciones en las que Gauss basó sus cálculos
fueron hechas por el monje italiano Piazzi. Posteriormente se dieron
demostraciones por Laplace (1810, 1812), Gauss (1823), Ivory (1825, 1826),
Hagen (1837), Bessel (1838), Donkin (1844, 1856), Herschel (1850), Crofton
(1870), y Thiele (1880, 1889).

El término «error probable» (der wahrscheinliche Fehler) ―la desviación


media― fue introducido en 1815 por el astrónomo alemán Frederik Wilhelm
Bessel.

Antoine Augustin Cournot en 1843 fue el primero en usar el término «mediana»


(valeur médiane) para el valor que divide la distribución de probabilidad en dos
mitades iguales.

Otros contribuyentes a la teoría de errores fueron Ellis (1844), De Morgan


(1864), Glaisher (1872), y Giovanni Schiaparelli (1875).[cita requerida] La
fórmula de Peters (1856) para {\displaystyle r}r, el "error probable" de una sola
observación fue ampliamente usada e inspiró tempranamente la estadística
robusta (resistente a valores atípicos: ver criterio de Peirce).

En el siglo 19 los autores de la teoría estadística incluían a Laplace, S. Lacroix


(1816), Littrow (1833), Dedekind (1860), Helmert (1872), Laurant (1873),
Liagre, Didion, De Morgan, Boole, Edgeworth,12 y K. Pearson.13

Gustav Theodor Fechner usó la mediana (centralwerth) en fenómenos


sociológicos y sociológicos.14 Anteriormente había sido usado solamente en
astronomía y campos relacionados.

Las primeras pruebas de la distribución normal fueron inventadas por el


estadístico alemán Wilhelm Lexis en 1870. El único conjunto de datos
disponible para él, en que le era posible mostrar que estaba normalmente
distribuido, era la frecuencia de nacimientos.

Francis Galton estudió una variedad de características humanas ―altura, edad,


peso, tamaño de las pestañas, entre otras― y encontró que muchos de estos
factores podían ser ajustados a una distribución normal.15

Francis Galton en 1907 entregó un artículo a la revista Nature acerca de la


utilidad de la mediana.16 El examinó la precisión de 787 intentos de adivinar el
peso de un buey en una feria de campo. El peso real era de 1208: la mediana
de todas las conjeturas fue 1198 libras. Las conjeturas fuern marcadamente no
normales en su distribución.

El noruego Anders Nicolai Kiær introdujo el concepto de muestreo estratificado


en 1895.17 Arthur Lyon Bowley introdujo el muestreo aleatorio en 1906. [20]
Jerzy Neyman en 1934 hizo evidente que el muestreo aleatorio estratificado era
en general un mejor método de estimación que el muestreo intencional (por
cuota).18

El nivel de significación del 5 % parece ser introducido por Fisher en 1925.19


Fisher expresó que las desviaciones que excedían dos veces la desviación
estándar eran consideradas significativas. Previamente a esto las desviaciones
que excedían tres veces el error probable eran consideradas significativas.
Para una distribución simétrica el error probable la mitad del rango intercuantil.
El cuantil superior de la distribución normal estándar está entre 0.66 y 0.67, su
error probable es aproximadamente 2/3 de la desviación estándar. Parece que
el criterio de Fisher del 5% tenía sus raíces en la práctica previa.

En 1929 Wilso y Hilferty re-examinaron los datos de Pierce de 1873 y


descubrieron que en realidad no estaba realmente normalmente distribuida.20

Notas

Ver Ian Hacking's The emergence of probability21 and James Franklin's The
science of conjecture: evidence and probability before Pascal22 para historias
del desarrollo del concepto de probabilidad matemática. En la era moderna, el
trabajo de Andréi Kolmogórov ha sido imprescindible para la formulación del
modelo fundamental de Teoría de Probabilidades.23

Inferencia

Charles S. Peirce (1839-1914) formuló teorías frecuentistas de estimación y


prueba de hipótesis (1877-1878) y (1883), cuando introdujo la “confianza”.
Pierce también introdujo experimentos aleatorios controlados y a ciegas con
diseño de medidas repetidas.24 Pierce inventó un diseño óptimo para
experimentos sobre gravedad.

Estadísticas bayesianas

Pierre-Simon, marqués de Laplace, uno de los principales desarrolladores de la


estadística bayesiana

El término "bayesiano" se refiere a Thomas Bayes (1702 – 1761), quién probó


un caso especial de lo que se conoce hoy como Teorema de Bayes. Sin
embargo fue Pierre-Simon Laplace (1749–1827) quien introdujo una visión
general del teorema y lo aplicó a mecánica celeste, estadísticas médicas,
confiabilidad y jurisprudencia. Cuando el conocimiento disponible era
insuficiente para especificar una prior informada, Laplace usaba priores
uniformes, de acuerdo a su principio de razón insuficiente.25 Laplace asumió
priores uniformes más por claridad matemática que por razones filosóficas.25
Laplace también introdujo versiones primitivas de priores conjugadas y el
teorema de von Mises y Bernstein, de acuerdo a los cuales, las posteriores
correspondientes a priores inicialmente diferentes convergen asintóticamente
con el crecimiento del número de observaciones.26 Esta temprana inferencia
bayesiana, que usaba priores uniformes de acuerdo con el principio de Laplace
de razón insuficiente, fue llamado “probabilidad inversa” (debido a su inferencia
hacia atrás desde las observaciones a los parámetros, o de efectos a
causas).27).

Después de los años veinte, la probabilidad inversa fue suplantada en su


mayoría por una colección de métodos desarrollados por Ronald A. Fisher,
Jerzy Neyman y Egon Pearson. Sus métodos fueron llamados estadística
frecuentista.27Fisher rechazó el enfoque bayesiano, escribiendo que “la teoría
de la probabilidad inversa está fundada sobre un error, y debe ser rechazada
por completo”.28 Al final de su vida, sin embargo, Fisher expresó un gran
respeto por los ensayos de Bayes, los cuales Fisher creía que habían
anticipado su propio enfoque fiducial a la probabilidad; Fisher aún mantenía
que la visión de Laplace de las probabilidades era “sinsentido falaz”.28Neyman
comenzó como un “cuasibayesiano”, pero con el tiempo desarrolló los
intervalos de confianza (un método clave estadísticas frecuentistas) porque “la
teoría completa sería mejor si estuviera construida desde el comienzo sin
referencia al bayesianismo y las priores”.29La palabra bayesiano apareció en
1930 y para 1960 se convirtió en el término preferido por aquellos que no
estaban satisfechos con las limitaciones de las estadísticas frecuentistas.2730

En el siglo XX, las ideas de Laplace fueron desarrolladas posteriormente en


dos direcciones, dando origen a las corrientes objetivas y subjetivas en la
páctica bayesiana. En la corriente objetiva, el análisis estadístico depende solo
del modelo asumido y el dato analizado.31 No hay necesidad de involucrar
decisiones subjetivas. En contraste, los estadísticos “subjetivos” niegan la
posibilidad de un análisis completamente objetivo en el caso general.

En el subsiguiente desarrollo de las ideas de Laplace, las ideas subjetivas


predominaron sobre las objetivas. La idea de que la “probabilidad” debería ser
interpretada como el ¨grado de creencia subjetivo en una proposición¨ fue
propuesto, por ejemplo, por John Maynard Keynes a comienzos de la década
de 1920. Esta idea fue llevada más lejos por Bruno de Finetti en Italia
(Fondamenti Logici del Ragionamento Probabilistico, 1930) y Frank Ramsey en
Cambridge (The Foundations of Mathematics, 1931).32 El enfoque fue
diseñado para resolver problemas con la definición frecuentista de la
probabilidad, pero también con el anterior enfoque objetivo de Laplace.31 El
método subjetivo bayesiano fue sucesivamente desarrollado y popularizado en
los años cincuenta por L. J. Savage.

La inferencia objetiva bayesiana fue desarrollada con posterioridad por Harold


Jeffreys, cuyo libro "Theory of probability" apareció en 1939. En 1957, Edwin
Thompson Jaynes promovió el concepto de entropía máxima para construir
priores, el cual es un principio importante en la formulación de métodos
objetivos, principalmente para problemas discretos. En 1965, el segundo
volumen de Dennis Lindley "Introduction to probability and statistics from a
bayesian viewpoint" llevó los métodos bayesianos a un público más amplio. En
1979, José-Miguel Bernardo introdujo el análisis referencial,31 el cual ofrece un
marco de trabajo general aplicable para el análisis objetivo. Otros de los más
populares proponentes del bayesianismo incluyen a I. J. Good, B. O. Koopman,
Howard Raiffa, Robert Schlaifer y Alan Turing

En los años ochenta hubo un crecimiento dramático en investigaciones y


aplicaciones de métodos bayesianos, mayormente atribuibles al descubrimiento
de los métodos Markov chain Monte Carlo, los cuales eliminaron, muchos de
los , y al creciente interés en aplicaciones complejas y no estándares.33 A
pesar del crecimiento de la investigación bayesiana, la mayoría de la
enseñanza universitaria está basada en estadísticas frecuentistas.34 Sin
embargo, los métodos bayesianos son ampliamente aceptados y usados, por
ejemplo, en el campo de aprendizaje de máquinas.35

Estadísticas en la actualidad

Durante el siglo 20, la creación de instrumentos precisos para la investigación


en agricultura, problemas de salud pública (epidemiología, bioestadísticas,
etc.), control de calidad industrial y propósitos económicos y sociales (tasa de
desempleo, econometría, etc.) necesitaron de los avances substanciales en la
práctica de la estadística.

Hoy el uso de la estadística se ha ampliado más allá de sus orígenes.


Individuos y organizaciones usan las estadísticas para entender los datos y
hacer decisiones informadas a través de las ciencias naturales y sociales,
medicina, negocios y otras áreas.

La estadística es generalmente considerada no como una rama de las


matemáticas, sino como un campo distintivo e independiente. Muchas
universidades mantienen separados los departamentos de matemática y
estadística. La estadística es también enseñada en departamentos tan diversos
como psicología, pedagogía y salud pública.

Importantes contribuyentes a la estadística

Thomas Bayes
George E. P. Box

Pafnuti Chebyshov

David R. Cox

Gertrude Cox

Harald Cramér

Francis Ysidro Edgeworth

Bradley Efron

Bruno de Finetti

Ronald A. Fisher

Francis Galton

Carl Friedrich Gauss

William Sealey Gosset (student)

Andréi Kolmogórov

Pierre-Simon Laplace

Erich L. Lehmann

Aleksandr Liapunov

Abraham de Moivre

Jerzy Neyman

Blaise Pascal

Karl Pearson

Charles S. Peirce

Adolphe Quetelet

C. R. Rao

Walter A. Shewhart
Charles Spearman

Thorvald N. Thiele

John W. Tukey

Abraham Wald

Al-Kindi

Referencias

Ball, Philip (2004). Critical Mass. Farrar, Straus and Giroux. p. 53. ISBN 0-374-
53041-6.

Thucydides (1985). History of the Peloponnesian War. Nueva York: Penguin


Books, Ltd. p. 204.

Singh, Simon (2000). The code book : the science of secrecy from ancient
Egypt to quantum cryptography (1st Anchor Books ed. edición). Nueva York:
Anchor Books. ISBN 0-385-49532-3.

Ibrahim A. Al-Kadi "The origins of cryptology: The Arab contributions”,


Cryptologia, 16 (2), abril de 1992; pp. 97-126.

Villani, Giovanni. Encyclopædia Britannica. Encyclopædia Britannica 2006


Ultimate Reference Suite DVD. Consultado el 4 de marzo de 2008.

de Moive A (1738) The doctrine of chances. Woodfall

Laplace, P.-S. (1774)ː "Mémoire sur la probabilité des causes par les
évènements". Mémoires de l'Académie Royale des Sciences Présentés par
Divers Savants, 6, págs. 621-656.

Wilson, Edwin Bidwell (1923) "First and second laws of error", Journal of the
American Statistical Association, 18 (143), 841-851 JSTOR 2965467

Havil J (2003): Gamma: Exploring Euler's Constant. Princeton (New Jersey):


Princeton University Press, pág. 157.

Peirce CS (1873) Theory of errors of observations. Report of the


Superintendent US Coast Survey, Washington, Government Printing Office.
Appendix no. 21: 200-224
Cochran W.G. (1978) "Laplace’s ratio estimators". pp 3-10. En David, H. A.
(ed.): Contributions to survey sampling and applied statistics: papers in honor of
H. O. Hartley. Nueva York: Academic Press, ISBN 122047508.

(Stigler 1986, Chapter 9: The Next Generation: Edgeworth)

Stigler (1986, Chapter 10: Pearson and Yule)

Keynes, JM (1921) A treatise on probability. Pt II Ch XVII §5 (p 201)

Galton F (1877) Typical laws of heredity. Nature 15: 492-553

Galton F (1907) One Vote, One Value. Nature 75: 414

Bellhouse DR (1988) A brief history of random sampling methods. Handbook of


statistics. Vol 6 pp 1-14 Elsevier

Neyman, J (1934) On the two different aspects of the representative method:


The method of stratified sampling and the method of purposive selection.
Journal of the Royal Statistical Society, 97 (4): págs. 557-625 JSTOR 2342192

Fisher RA (1925) Statistical methods for research workers, Edinburgh: Oliver &
Boyd

Wilson EB, Hilferty MM (1929) Note on C.S. Peirce’s experimental discussion


of the law of Errors. Proc Nat Acad Sci USA, 15 (2) 120-125

Hacking, Ian (2006). The emergence of probability : a philosophical study of


early ideas about probability, induction and statistical inference. Cambridge
New York: Cambridge University Press. ISBN 9780521685573.

Franklin, James (2001). The science of conjecture : evidence and probability


before Pascal. Baltimore: Johns Hopkins University Press. ISBN
9780801871092.

(Salsburg 2001, Chapter 14: The Mozart of Mathematics, pp 137-159)

Hacking, Ian (septiembre de 1988). «Telepathy: Origins of Randomization in


Experimental Design». Isis 79 (3): 427-451. JSTOR 234674. MR 1013489.
doi:10.1086/354775.

Hald (1998)[página requerida]


Lucien Le Cam (1986) Asymptotic methods in statistical decision theory:
páginas 336 y 618-621 (von Mises and Bernstein).

Fienberg, Stephen. E. (2006): «When did bayesian inference become


"bayesian"?» Archivado el 10 de septiembre de 2014 en Wayback Machine.,
artículo en inglés en Bayesian Analysis, 1 (1), págs. 1-40. Ver la página 5.

Aldrich, A. (2008) "R. A. Fisher on Bayes and Bayes' theorem" Archivado el 6


de septiembre de 2014 en Wayback Machine., artículo en inglés en la revista
Bayesian Analysis, 3 (1),161–170

Neyman, J. (1977). «Frequentist probability and frequentist statistics».


Synthese 36 (1): 97-131. doi:10.1007/BF00485695.

Jeff Miller, "Earliest Known Uses of Some of the Words of Mathematics (B)"

Bernardo, JM. (2005). «Reference analysis». Handbook of statistics 25: 17-90.


doi:10.1016/S0169-7161(05)25002-2.

Gillies, D. (2000), Philosophical Theories of Probability. Routledge. ISBN 0-


415-18276-X pp 50–1

Wolpert, RL. (2004) "A conversation with James O. Berger", Statistical


Science, 9, 205–218 doi 10.1214/088342304000000053 MR 2082155

Bernardo, J. M. (2006). «A bayesian mathematical statistics primer».


Proceedings of the Seventh International Conference on Teaching Statistics
[CDROM]. Salvador (Bahia), Brazil: International Association for Statistical
Education.

Bishop, C.M. (2007) Pattern Recognition and Machine Learning. Springer ISBN
978-0-387-31073-2

Bibliografía

Freedman, D. (1999). «From association to causation: Some remarks on the


history of statistics». Statistical Science 14 (3): 243-258.
doi:10.1214/ss/1009212409. (Revised version, 2002).

Hald, Anders (2003). A History of Probability and Statistics and Their


Applications before 1750. Hoboken, NJ: Wiley. ISBN 0-471-47129-1.
Hald, Anders (1998). A History of Mathematical Statistics from 1750 to 1930.
Nueva York: Wiley. ISBN 0-471-17912-4.

Kotz, S., Johnson, N.L. (1992,1992,1997). Breakthroughs in Statistics, Vols I, II,


III. Springer ISBN 0-387-94037-5, ISBN 0-387-94039-1, ISBN 0-387-94989-5

Pearson, Egon (1978). The History of Statistics in the 17th and 18th Centuries
against the changing background of intellectual, scientific and religious thought
(Lectures by Karl Pearson given at University College London during the
academic sessions 1921-1933). Nueva York: MacMillan Publishng Co., Inc. p.
744. ISBN 0-02-850120-9.

Salsburg, David (2001). The Lady Tasting Tea: How Statistics Revolutionized
Science in the Twentieth Century. ISBN 0-7167-4106-7

Stigler, Stephen M. (1986). The History of Statistics: The Measurement of


Uncertainty before 1900. Belknap Press/Harvard University Press. ISBN 0-674-
40341-X.

Stigler, Stephen M. (1999) Statistics on the Table: The History of Statistical


Concepts and Methods. Harvard University Press. ISBN 0-674-83601-4

David, H. A. (1995). «First (?) Occurrence of Common Terms in Mathematical


Statistics». The American Statistician 49 (2): 121. ISSN 0003-1305.
doi:10.2307/2684625.

Enlaces externos

Wikimedia Commons alberga una categoría multimedia sobre Historia de la


estadística.

JEHPS: Recent publications in the history of probability and statistics

Electronic Journ@l for History of Probability and Statistics/Journ@l Electronique


d'Histoire des Probabilités et de la Statistique

Figures from the History of Probability and Statistics (Univ. of Southampton)

Materials for the History of Statistics (Univ. of York)

Probability and Statistics on the Earliest Uses Pages (Univ. of Southampton)


Earliest Uses of Symbols in Probability and Statistics on Earliest Uses of
Various Mathematical Symbols

Historia del razonamiento estadístico. Páginas de bioestadística de la Sociedad


Española de Hipertensión Arterial

También podría gustarte