Historia de La Estadística
Historia de La Estadística
Historia de La Estadística
Saltar a: navegacin, bsqueda Se puede afirmar que la historia de la estadstica comienza alrededor de 1749 aunque, con el tiempo, ha habido cambios en la interpretacin de la palabra estadstica. En un principio, el significado estaba restringido a la informacin acerca de los estados. Este fue extendido posteriormente para incluir toda coleccin de informacin de cualquier tipo, y ms tarde fue extendido para incluir el anlisis e interpretacin de los datos. En trminos modernos, "estadstica" significa tanto conjuntos de informacin recopilada, por ejemplo registros de temperatura, contabilidad nacional, como trabajo analtico que requiera inferencia estadstica. Las actividades estadsticas a menudo se asocian con modelos expresados mediante el uso de probabilidades, y requieren de la teora de probabilidades para tener una firme base terica: Ver Historia de las Probabilidades. Un gran nmero de conceptos de la estadstica han tenido un importante impacto en un amplio rango de ciencias. Estos incluyen el diseo de experimentos y enfoques a la inferencia estadstica como la Inferencia Bayesiana, para cada uno de los cuales se puede considerar que tiene su propia secuencia en el desarrollo de las ideas que subyacen en la estadstica moderna.
ndice
1 Introduccin 2 Etimoliga 3 Orgenes en probabilidades o 3.1 Notas 4 Inferencia o 4.1 Estadsticas Bayesianas 5 Estadsticas en la actualidad 6 Importantes contribuyentes a la estadstica 7 Referencias 8 Bibliografa 9 Enlaces externos
Introduccin
En el siglo 18, el trmino "estadstica" designaba la coleccin sistemtica de datos demogrficos y econmicos por los estados. A principios del siglo 19, el significado de "estadstica" fue ampliado para incluir la disciplina ocupada de recolectar, resumir y analizar los datos. Hoy la estadstica es ampliamente usada en el gobierno, los negocios y todas las ciencias. Las computadoras electrnicas han acelerado la estadstica computacional y ha permitido a los estadsticos el desarrollo de mtodos que usan recursos informticos intensivamente.
El trmino "estadstica matemtica" designa las teoras matemticas de la probabilidad e inferencia estadstica, las cuales son usadas en la estadstica aplicada. La relacin entre estadstica y probabilidades se fue desarrollando con el tiempo. En el siglo 19, las estadsticas usaron de forma gradual la teora de probabilidades, cuyos resultados iniciales fueron encontrados en los siglos 17 y 18, particularmente en el anlisis de los juegos de azar (apuestas). Para 1800, la astronoma usaba modelos probabilsticos y teoras estadsticas, particularmente el mtodo de los mnimos cuadrados, el cual fue inventado por Legendre y Gauss. La incipiente teora de las probabilidades y estadsticas fue sistematizada y extendida por Laplace; despus de este, las probabilidades y estadsticas han experimentado un continuo desarrollo. En el siglo 19, el razonamiento estadstico y los modelos probabilsticos fueron usados por las ciencias sociales para el avance las nuevas ciencias de psicologa experimental y sociologa, y por las ciencias fsicas en termodinmica y mecnica estadstica. El desarrollo del razonamiento estadstico estuvo fuertemente relacionado con el desarrollo de la lgica inductiva y el mtodo cientfico. La estadstica puede ser considerada no como una rama de las matemticas, sino como una ciencia matemtica autnoma, como las Ciencias de la computacin y la investigacin de operaciones. A diferencia de las matemticas, la estadstica tuvo sus orgenes en la administracin pblica. Fue usada en la demografa y la economa. Con el nfasis en el aprendizaje de los datos y en la elaboracin de las predicciones ms acertadas, la estadstica se ha solapado con la Teora de la decisin y la microeconoma. Con el enfoque de los datos, la estadstica se ha solapado con la ciencia de la informacin y las Ciencias de la computacin.
Etimoliga
El trmino estadstica, en ltima instancia, deriva la palabra del Neolatn statisticum collegium(consejo de estado) y la palabra Italiana statista ("hombre de estado" o poltico). La palabra alemana Statistik, introducida primeramente por Godofredo Achenwall (1749), originalmente designaba el anlisis de datos acerca del estado, significando la ciencia del estado (llamado posteriormente aritmtica poltica en Idioma Ingls). A principios del siglo 19, adquiri el significado de coleccin y clasificacin de datos. El trmino fue introducido en Inglaterra en 1792 por Sir John Sinclair cuando public el primero de 21 volmenes titulado Statistical Account of Scotland.1 De esta forma, el propsito original principal de Statistik eran los datos usados por el gobierno y los cuerpos administrativos (a menudo centralizados). La coleccin de datos acerca de estados y localidades contina, en mayor parte a travs de servicios estadsticos nacionales e internacionales. En particular, los censos proveen frecuentemente informacin actualizada acerca de la poblacin. El primer libro en tener estadsticas en su ttulo fue Contributions to Vital Statistics por Francis GP Neison, registrado a la Medical Invalid and General Life Office(1 era edicin 1845, 2nda ed. 1846, 3ra ed. 1857).[cita requerida]
Orgenes en probabilidades
El uso de los mtodos estadsticos se remonta al menos al siglo 5to AC. El historiador Tucdides en su Historia de la Guerra del Peloponeso2 describe como los atenienses calculaban la altura de la muralla de Platea, contando el nmero de ladrillos de una seccin expuesta de la muralla que estuviera lo suficientemente cerca como para contarlos. El conteo era repetido varias veces por diferentes soldados. El valor ms frecuente (la moda en trminos ms modernos) era tomado como el valor del nmero de ladrillos ms probable. Multiplicando este valor por la altura de los ladrillos usados en la muralla les permita a los atenienses determinar la altura de las escaleras necesarias para trepar las murallas. En el poema pico Indio el Mahbharata(Libro 3: la historia de Nala) el rey Rtupama estimaba el nmero de frutas y hojas(2095 frutas y 50,00,000 hojas (5 crores)) en dos grandes hojas de un rbol Vibhitaka contndolos en un solo vstago. Este nmero era luego multiplicadopr el nmero de vstagos en las ramas. Este estimado fue posteriormente verificado y se hall que estaba muy cerca del nmero verdadero. Con el conocimiento de este mtodo Nala pudo subsecuentemente reconquistar su reino. El primer escrito de estadstica fue encontrado en un libre o del siglo 9 DC titulado Manuscrito sobre el Descifrado de Mensajes Criptogrficos, escrito por Al-Kindi( 801 - 873 DC). En su libro, Al-Kindi da una descripcin detallada sobre el uso de las estadsticas y anlisis de frecuencias en el descifrado de mensajes, este fue el nacimiento tanto de la estadstica como del criptoanlisis.3 4 La Prueba del Pyx es una prueba de pureza de la moneda del Royal Mint, que ha sido llevada a cabo regularmente desde el siglo 12. La Prueba en s misma est basada en mtodos de muestreo estadstico. Despus de acuar una serie de monedas originalmente de 10 libras de plata- una moneda singular era colocada en el Pyx- una caja en la Abada de Westminster. Despus de un tiempo ahora una vez al ao- las monedas son retiradas y pesadas. Luego, una muestra de monedas retiradas de la caja es probada por pureza La Nuova Crnica, una historia de Florencia del siglo 14 escrita por el banquero florentino y oficial Giovanni Villani, incluye mucha informacin estadstica.sobre la poblacin, ordenanzas, comercio, educacin y edificaciones religiosas, y ha sido descrito como la primera introduccin de la estadstica como elemento positivo en la historia,5 aunque ni el trmino ni el concepto de la estadstica como campo especfico exista an. Esto se demostr que era incorrecto despus del hallazgo del libro de AlKindi sobre anlisis de frecuencias.3 4 Aunque era un concepto conocido por los griegos, la media aritmtica no fue generalizada a ms de dos valores hasta el siglo 16. La invencin del sistema decimal por Simon Stevin en 1585 parece haber facilitado estos clculos. Este mtodo fue adoptado por primera vez en astronoma por Tycho Brahe, el que intentaba reducir errores en sus estimados de las localizaciones de varios cuerpos celestiales. La idea de la mediana se origin en el libro de navegacin de Edward Wright (Certaine Errors in Navigation) en 1599 en una seccin concerniente a la determinacin de una localizacin con un comps. Wright sinti que este valor era el que ms probablemente estuviera correcto en una serie de observaciones.
John Graunt en su libro Natural and Political Observations Made upon the Bills of Mortality, estim la poblacin de Londres en 1662 a travs de registros parroquiales. El saba que haba cerca de 13,000 funerales al ao en Londres y que de cada once familias tres personas moran por ao. El estimo de los registros parroquiales que el tamao promedio de las familias era 8 y calcul que la poblacin de Londres era de cerca de 384,000. Laplace en 1802 estim la poblacin de Francia con un mtodo similar. Los mtodos matemticos de la estadstica surgieron de la teora de probabilidades, la cual tiene sus races en la correspondencia entre Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) provey el primer tratamiento cientfico sobre el tema que se conozca hasta la fecha. El libro Ars Conjectandi de Jakob Bernoulli (pstumo 1713) y La Doctrina de las Probabilidades (1718) de Abraham de Moivre trataron el tema como una rama de las matemticas. En su libro, Bernoulli introdujo la idea de representar certeza completa como el nmero 1 y la probabilidad como un nmero entre cero y uno. Galileo luch contra el problema de errores en las observaciones y haba formulado ambiguamente el principio de que los valores ms probables de cantidades desconocidas seran aquellos que hicieran los errores en las ecuaciones razonablemente pequeos. El estudio formal en teora de errores puede ser originado en el libro de Roger Cotes (Opera Miscellanea, pstumo 1750). Tobias Mayer, en su estudio de los movimientos de la Luna (Kosmographische Nachrichten, Nuremberg, 1750), invent el primer mtodo formal para estimar cantidades desconocidas generalizando el promedio de las observaciones bajo circunstancias idnticas al promedio de los grupos de ecuaciones similares. Un primer ejemplo de lo que posteriormente fue conocido como la curva normal fue estudiado por Abraham de Moivre, quien traz esta curva en Noviembre 12, 1733.6 De Moivre estaba estudiando el nmero de caras que ocurran cuando una moneda justa era lanzada. En sus memorias Un intento por mostrar la emergente ventaja de tomar la media de un nmero de observaciones en astronoma prctica- preparada por Thomas Simpson en 1755 (impreso en 1756) aplicaba por primera vez la teora a la discusin de errores en observaciones. La reimpresin (1757) de sus memorias sostiene el axioma que errores positivos y negativos son igualmente probables, y que hay ciertos valores lmites dentro de los cuales todos los errores se encuentran; los errores continuos son discutidos y se provee una curva de probabilidad. Simpson discuti varias posibles distribuciones de error. Primero consider la distribucin uniforme y despus la distribucin triangular discreta simtrica, seguida por la distribucin triangular contnua simtrica. Ruder Bokovic en 1755 se bas en su trabajo sobre la forma de la Tierra propuesto en el libro De Litteraria expeditione per pontificiam ditionem ad dimetiendos duos meridiani gradus a PP. Maire et Boscovicli para proponer que el veradero valor de una serie de observaciones sera aquel que minimizara la suma de los errores absolutos. En terminologa moderna este valor es la media. Johann Heinrich Lamber en su libro de 1765 Anlage zur Architectonic propuso el semicrculo como una distribucin de errores:
con -1 = x = 1. Pierre-Simon Laplace (1774) hizo su primer intento de deducir una regla para la combinacin de observaciones desde los principios de la teora de las probabilidades. El represent la ley de a probabilidad de errores mediante una curva y dedujo una frmula para la media de tres observaciones. Laplace en 1774 not que la frecuencia de un error poda ser expresada como una funcin exponencial de su magnitud una vez descartado el signo.7 8 Esta distribucin es ahora conocida como distribucin de Laplace. Lagrange propuso una distribucin parablica de errores en 1776:
con -1 = x = 1. Laplace en 1778 public su segunda ley de errores en la cual not que la frecuencia de un error era proporcional a la funcin exponencial del cuadrado de su magnitud. Esto fue descubierto subsecuentemente por Gauss (posiblemente en 1797) y es ahora mejor conocida como distribucin normal, la cual es de importancia central en la estadstica.9 Esta distribucin fue referida como normal por primera vez por Pierce en 1873, quien estaba estudiando las medidas de error cuando un objeto era dejado caer sobre una superficie de madera.10 Escogi el trmino normal debido a su ocurrencia frecuente en variables que ocurran en la naturaleza. Lagrange tambin sugiri en 1781 otras dos distribuciones para errores una distribucin coseno: -
con -1 = x = 1 donde || es el --valor absoluto-- de x. Laplace obtuvo una formula (1781) para la ley de facilidad de un error (un trmino acuado por Joseph Louis Lagrange, 1774 ), pero esta conllevaba a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del mximo producto de las probabilidades de un sistema de errores concurrentes. Laplace, en una investigacin del movimiento de Saturno y Jpiter en 1787, generaliz el mtodo de Mayer usando diferentes combinaciones lineales de un grupo de ecuaciones.
En 1802 Laplace estim la poblacin en Francia a 28,328,612.11 El calcul este nmero usando la cantidad de nacimientos del ao anterior y el dato del censo de tres comunidades. Los datos de los censos de estas comunidades mostraron que tenan 2,037,615 personas y que el nmero de nacimientos era de 71,866. Asumiendo que estas muestras eran representativas de Francia, Laplace produjo un estimado para la poblacin entera. El mtodo de los mnimos cuadrados, el cual era usado para minimizar errores en la medicin de datos, fue publicado independientemente por Adrien-Marie Legendre (1805), Robert Adrain (1808), y Carl Friedrich Gauss(1809).Gauss haba usado el mtodo en s famosa prediccin en 1801 de la localizacin del planeta enano Ceres. Las observaciones en las que Gauss bas sus clculos fueron hechas por el monje italiano Piazzi. Posteriormente se dieron demostraciones por Laplace (1810, 1812), Gauss (1823), Ivory (1825, 1826), Hagen (1837), Bessel (1838), Donkin (1844, 1856), Herschel (1850), Crofton (1870), y Thiele (1880, 1889). El trmino error probable (der wahrscheinliche Fehler) la desviacin media fue introducido en 1815 por el astrnomo alemn Frederik Wilhelm Bessel. Antoine Augustin Cournot en 1843 fue el primero en usar el trmino mediana (valeur mdiane) para el valor que divide la distribucin de probabilidad en dos mitades iguales. Otros contribuyentes a la teora de errores fueron Ellis (1844), De Morgan (1864), Glaisher (1872), y Giovanni Schiaparelli(1875).[cita requerida] La formula de Peters (1856) para , el "error probable" de una sola observacin fue ampliamente usada e inspir tempranamente la estadstica robusta (resistente a valores atpicos: ver criterio de Peirce). En el siglo 19 los autores de la teora estadstica incluan a included Laplace, S. Lacroix (1816), Littrow (1833), Dedekind (1860), Helmert (1872), Laurant (1873), Liagre, Didion, De Morgan, Boole, Edgeworth,12 and K. Pearson.13 y K. Pearson.14 Gustav Theodor Fechner us la mediana (Centralwerth) en fenmenos sociolgicos y sociolgicos.15 Anteriormente haba sido usado solamente en astronoma y campos relacionados. Las primeras pruebas de la distribucin normal fueron inventadas por el estadstico alemn Wilhelm Lexis en 1870. El nico conjunto de datos disponible para l, en que le era posible mostrar que estaba normalmente distribuido, era la frecuencia de nacimientos. Francis Galton estudi una variedad de caractersticas humanas altura, edad, peso, tamao d las pestaas, entre otras- y encontr que michos de estos factores podan ser ajustados a una distribucin normal.16 Francis Galton en 1907 entreg un artculo a la revista Nature acerca de la utilidad de la mediana.17 El examin la precisin de 787 intentos de adivinar el peso de un buey en una feria de campo. El peso real era de 1208: la mediana de todas las conjeturas fue 1198 libras. Las conjeturas fuern marcadamente no normales en su distribucin.
El noruego Anders Nicolai Kir introdujo el concepto de muestreo estratificado en 1895.18 Arthur Lyon Bowley introdujo el muestreo aleatorio en 1906. [20] Jerzy Neyman en 1934 hizo evidente que el muestreo aleatorio estratificado era en general un mejor mtodo de estimacin que el muestreo intencional (por cuota).19 El nivel de significacin del 5% parece ser introducido por Fisher en 1925.20 Fisher expres que las desviaciones que excedan dos veces la desviacin estndar eran consideradas significativas. Previamente a esto las desviaciones que excedan tres veces el error probable eran consideradas significativas. Para una distribucin simtrica el error probable la mitad del rango intercuantil. El cuantil superior de la distribucin normal estndar est entre 0.66 y 0.67, su error probable es aproximadamente 2/3 de la desviacin estndar. Parece que el criterio de Fisher del 5% tena sus races en la prctica previa. En 1929 Wilso y Hilferty re-examinaron los datos de Pierce de 1873 y descubrieron que en realidad no estaba realmente normalmente distribuida.21
Notas
Ver Ian Hacking's The Emergence of Probability22 and James Franklin's The Science of Conjecture: Evidence and Probability Before Pascal23 Para historas del desarrollo del concepto de probabilidad matemtica. En la era moderna, el trabajo de Andri Kolmogrov ha sido imprescindible para la formulacin del modelo fundamental de Teora de Probabilidades.24
Inferencia
Charles S. Peirce (18391914) formul teoras frecuentistas de estimacin y prueba de hiptesis (1877-1878) y (1883), cuando introdujo la confianza. Pierce tambin introdujo experimentos aleatorios controlados y a ciegas con diseo de medidas repetidas.25 Pierce invent un diseo ptimo para experimentos sobre gravedad.
Estadsticas Bayesianas
Pierre-Simon, marques de Laplace, uno de los principales desarrolladores de la estadstica Bayesiana El trmino "bayesiano" se refiere a Thomas Bayes (1702 1761), quin prob un caso especial de lo que se conoce hoy como Teorema de Bayes. Sin embargo fue PierreSimon Laplace (17491827) quien introdujo una visin general del teorema y lo aplic a mecnica celeste, estadsticas mdicas, confiabilidad y jurisprudencia. Cuando el conocimiento disponible era insuficiente para especificar una prior informada, Laplace usaba priores uniformes, de acuerdo a su principio de razn insuficiente.26 Laplace asumi priores uniformes ms por claridad matemtica que por razones filosficas.27 Laplace tambin introdujo versiones primitivas de priores conjugadas y el teorema de von Mises y Bernstein, de acuerdo a los cuales, las posteriores correspondientes a priores inicialmente diferentes convergen asintticamente con el crecimiento del nmero de observaciones.28 Esta temprana inferencia Bayesiana, que usaba priores uniformes de acuerdo con el principio de Laplace de razn insuficiente, fue llamado probabilidad inversa (debido a su inferencia hacia atrs desde las observaciones a los parmetros, o de efectos a causas).29 ). Despus de la dcada de 1920, la probabilidad inversa fue suplantada en su mayora por una coleccin de mtodos desarrollados por Ronald A. Fisher, Jerzy Neyman y Egon Pearson. Sus mtodos fueron llamados estadstica frecuentista.29 Fisher rechaz el enfoque Bayesiano, escribiendo que la teora de la probabilidad inversa est fundada sobre un error, y debe ser rechazada por completo.30 Al final de su vida, sin embargo, Fisher expres un gran respeto por los ensayos de Bayes, los cuales Fisher crea que haban anticipado su propio enfoque fiducial a la probabilidad; Fisher an mantena que la visin de Laplace de las probabilidades era sinsentido falaz.30 Neyman comenz como un quasi-Bayesiano, pero con el tiempo desarroll losintervalos de confianza (un mtodo clave estadsticas frecuentistas) porque la teora completa sera mejor si estuviera construida desde el comienzo sin referencia al Bayesianismo y las priores.31 La palabra Bayesiano apareci en 1930 y para 1960 se convirti en el trmino preferido por aquellos que no estaban satisfechos con las limitaciones de las estadsticas frecuentistas.29 32
En el siglo 20, las ideas de Laplace fueron desarrolladas posteriormente en dos direcciones, dando origen a las corrientes objetivas y subjetivas en la pctica bayesiana. En la corriente objetiva, el anlisis estadstico depende solo del modelo asumido y el dato analizado.33 No hay necesidad de involucrar decisiones subjetivas. En contraste, los estadsticos subjetivos niegan la posibilidad de un anlisis completamente objetivo en el caso general. En el subsiguiente desarrollo de las ideas de Laplace, las ideas subjetivas predominaron sobre las objetivas. La idea de que la probabilidad debera ser interpretada como el grado de creencia subjetivo en una proposicin fue propuesto, por ejemplo, por John Maynard Keynes a comienzos de la dcada de 1920. Esta idea fue llevada ms lejos por Bruno de Finetti en Italia (Fondamenti Logici del Ragionamento Probabilistico, 1930) y Frank Ramsey en Cambridge (The Foundations of Mathematics, 1931).34 El enfoque fue diseado para resolver problemas con la definicin frecuentista de la probabilidad, pero tambin con el anterior enfoque objetivo de Laplace.33 El mtodo subjetivo Bayesiano fue sucesivamente desarrollado y popularizado en los 50s por by L.J. Savage. La inferencia objetiva bayesiana fue desarrollada con posterioridad por Harold Jeffreys, cuyo libro "Theory of probability" apareci en 1939. En 1957, Edwin Thompson Jaynes promovi el concepto de entropa mxima para construir priores, el cual es un principio importante en la formulacin de mtodos objetivos, principalmente para problemas discretos. En 1965, el segundo volumen de Dennis Lindley "Introduction to Probability and Statistics from a Bayesian Viewpoint" lev los mtodos bayesianos a un pblico ms amplio. En 1979, Jos-Miguel Bernardo introdujo el anlisis referencial,33 el cual ofrece un marco de trabajo general aplicable para el anlisis objetivo. Otros de los ms populares proponentes del Bayesianismo incluyen a I.J. Good, B.O. Koopman, Howard Raiffa, Robert Schlaifer yAlan Turing En la dcada de 1980, hubo un crecimiento dramtico en investigaciones y aplicaciones de mtodos Bayesianos, mayormente atribuibles al descubrimiento de los mtodos Markov chain Monte Carlo, los cuales eliminaron, muchos de los , y al creciente inters en aplicaciones complejas y no estndares.35 A pesar del crecimiento de la investigacin Bayesiana, la mayora de la enseanza universitaria est basada en estadsticas frecuentistas.36 Sin embargo, los mtodos bayesianos son ampliamente aceptados y usados, por ejemplo, en el campo de aprendizaje de mquinas.37
Estadsticas en la actualidad
Durante el siglo 20, la creacin de instrumentos precisos para la investigacin en agricultura, problemas de salud pblica (epidemiologa, bioestadsticas, etc.), control de calidad industrial y propsitos econmicos y sociales (tasa de desempleo, econometra, etc.) necesitaron de los avances substanciales en la prctica de la estadstica. Hoy el uso de la estadstica se ha ampliado ms all de sus orgenes. Individuos y organizaciones usan las estadsticas para entender los datos y hacer decisiones informadas a travs de las ciencias naturales y sociales, medicina, negocios y otras reas. La estadstica es generalmente considerada no como una rama de las matemticas, sino como un campo distintivo e independiente. Muchas universidades mantienen separados
los departamentos de matemtica y estadstica. La estadstica es tambin enseada en departamentos tan diversos como psicologa, pedagoga y salud pblica.
Thomas Bayes George E. P. Box Pafnuty Chebyshev David R. Cox Gertrude Cox Harald Cramr Francis Ysidro Edgeworth Bradley Efron Bruno de Finetti Ronald A. Fisher Francis Galton Carl Friedrich Gauss William Sealey Gosset (Student) Andrey Kolmogorov Pierre-Simon Laplace Erich L. Lehmann Aleksandr Lyapunov Abraham De Moivre Jerzy Neyman Florence Nightingale Blaise Pascal Karl Pearson Charles S. Peirce Adolphe Quetelet C. R. Rao Walter A. Shewhart Charles Spearman Thorvald N. Thiele John Tukey Abraham Wald
Referencias
1. Critical Mass. Farrar, Straus and Giroux. 2004. p. 53. ISBN 0-374-53041-6. 2. Thucydides (1985). History of the Peloponnesian War. New York: Penguin Books, Ltd.. pp. 204. 3. a b Singh, Simon (2000). The code book : the science of secrecy from ancient Egypt to quantum cryptography (1st Anchor Books ed. edicin). New York: Anchor Books. ISBN 0-385-49532-3. 4. a b Ibrahim A. Al-Kadi "The origins of cryptology: The Arab contributions, Cryptologia, 16(2) (April 1992) pp. 97126. 5. Villani, Giovanni. Encyclopdia Britannica. Encyclopdia Britannica 2006 Ultimate Reference Suite DVD. Retrieved on 2008-03-04. 6. de Moive A (1738) The doctrine of chances. Woodfall
7. Laplace, P-S. (1774). "Mmoire sur la probabilit des causes par les vnements". Mmoires de l'Acadmie Royale des Sciences Prsents par Divers Savants, 6, 621656 8. Wilson, Edwin Bidwell (1923) "First and second laws of error", Journal of the American Statistical Association, 18 (143), 841-851 Plantilla:Jstor 9. Havil J (2003) Gamma: Exploring Euler's Constant. Princeton, NJ: Princeton University Press, p. 157 10. Peirce CS (1873) Theory of errors of observations. Report of the Superintendent US Coast Survey, Washington, Government Printing Office. Appendix no. 21: 200-224 11. Cochran W.G. (1978) "Laplaces ratio estimators". pp 3-10. In David H.A., (ed). Contributions to Survey Sampling and Applied Statistics: papers in honor of H. O. Hartley. Academic Press, New York ISBN122047508, 12. (Stigler 1986, Chapter 9: The Next Generation: Edgeworth) 13. Stigler (1986, Chapter 10: Pearson and Yule) 14. Stigler (1986, Chapter 10: Pearson and Yule) 15. Keynes, JM (1921) A treatise on probability. Pt II Ch XVII 5 (p 201) 16. Galton F (1877) Typical laws of heredity. Nature 15: 492-553 17. Galton F (1907) One Vote, One Value. Nature 75: 414 18. Bellhouse DR (1988) A brief history of random sampling methods. Handbook of statistics. Vol 6 pp 1-14 Elsevier 19. Neyman, J (1934) On the two different aspects of the representative method: The method of stratified sampling and the method of purposive selection. Journal of the Royal Statistical Society 97 (4) 557-625 Plantilla:Jstor 20. Fisher RA (1925) Statistical methods for research workers, Edinburgh: Oliver & Boyd 21. Wilson EB, Hilferty MM (1929) Note on C.S. Peirces experimental discussion of the law of Errors. Proc Nat Acad Sci USA, 15(2) 120-125 22. Hacking, Ian (2006). The emergence of probability : a philosophical study of early ideas about probability, induction and statistical inference. Cambridge New York: Cambridge University Press. ISBN 9780521685573. 23. Franklin, James (2001). The science of conjecture : evidence and probability before Pascal. Baltimore: Johns Hopkins University Press. ISBN 9780801871092. 24. (Salsburg 2001, Chapter 14: The Mozart of Mathematics, pp 137-150) 25. Hacking, Ian (September 1988). Telepathy: Origins of Randomization in Experimental Design. Isis 79 (A Special Issue on Artifact and Experiment): pp. 427451. doi:10.1086/354775. 26. Hald (1998)Plantilla:Page needed 27. Hald (1998)Plantilla:Page needed 28. Lucien Le Cam (1986) Asymptotic Methods in Statistical Decision Theory: Pages 336 and 618621 (von Mises and Bernstein). 29. a b c Stephen. E. Fienberg, (2006) When did Bayesian Inference become "Bayesian"? Bayesian Analysis, 1 (1), 140. See page 5. 30. a b Aldrich, A. (2008) "R. A. Fisher on Bayes and Bayes' Theorem", Bayesian analysis, 3 (1),161170 31. Frequentist probability and frequentist statistics. Synthese 36 (1): pp. 97 131. 1977. doi:10.1007/BF00485695. 32. Jeff Miller, "Earliest Known Uses of Some of the Words of Mathematics (B)" 33. a b c Reference analysis. Handbook of statistics 25: pp. 1790. 2005. doi:10.1016/S0169-7161(05)25002-2.
34. Gillies, D. (2000), Philosophical Theories of Probability. Routledge. ISBN 0415-18276-X pp 501 35. Wolpert, RL. (2004) "A conversation with James O. Berger", Statistical Science, 9, 205218 doi 10.1214/088342304000000053 Plantilla:MR 36. Bernardo, J. M. (2006). A Bayesian Mathematical Statistics Primer. Proceedings of the Seventh International Conference on Teaching Statistics [CDROM] . Salvador (Bahia), Brazil: International Association for Statistical Education. 37. Bishop, C.M. (2007) Pattern Recognition and Machine Learning. Springer ISBN 978-0-387-31073-2
Bibliografa
From association to causation: Some remarks on the history of statistics. Statistical Science 14 (3): pp. 243258. 1999. doi:10.1214/ss/1009212409. (Revised version, 2002) Hald, Anders (2003). A History of Probability and Statistics and Their Applications before 1750. Hoboken, NJ: Wiley. ISBN 0-471-47129-1. Hald, Anders (1998). A History of Mathematical Statistics from 1750 to 1930. New York: Wiley. ISBN 0-471-17912-4. Kotz, S., Johnson, N.L. (1992,1992,1997). Breakthroughs in Statistics, Vols I,II,III. Springer ISBN 0-387-94037-5, ISBN 0-387-94039-1, ISBN 0-38794989-5 Pearson, Egon (1978). The History of Statistics in the 17th and 18th Centuries against the changing background of intellectual, scientific and religious thought (Lectures by Karl Pearson given at University College London during the academic sessions 1921-1933). New York: MacMillan Publishng Co., Inc.. pp. 744. ISBN 0-02-850120-9. Salsburg, David (2001). The Lady Tasting Tea: How Statistics Revolutionized Science in the Twentieth Century. ISBN 0-7167-4106-7 Stigler, Stephen M. (1986). The History of Statistics: The Measurement of Uncertainty before 1900. Belknap Press/Harvard University Press. ISBN 0-67440341-X. Stigler, Stephen M. (1999) Statistics on the Table: The History of Statistical Concepts and Methods. Harvard University Press. ISBN 0-674-83601-4 Plantilla:Cite jstor
Enlaces externos
JEHPS: Recent publications in the history of probability and statistics Electronic Journ@l for History of Probability and Statistics/Journ@l Electronique d'Histoire des Probabilits et de la Statistique Figures from the History of Probability and Statistics (Univ. of Southampton) Materials for the History of Statistics (Univ. of York) Probability and Statistics on the Earliest Uses Pages (Univ. of Southampton) Earliest Uses of Symbols in Probability and Statistics on Earliest Uses of Various Mathematical Symbols Historia del razonamiento estadstico. Pginas de bioestadstica de la Sociedad Espaola de Hipertensin Arterial
Categora:
Problemas computacionales
Estadstica
Saltar a: navegacin, bsqueda Para anlisis, datos y grficas sobre Wikipedia, vase Wikipedia:Estadsticas. La estadstica es una ciencia formal que estudia la recoleccin, anlisis e interpretacin de datos de una muestra representativa, ya sea para ayudar en la toma de decisiones o para explicar condiciones regulares o irregulares de algn fenmeno o estudio aplicado, de ocurrencia en forma aleatoria o condicional. Sin embargo, la estadstica es ms que eso, es decir, es el vehculo que permite llevar a cabo el proceso relacionado con la investigacin cientfica.
Distribucin normal Es transversal a una amplia variedad de disciplinas, desde la fsica hasta las ciencias sociales, desde las ciencias de la salud hasta el control de calidad. Se usa para la toma de decisiones en reas de negocios o instituciones gubernamentales. La estadstica se divide en dos grandes reas:
La estadstica descriptiva, se dedica a la descripcin, visualizacin y resumen de datos originados a partir de los fenmenos de estudio. Los datos pueden ser resumidos numrica o grficamente. Ejemplos bsicos de parmetros estadsticos son: la media y la desviacin estndar. Algunos ejemplos grficos son: histograma, pirmide poblacional, grfico circular, entre otros. La estadstica inferencial, se dedica a la generacin de los modelos, inferencias y predicciones asociadas a los fenmenos en cuestin teniendo en cuenta la aleatoriedad de las observaciones. Se usa para modelar patrones en los datos y extraer inferencias acerca de la poblacin bajo estudio. Estas inferencias pueden
tomar la forma de respuestas a preguntas si/no (prueba de hiptesis), estimaciones de unas caractersticas numricas (estimacin), pronsticos de futuras observaciones, descripciones de asociacin (correlacin) o modelamiento de relaciones entre variables (anlisis de regresin). Otras tcnicas de modelamiento incluyen anova, series de tiempo y minera de datos. Ambas ramas (descriptiva e inferencial) comprenden la estadstica aplicada. Hay tambin una disciplina llamada estadstica matemtica, la que se refiere a las bases tericas de la materia. La palabra estadsticas tambin se refiere al resultado de aplicar un algoritmo estadstico a un conjunto de datos, como en estadsticas econmicas, estadsticas criminales, entre otros.
ndice
1 Historia o 1.1 Origen o 1.2 Orgenes en probabilidad o 1.3 Estado actual 2 Mtodos estadsticos o 2.1 Estudios experimentales y observacionales o 2.2 Niveles de medicin o 2.3 Tcnicas de anlisis estadstico 3 Disciplinas especializadas 4 Computacin estadstica 5 Crticas a la estadstica 6 Estadsticos famosos 7 Notas 8 Bibliografa 9 Enlaces externos
Historia
Origen
El trmino alemn Statistik, introducido originalmente por Gottfried Achenwall en 1749, se refera al anlisis de datos del Estado, es decir, la "ciencia del Estado" (o ms bien, de la ciudad-estado). Tambin se llam aritmtica poltica de acuerdo con la traduccin literal del ingls. No fue hasta el siglo XIX cuando el trmino estadstica adquiri el significado de recolectar y clasificar datos. Este concepto fue introducido por el militar britnico Sir John Sinclair (1754-1835). En su origen, por tanto, la Estadstica estuvo asociada a los Estados o ciudades libres, para ser utilizados por el gobierno y cuerpos administrativos (a menudo centralizados). La coleccin de datos acerca de estados y localidades contina ampliamente a travs de los servicios de estadstica nacionales e internacionales. En particular, los censos comenzaron a suministrar informacin regular acerca de la poblacin de cada pas. As pues, los datos estadsticos se referan originalmente a los datos demogrficos de una ciudad o estado determinados. Y es por ello que en la clasificacin decimal de Melvil
Dewey, empleada en las bibliotecas, todas las obras sobre estadstica se encuentran ubicadas al lado de las obras de o sobre la demografa. Ya se utilizaban representaciones grficas y otras medidas en pieles, rocas, palos de madera y paredes de cuevas para controlar el nmero de personas, animales o ciertas mercancas. Hacia el ao 3000 a. C. los babilonios usaban ya pequeos envases moldeados de arcilla para recopilar datos sobre la produccin agrcola y de los gneros vendidos o cambiados. Los egipcios analizaban los datos de la poblacin y la renta del pas mucho antes de construir las pirmides en el siglo XI a. C. Los libros bblicos de Nmeros y Crnicas incluyen en algunas partes trabajos de estadstica. El primero cona estn ubicadas al lado de las demogrficas. La estadstica tiene dos censos de la poblacin de la Tierra de Israel y el segundo describe el bienestar material de las diversas tribus judas. En China existan registros numricos similares con anterioridad al ao 2000 a. C. Los antiguos griegos realizaban censos cuya informacin se utilizaba hacia el 594 a. C. para cobrar impuestos.
Orgenes en probabilidad
Los mtodos estadstico-matemticos emergieron desde la teora de probabilidad, la cual data desde la correspondencia entre Pascal y Pierre de Fermat (1654). Christian Huygens (1657) da el primer tratamiento cientfico que se conoce a la materia. El Ars coniectandi (pstumo, 1713) de Jakob Bernoulli y la Doctrina de posibilidades (1718) de Abraham de Moivre estudiaron la materia como una rama de las matemticas.1 En la era moderna, el trabajo de Kolmogrov ha sido un pilar en la formulacin del modelo fundamental de la Teora de Probabilidades, el cual es usado a travs de la estadstica. La teora de errores se puede remontar a la pera miscellnea (pstuma, 1722) de Roger Cotes y al trabajo preparado por Thomas Simpson en 1755 (impreso en 1756) el cual aplica por primera vez la teora de la discusin de errores de observacin. La reimpresin (1757) de este trabajo incluye el axioma de que errores positivos y negativos son igualmente probables y que hay unos ciertos lmites asignables dentro de los cuales se encuentran todos los errores; se describen errores continuos y una curva de probabilidad. Pierre-Simon Laplace (1774) hace el primer intento de deducir una regla para la combinacin de observaciones desde los principios de la teora de probabilidades. Laplace represent la Ley de probabilidades de errores mediante una curva y dedujo una frmula para la media de tres observaciones. Tambin, en 1871, obtiene la frmula para la ley de facilidad del error (trmino introducido por Lagrange, 1744) pero con ecuaciones inmanejables. Daniel Bernoulli (1778) introduce el principio del mximo producto de las probabilidades de un sistema de errores concurrentes.
Fotografa de Ceres por el telescopio espacial Hubble. La posicin fue estimada por Gauss mediante el mtodo de mnimos cuadrados. El mtodo de mnimos cuadrados, el cual fue usado para minimizar los errores en mediciones, fue publicado independientemente por Adrien-Marie Legendre (1805), Robert Adrain (1808), y Carl Friedrich Gauss (1809). Gauss haba usado el mtodo en su famosa prediccin de la localizacin del planeta enano Ceres en 1801. Pruebas adicionales fueron escritas por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W.F. Donkin (1844, 1856), John Herschel (1850) y Morgan Crofton (1870). Otros contribuidores fueron Ellis (1844), Augustus De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La frmula de Peters para , el probable error de una observacin simple es bien conocido. El siglo XIX incluye autores como Laplace, Silvestre Lacroix (1816), Littrow (1833), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion y Karl Pearson. Augustus De Morgan y George Boole mejoraron la presentacin de la teora. Adolphe Quetelet (1796-1874), fue otro importante fundador de la estadstica y quien introdujo la nocin del hombre promedio (lhomme moyen) como un medio de entender los fenmenos sociales complejos tales como tasas de criminalidad, tasas de matrimonio o tasas de suicidios.
Estado actual
Durante el siglo XX, la creacin de instrumentos precisos para asuntos de salud pblica (epidemiologa, bioestadstica, etc.) y propsitos econmicos y sociales (tasa de desempleo, econometra, etc.) necesit de avances sustanciales en las prcticas estadsticas. Hoy el uso de la estadstica se ha extendido ms all de sus orgenes como un servicio al Estado o al gobierno. Personas y organizaciones usan la estadstica para entender datos y tomar decisiones en ciencias naturales y sociales, medicina, negocios y otras reas. La estadstica es entendida generalmente no como un sub-rea de las matemticas sino como una ciencia diferente aliada. Muchas universidades tienen departamentos acadmicos de matemticas y estadstica separadamente. La estadstica se ensea en departamentos tan diversos como psicologa, educacin y salud pblica.
Regresin lineal - Grficos de dispersin en estadstica. Al aplicar la estadstica a un problema cientfico, industrial o social, se comienza con un proceso o poblacin a ser estudiado. Esta puede ser la poblacin de un pas, de granos cristalizados en una roca o de bienes manufacturados por una fbrica en particular durante un periodo dado. Tambin podra ser un proceso observado en varios ascos instantes y los datos recogidos de esta manera constituyen una serie de tiempo. Por razones prcticas, en lugar de compilar datos de una poblacin entera, usualmente se estudia un subconjunto seleccionado de la poblacin, llamado muestra. Datos acerca de la muestra son recogidos de manera observacional o experimental. Los datos son entonces analizados estadsticamente lo cual sigue dos propsitos: descripcin e inferencia. El concepto de correlacin es particularmente valioso. Anlisis estadsticos de un conjunto de datos puede revelar que dos variables (esto es, dos propiedades de la poblacin bajo consideracin) tienden a variar conjuntamente, como si hubiera una conexin entre ellas. Por ejemplo, un estudio del ingreso anual y la edad de muerte podra resultar en que personas pobres tienden a tener vidas ms cortas que personas de mayor ingreso. Las dos variables se dicen que estn correlacionadas. Sin embargo, no se puede inferir inmediatamente la existencia de una relacin de causalidad entre las dos variables. El fenmeno correlacionado podra ser la causa de una tercera, previamente no considerada, llamada variable confusora. Si la muestra es representativa de la poblacin, inferencias y conclusiones hechas en la muestra pueden ser extendidas a la poblacin completa. Un problema mayor es el de determinar que tan representativa es la muestra extrada. La estadstica ofrece medidas para estimar y corregir por aleatoriedad en la muestra y en el proceso de recoleccin de los datos, as como mtodos para disear experimentos robustos como primera medida, ver diseo experimental. El concepto matemtico fundamental empleado para entender la aleatoriedad es el de probabilidad. La estadstica matemtica (tambin llamada teora estadstica) es la rama de las matemticas aplicadas que usa la teora de probabilidades y el anlisis matemtico para examinar las bases tericas de la estadstica. El uso de cualquier mtodo estadstico es vlido solo cuando el sistema o poblacin bajo consideracin satisface los supuestos matemticos del mtodo. El mal uso de la estadstica puede producir serios errores en la descripcin e interpretacin, afectando las
polticas sociales, la prctica mdica y la calidad de estructuras tales como puentes y plantas de reaccin nuclear. Incluso cuando la estadstica es correctamente aplicada, los resultados pueden ser difcilmente interpretados por un inexperto. Por ejemplo, el significado estadstico de una tendencia en los datos, que mide el grado al cual la tendencia puede ser causada por una variacin aleatoria en la muestra, puede no estar de acuerdo con el sentido intuitivo. El conjunto de habilidades estadsticas bsicas (y el escepticismo) que una persona necesita para manejar informacin en el da a da se refiere como cultura estadstica.
Mtodos estadsticos
Estudios experimentales y observacionales
Un objetivo comn para un proyecto de investigacin estadstica es investigar la causalidad, y en particular extraer una conclusin en el efecto que algunos cambios en los valores de predictores o variables independientes tienen sobre una respuesta o variables dependientes. Hay dos grandes tipos de estudios estadsticos para estudiar causalidad: estudios experimentales y observacionales. En ambos tipos de estudios, el efecto de las diferencias de una variable independiente (o variables) en el comportamiento de una variable dependiente es observado. La diferencia entre los dos tipos es la forma en que el estudio es conducido. Cada uno de ellos puede ser muy efectivo.
Niveles de medicin
Hay cuatro tipos de mediciones o escalas de medicin en estadstica. Los cuatro tipos de niveles de medicin (nominal, ordinal, intervalo y razn) tienen diferentes grados de uso en la investigacin estadstica. Las medidas de razn, en donde un valor cero y distancias entre diferentes mediciones son definidas, dan la mayor flexibilidad en mtodos estadsticos que pueden ser usados para analizar los datos. Las medidas de intervalo tienen distancias interpretables entre mediciones, pero un valor cero sin significado (como las mediciones de coeficiente intelectual o temperatura en grados Celsius). Las medidas ordinales tienen imprecisas diferencias entre valores consecutivos, pero un orden interpretable para sus valores. Las medidas nominales no tienen ningn rango interpretable entre sus valores. La escala de medida nominal, puede considerarse la escala de nivel ms bajo. Se trata de agrupar objetos en clases. La escala ordinal, por su parte, recurre a la propiedad de orden de los nmeros. La escala de intervalos iguales est caracterizada por una unidad de medida comn y constante. Es importante destacar que el punto cero en las escalas de intervalos iguales es arbitrario, y no refleja en ningn momento ausencia de la magnitud que estamos midiendo. Esta escala, adems de poseer las caractersticas de la escala ordinal, permite determinar la magnitud de los intervalos (distancia) entre todos los elementos de la escala. La escala de coeficientes o Razones es el nivel de medida ms elevado y se diferencia de las escalas de intervalos iguales nicamente por poseer un punto cero propio como origen; es decir que el valor cero de esta escala significa ausencia de la magnitud que estamos midiendo. Si se observa una carencia total de propiedad, se dispone de una unidad de medida para el efecto. A iguales
diferencias entre los nmeros asignados corresponden iguales diferencias en el grado de atributo presente en el objeto de estudio.
Prueba t de Student Prueba de Anlisis de varianza (ANOVA) U de Mann-Whitney Anlisis de regresin Correlacin Iconografa de las correlaciones Frecuencia estadstica Anlisis de frecuencia acumulada Prueba de la diferencia menos significante de Fisher Coeficiente de correlacin de Pearson Coeficiente de correlacin de Spearman Anlisis factorial exploratorio Anlisis factorial confirmatorio Grfica estadstica
Disciplinas especializadas
Algunos campos de investigacin usan la estadstica tan extensamente que tienen terminologa especializada. Estas disciplinas incluyen:
Ciencias actuariales Fsica estadstica Estadstica industrial Estadstica Espacial Matemticas Estadstica Estadstica en Medicina Estadstica en Medicina Veterinaria y Zootecnia Estadstica en Nutricin Estadstica en Agronoma Estadstica en Planificacin Estadstica en Investigacin Estadstica en Restauracin de Obras Estadstica en Literatura Estadstica en Astronoma Estadstica en la Antropologa (Antropometra) Estadstica en Historia Estadstica militar Geoestadstica Bioestadstica Estadsticas de Negocios Estadstica Computacional
Estadstica en las Ciencias de la Salud Investigacin de Operaciones Estadsticas de Consultora Estadstica de la educacin, la enseanza, y la formacin Estadstica en la comercializacin o mercadotecnia Cienciometra Estadstica del Medio Ambiente Estadstica en Epidemiologa Minera de datos (aplica estadstica y reconocimiento de patrones para el conocimiento de datos) Econometra (Estadstica econmica) Estadstica en Ingeniera Geografa y Sistemas de informacin geogrfica, ms especficamente en Anlisis espacial Demografa Estadstica en psicologa (Psicometra) Calidad y productividad Estadsticas sociales (para todas las ciencias sociales) Cultura estadstica Encuestas por Muestreo Anlisis de procesos y quimiometra (para anlisis de datos en qumica analtica e ingeniera qumica) Confiabilidad estadstica Procesamiento de imgenes Estadsticas Deportivas
La estadstica es una herramienta bsica en negocios y produccin. Es usada para entender la variabilidad de sistemas de medicin, control de procesos (como en control estadstico de procesos o SPC (CEP)), para compilar datos y para tomar decisiones. En estas aplicaciones es una herramienta clave, y probablemente la nica herramienta disponible.
Computacin estadstica
El rpido y sostenido incremento en el poder de clculo de la computacin desde la segunda mitad del siglo XX ha tenido un sustancial impacto en la prctica de la ciencia estadstica. Viejos modelos estadsticos fueron casi siempre de la clase de los modelos lineales. Ahora, complejos computadores junto con apropiados algoritmos numricos, han causado un renacer del inters en modelos no lineales (especialmente redes neuronales y rboles de decisin) y la creacin de nuevos tipos tales como modelos lineales generalizados y modelos multinivel. El incremento en el poder computacional tambin ha llevado al crecimiento en popularidad de mtodos intensivos computacionalmente basados en remuestreo, tales como tests de permutacin y de bootstrap, mientras tcnicas como el muestreo de Gibbs han hecho los mtodos bayesianos ms accesibles. La revolucin en computadores tiene implicaciones en el futuro de la estadstica, con un nuevo nfasis en estadsticas experimentales y empricas. Un gran nmero de paquetes estadsticos est ahora disponible para los investigadores. Los sistemas dinmicos y teora del caos, desde hace una dcada, empezaron a interesar en la comunidad hispana, pues en la anglosajona de
Estados Unidos estaba ya establecida la conducta catica en sistemas dinmicos no lineales con 350 libros para 1997 y empezaban algunos trabajos en los campos de las ciencias sociales y en aplicaciones de la fsica. Tambin se estaba contemplando su uso en analtica.
Vase tambin: Computacin Cientfica.
Crticas a la estadstica
Hay una percepcin general de que el conocimiento estadstico es intencionado y frecuentemente mal usado, encontrando maneras de interpretar los datos que sean favorables al presentador. Un dicho famoso, al parecer de Benjamin Disraeli,2 es: Hay tres tipos de mentiras: mentiras pequeas, mentiras grandes y estadsticas. El popular libro How to lie with statistics (Cmo mentir con las estadsticas en la edicin espaola) de Darrell Huff discute muchos casos de mal uso de la estadstica, con nfasis en grficas malintencionadas. Al escoger (o rechazar o modificar) una cierta muestra, los resultados pueden ser manipulados; por ejemplo, mediante la eliminacin selectiva de valores atpicos (outliers). Este puede ser el resultado de fraudes o sesgos intencionales por parte del investigador (Darrel Huff3 ). Lawrence Lowell (decano de la Universidad de Harvard) escribi en 1909 que las estadsticas, como algunos pasteles, son buenas si se sabe quin las hizo y se est seguro de los ingredientes. Algunos estudios contradicen resultados obtenidos previamente, y la poblacin comienza a dudar en la veracidad de tales estudios. Se podra leer que un estudio dice (por ejemplo) que hacer X reduce la presin sangunea, seguido por un estudio que dice que hacer X no afecta la presin sangunea, seguido por otro que dice que hacer X incrementa la presin sangunea. A menudo los estudios se hacen siguiendo diferentes metodologas, o estudios en muestras pequeas que prometen resultados maravillosos que no son obtenibles en estudios de mayor tamao. Sin embargo, muchos lectores no notan tales diferencias, y los medios de comunicacin simplifican la informacin alrededor del estudio y la desconfianza del pblico comienza a crecer. Sin embargo, las crticas ms fuertes vienen del hecho que la aproximacin de pruebas de hiptesis, ampliamente usada en muchos casos requeridos por ley o reglamentacin, obligan una hiptesis a ser 'favorecida' (la hiptesis nula), y puede tambin exagerar la importancia de pequeas diferencias en estudios grandes. Una diferencia que es altamente significativa puede ser de ninguna significancia prctica. Vase tambin crticas de prueba de hiptesis y controversia de la hiptesis nula. En los campos de la psicologa y la medicina, especialmente con respecto a la aprobacin de nuevos medicamentos por la Food and Drug Administration, crticas de la aproximacin de prueba de hiptesis se han incrementado en los aos recientes. Una respuesta ha sido un gran nfasis en el p-valor en vez de simplemente reportar si la hiptesis fue rechazada al nivel de significancia dado. De nuevo, sin embargo, esto resume la evidencia para un efecto pero no el tamao del efecto. Una posibilidad es reportar intervalos de confianza, puesto que estos indican el tamao del efecto y la incertidumbre. Esto ayuda a interpretar los resultados, como el intervalo de confianza
para un dado indicando simultneamente la significancia estadstica y el efecto de tamao. El p valor y los intervalos de confianza son basados en los mismos clculos fundamentales como aquellos para las correspondientes pruebas de hiptesis. Los resultados son presentados en un formato ms detallado, en lugar del si-o-no de las pruebas de hiptesis y con la misma metodologa estadstica. Otro tipo de aproximacin es el uso de mtodos bayesianos. Esta aproximacin ha sido, sin embargo, tambin criticada. El fuerte deseo de que los medicamentos buenos sean aprobados y que los medicamentos peligrosos o de poco uso sean rechazados crea tensiones y conflictos (errores tipo I y II en el lenguaje de pruebas de hiptesis).
Estadsticos famosos
Thomas Bayes Pafnuti Chebyshov David Cox Gertrude Cox George Dantzig Ren Descartes W. Edwards Deming
Bruno de Finetti Sir Ronald Fisher Sir Francis Galton Carl Friedrich Gauss William Sealy Gosset Andri Kolmogrov Aleksandr Lyapunov
Abraham De Moivre Sir Isaac Newton Jerzy Neyman Florence Nightingale Blaise Pascal George Box Karl Pearson
Adolphe Quetelet C. R. Rao Ernst Georg Ravenstein Walter Shewhart Charles Spearman John Tukey Milton Friedman
Notas
1. Ver el trabajo de Ian Hacking en The emergence of probability para una historia del desarrollo del concepto de probabilidad matemtica. 2. Cf. Damned lies and statistics: untangling numbers from the media, politicians, and activists, del profesor Joel Best. Best atribuye este dicho a Disraeli, y no a Mark Twain u otros autores como se cree popularmente. 3. Darrell Huff. Cmo mentir con estadsticas, Barcelona: Sagitario, 1965
Bibliografa
Best, Joel (2001). Damned Lies and Statistics: Untangling Numbers from the Media, Politicians, and Activists. University of California Press. ISBN 0-52021978-3. Desrosires, Alain (2004). La poltica de los grandes nmeros. Ed. Melusina. ISBN 84-933273-5-2.
Hacking, Ian (1990). The Taming of Chance. Cambridge University Press. ISBN 0-521-38884-8. Lindley, D. V. (1985). Making Decisions (2. edicin edicin). John Wiley & Sons. ISBN 0-471-90808-8. Stigler, Stephen M. (1990). The History of Statistics: The Measurement of Uncertainty before 1900. Belknap Press/Harvard University Press. ISBN 0-67440341-X. Tijms, Henk (2004). Understanding Probability: Chance Rules in Everyday life. Cambridge University Press. ISBN 0-521-83329-9. Volle, Michel (1984). Le mtier de statisticien (2. ed. edicin). Econmica. ISBN 2-7178-0824-8.
Enlaces externos
Wikimedia Commons alberga contenido multimedia sobre Estadstica. Wikiquote alberga frases clebres de o sobre Estadstica. Wikcionario tiene definiciones para estadstica.
Categoras:
Men de navegacin
Crear una cuenta Ingresar Artculo Discusin Leer Editar fuente Ver historial
Portada Portal de la comunidad Actualidad Cambios recientes Pginas nuevas Pgina aleatoria Ayuda Donaciones Notificar un error
Imprimir/exportar
Afrikaans Aragons Azrbaycanca emaitka ( Brezhoneg Bosanski Catal esky Cymraeg Dansk Deutsch English Esperanto Eesti Euskara Estremeu Suomi Vro Froyskt Franais Furlan Frysk Gaeilge Gidhlig Galego
Gaelg Hrvatski Magyar Interlingua Bahasa Indonesia Ido slenska Italiano /inuktitut Basa Jawa Kurd Latina Ladino Ltzebuergesch Limburgs Lietuvi Latvieu Malagasy Bahasa Melayu Mirands Nederlands Norsk nynorsk Norsk bokml Occitan Polski Piemontis Portugus Romn Sicilianu
Scots Srpskohrvatski / Simple English Slovenina Slovenina Shqip / srpski Seeltersk Basa Sunda Svenska Trkmene Tagalog Trke /tatara Ozbekcha Vneto Ting Vit Winaray Yorb Bn-lm-g Editar los enlaces Esta pgina fue modificada por ltima vez el 14 ago 2013, a las 13:37. El texto est disponible bajo la Licencia Creative Commons Atribucin Compartir Igual 3.0; podran ser aplicables clusulas adicionales. Lanse los trminos de uso para ms informacin. Wikipedia es una marca registrada de la Fundacin Wikimedia, Inc., una organizacin sin nimo de lucro. Contacto
La estadstica es una rama de las matemticas que se ocupa de reunir, organizar y analizar datos numricos y que ayuda a resolver problemas como el diseo de experimentos y la toma de decisiones.
Historia Desde los comienzos de la civilizacin han existido formas sencillas de estadstica, pues ya se utilizaban representaciones grficas y otros smbolos en pieles, rocas, palos de madera y paredes de cuevas para contar el nmero de personas, animales o ciertas cosas. Hacia el ao 3000 a.C. los babilonios usaban ya pequeas tablillas de arcilla para recopilar datos en tablas sobre la produccin agrcola y de los gneros vendidos o cambiados mediante trueque. Los egipcios analizaban los datos de la poblacin y la renta del pas mucho antes de construir las pirmides en el siglo XXXI a.C. Los libros bblicos de Nmeros y Crnicas incluyen, en algunas partes, trabajos de estadstica. El primero contiene dos censos de la poblacin de Israel y el segundo describe el bienestar material de las diversas tribus judas. En China existan registros numricos similares con anterioridad al ao 2000 a.C. Los griegos clsicos realizaban censos cuya informacin se utilizaba hacia el 594 a.C. para cobrar impuestos. El Imperio romano fue el primer gobierno que recopil una gran cantidad de datos sobre la poblacin, superficie y renta de todos los territorios bajo su control. Durante la edad media slo se realizaron algunos censos exhaustivos en Europa. Los reyes carolingios Pipino, el Breve, y Carlomagno ordenaron hacer estudios minuciosos de las propiedades de la Iglesia en los aos 758 y 762 respectivamente. Despus de la conquista normanda de Inglaterra en 1066, el rey Guillermo I de Inglaterra encarg un censo. La informacin obtenida con este censo, llevado a cabo en 1086, se recoge en el Domesday Book. El registro de nacimientos y defunciones comenz en Inglaterra a principios del siglo XVI, y en 1662 apareci el primer estudio estadstico notable de poblacin, titulado Observations on the London Bills of Mortality (Comentarios sobre las partidas de defuncin en Londres). Un estudio similar sobre la tasa de mortalidad en la ciudad de Breslau, en Alemania, realizado en 1691, fue utilizado por el astrnomo ingls Edmund Halley como base para la primera tabla de mortalidad En el siglo XIX, con la generalizacin del mtodo cientfico para estudiar todos los fenmenos de las ciencias naturales y sociales, los investigadores aceptaron la necesidad de reducir la informacin a valores numricos para evitar la ambigedad de las descripciones verbales.
En nuestros das, la estadstica se ha convertido en un mtodo efectivo para describir con exactitud los valores de datos econmicos, polticos, sociales, psicolgicos, biolgicos y fsicos, y sirve como herramienta para relacionar y analizar dichos datos. El trabajo del experto estadstico no consiste ya slo en reunir y tabular los datos, sino sobre todo en el proceso de interpretacin de esa informacin. El desarrollo de la teora de la probabilidad ha aumentado el alcance de las aplicaciones de la estadstica. Muchos conjuntos de datos se pueden aproximar, con gran exactitud, utilizando determinadas distribuciones probabilsticas; los resultados de stas se pueden utilizar para analizar datos estadsticos. La probabilidad es til para comprobar la fiabilidad de las inferencias estadsticas y para predecir el tipo y la cantidad de datos necesarios en un determinado estudio estadstico. Mtodos estadsticos La materia prima de la estadstica consiste en conjuntos de nmeros obtenidos al contar o medir cosas. Al recopilar datos estadsticos se ha de tener especial cuidado para garantizar que la informacin sea completa y correcta. El primer problema para los estadsticos reside en determinar qu informacin y cunta se ha de reunir. En realidad, la dificultad al compilar un censo est en obtener el nmero de habitantes de forma completa y exacta; de la misma manera que un fsico que quiere contar el nmero de colisiones por segundo entre las molculas de un gas debe empezar determinando con precisin la naturaleza de los objetos a contar. Los estadsticos se enfrentan a un complejo problema cuando, por ejemplo, toman una muestra para un sondeo de opinin o una encuesta electoral. El seleccionar una muestra capaz de representar con exactitud las preferencias del total de la poblacin no es tarea fcil.
Para establecer una ley fsica, biolgica o social, el estadstico debe comenzar con un conjunto de datos y modificarlo basndose en la experiencia. Por ejemplo, en los primeros estudios sobre crecimiento de la poblacin los cambios en el nmero de habitantes se predecan calculando la diferencia entre el nmero de nacimientos y el de fallecimientos en un determinado lapso. Los expertos en estudios de poblacin comprobaron que la tasa de crecimiento depende slo del nmero de nacimientos, sin que el nmero de defunciones tenga importancia. Por tanto, el futuro crecimiento de la poblacin se empez a calcular basndose en el nmero anual de nacimientos por cada 1.000 habitantes. Sin embargo, pronto se dieron cuenta de que las predicciones obtenidas utilizando este mtodo no daban resultados correctos. Los estadsticos comprobaron que hay otros factores que limitan el crecimiento de la poblacin. Debido a que el nmero de posibles nacimientos depende del nmero de mujeres, y no del total de la poblacin, y debido a que las mujeres slo tienen hijos durante parte de su vida, el dato ms importante que se ha de utilizar para predecir la poblacin es el nmero de nios nacidos vivos por cada 1.000 mujeres en edad de procrear. El valor obtenido utilizando este dato mejora al combinarlo con el dato del porcentaje de mujeres sin descendencia. Por tanto, la diferencia entre nacimientos y fallecimientos slo es til para indicar el crecimiento de poblacin en un determinado periodo de tiempo del pasado, el nmero de nacimientos por cada 1.000 habitantes slo expresa la tasa de crecimiento en el mismo periodo, y slo el nmero de nacimientos por cada 1.000 mujeres en edad de procrear sirve para predecir el nmero de habitantes en el futuro.