PORTAL ESTADÍSTICA APLICADA

HISTORIA DE LA ESTADÍSTICA
CONTRIBUCIONES DE CIENTÍFICOS

 

Estadística proviene del término alemán Statistik y significa Ciencia de Estado, por qué en sus orígenes se utilizaba únicamente con fines estatales, al ser los gobiernos de las naciones los que siempre han tenido la necesidad de conocer las características de la población para gestionar el reparto de tierras o bienes, prestación de servicios públicos, pago de impuestos, etc.

Los gobernantes, por razones de organización, tuvieron y tienen que recoger y procesar la información de alguna forma, o hacer estadísticas de la población.

Los Censos son los primeros estudios estadísticos, se inician en la Edad Antigua y siguen actualmente, son estudios descriptivos sobre todos los integrantes de la población. En los Censos se pregunta a toda la población, aportando mucha información. Tienen el inconveniente que dura mucho tiempo en ejecutarse y el proceso suele ser caro. Después de preguntar hay que procesar los datos.

Para agilizar la recogida de datos y analizar la información recogida de algunas características de la población se utilizan los Registros, que son listados en donde los ciudadanos tienen que inscribirse, como sucede en el nacimiento de un hijo o hija, en un matrimonio o en una defunción, etc.

Con el tiempo surgen las Encuestas como alternativas a los Censos.
Las Encuestas recogen información de solo una parte de la población, después se generalizan los resultados obtenidos en la muestra para toda la población. George Gallup en 1935 hace sondeos electorales para conocer los gustos de la gente y estudiar la opinión de la masa social en Estados Unidos.

Antes de llegar a las Encuestas fue necesario desarrollar la Teoría de la Probabilidad (rama de las Matemáticas), de la Inferencia Estadística y del Muestreo (rama de las Estadística).

En la Edad Moderna matemáticos como Pierre de Fermat (1601-1665) y Blaise Pascal (1623-1662) iniciaron las bases de la Teoría de la Probabilidad, que se utilizó para estudiar "fenómenos aleatorios", donde pueden aparecer varios resultados no pudiendo predecirse un resultado particular (lanzamiento de un dado). Después comenzó a aplicarse a sucesos demográficos y económicos.

John Graunt(1620-1674) fue el primer demógrafo, fundador de la actual bioestadística y el precursor de la epidemiología, estableció investigaciones actuariales y demográficas.

El profesor alemán Gottfried Achenwall (1719-1772) acuñó el término de Estadística como ciencia de recopilación y análisis de datos, herramienta muy útil para políticos y gobernantes de una nación.

En la Edad Contemporánea (1789-actualidad) hay un desarrollo científico y filosófico propiciando la aplicación de la Estadística a las Ciencias Sociales. Por otra parte, aparecen nuevas técnicas ampliando su utilidad, además de estudios descriptivos, estudiando y cuantificando relaciones entre variables (Análisis de datos).

Se continúan haciendo estudios de Censos. En España: el Censo de Conde de Floridablanca (1787) con una finalidad demográfica y económica y no fiscal. El Censo de Manuel Godoy (1797) presentando los datos de la población española por Intendencias o provincias.

Los estudios demográficos, económicos y sociales, con fines políticos o no, adquieren cada vez más importancia. El desarrollo de las Matemáticas y de otras Ciencias proporcionan técnicas analíticas que facilitan establecer relaciones entre variables, el grado de influencia de una variable sobre otra y hacer predicciones.

La recogida y procesamiento de la información experimenta un gran avance.

El desarrollo de la Inferencia estadística y del Muestreo hace posible que se pueda estudiar la población a través de solo una parte de ella (se conoce como Muestra), con ello se facilita y abarata la recogida de datos (son menos individuos) y procesamiento de los datos (hay menos).

Los trabajos de Pierre Simon Laplace (1749-1827) , Johann Carl Friedrich Gauss (1777-1855) y Adrien Marie Legendre (1752-1833) desarrollaron conceptos como la teoría de los errores en la observación y el método de los mínimos cuadrados, muy utilizados en el análisis matemático.

El científico belga Lambert Adolphe Jacques Quételet (1796-1874) fue uno de los primeros en aplicar de forma rigurosa estas nuevas técnicas estadísticas a las Ciencias Sociales, con el objetivo de descubrir las Leyes Naturales que regían determinados sucesos sociales y demográficos (tasa de criminalidad o de nupcialiadad).

A finales del siglo XIX y XX la Teoría de la Probabilidad y la Estadística tienen un gran impulso.
En Probabilidad destacan los trabajos de Andréi Markov (1856-1922) y Pafnuti Lvóvich Chebyshev (1821-1894).

Sir Ronald Aylmer Fisher (1890-1962) desarrolló ideas originales en el campo de la Inferencia Estadística y en el Diseño de Experimentos.

El primer gran avance aparece con la Estadística Paramétrica, estadísticos, como Karl Pearson (1857-1936) , Irving Fisher (1867-1947) y William Sealy Gosset (1876-1937) , junto con otros, crearon procedimientos de decisión estadística (estimación puntual, estimación por intervalos y contrastes de hipótesis) con supuestos prefijados sobre la distribución de las variables analizadas, en especial el supuesto de normalidad.

El segundo gran avance consiste en introducir la Estadística No Paramétrica, considerando que el Método Paramétrico se fundamentaba en tomar decisiones con unos criterios que no eran ciertos, era necesario construir procedimientos de decisión que no dependieran de supuestos tan exigentes. Se crearon estadísticos con una distribución dependiente de los cálculos realizados en la muestra, no de la distribución de la población.

El tercer gran avance surge con la simulación, el remuestreo y las posibilidades que brindan la informática y la programación. Estos procedimientos simulando permiten encontrar la distribución del estadístico de cualquier test bajo el supuesto de ser cierta la hipótesis nula. Se desarrollan estadísticos considerando la muestra como una población, para después, desde esta población artificial, generar posibles muestras bajo las condiciones que se quiera.

De este modo, se puede encontrar cuál es la distribución simulada de un estadístico y construir intervalos de confianza, realizar contrastes de hipótesis, etc.

En la Edad Antigua (desde el nacimiento de la escritura hasta la Caída del Imperio Romano en el 476 d. C.) la actividad estadística consistió en elaborar Censos de población y de tierras. La finalidad de los Censos era obtener datos sobre personas que podrían ir al ejército, establecer reparto de tierras u otros bienes y facilitar gestiones tributarias.

BABILONICOS: Hacía el año 3.000 a.C. los babilonios utilizaban pequeñas tablillas de arcilla para recopilar datos en tablas sobre la producción agrícola y de los artículos vendidos o cambiados mediante el trueque.

En Egipto la actividad estadística comenzó en la Dinastía I (3050-2890 a. C.), según el historiador griego Herodoto, algunos faraones ordenaban Censos de riqueza y población para planificar la construcción de pirámides.

En la Dinastía XIX, el faraón Ramsés II (1279-1214 a. C.) mandó elaborar un Censo para establecer un nuevo reparto de tierras.

En China, el emperador Yao mandó elaborar un Censo general (2238 a. C.) recogiendo datos sobre la actividad agrícola, comercial e industrial.

En Asiria (Alta Mesopotamia), el rey Sargón II fundó la Biblioteca Asurbanipal en Ninive, donde se guardaron una recopilación de hechos históricos, religiosos, importantes datos estadísticos sobre producción, cuentas; así como también datos de medicina, astronomía, etc.

Grecia tuvo importantes observaciones estadísticas en lo que refiere a distribución de terreno, servicio militar, etc. Destacar entre los griegos a Sócrates, Herodoto y Aristóteles, quienes a través de sus escritos incentivaron la Estadística por su importancia para el Estado.

Los griegos efectuaron Censos periódicamente con fines tributarios, sociales (división de tierras) y militares (cálculo de recursos y hombres disponibles). La investigación histórica revela que se realizaron 69 censos para calcular los impuestos, determinar los derechos de voto y ponderar la potencia guerrera.

Los romanos, maestros de la organización política, fueron quienes mejor supieron emplear los recursos de la Estadística.
El rey romano Servio Tulio (578-535 a.C.) elaboró un Catastro de todos los dominios de Roma. Mandó crear un registro en el que los propietarios debían inscribir sus fincas, personal de servidumbre, esclavos y bestias de tiro que se poseyeran.

Los Censos y la actividad Estadística tuvieron especial importancia. Cada cinco años se establecieron registros de nacimientos, defunciones y matrimonios, se elaboraron recuentos periódicos sobre el ganado y riquezas contenidas en las tierras conquistadas.

Durante la Edad Media (476-453 d.C.) se realizaron muy pocas operaciones Estadísticas, con las notables excepciones del Censo de tierras pertenecientes a la Iglesia compiladas por Pipino el Breve en el 758, el Censo de Carlomagno en el 762 de tierras pertenecientes a la Iglesia y en 1085 el Registro de propiedades, extensión y valor de las tierras de la Iglesia de Guillermo I el Conquistador.

Destacar el trabajo de Isidoro de Sevilla que en su obra Originum sive Etymologiarum (634), más conocida bajo su título abreviado Las Etimologías, recopiló una extraordinaria cantidad de datos, resultando ser la obra más consultada y copiada por los estudiosos de la Europa medieval hasta la recepción de la ciencia árabe.

En la Edad Moderna (1454-1789) la obtención de información
es a través de los Censos.

Durante este período en España destacar, entre otros, el Censo de Pecheros (1528) durante el reinado de Carlos I, el Censo de los Obispos (1587) durante el reinado de Felipe II, el Censo de los Millones (1591) donde Felipe II como consecuencia de la pérdida de la Armada Invencible aprueba a través de las Cortes de Castilla un donativo extraordinario de ocho millones de ducados a pagar en seis anualidades desde el segundo semestre de 1590, o el Censo del Conde de Aranda (1768) con objetivos distintos de los anteriores censos de vecinos.

En la década de 1500 la epidemia en Inglaterra origina que comiencen a publicarse semanalmente datos sobre defunciones, y en 1662 apareció el primer estudio estadístico notable de población añadiendo datos de nacimientos por sexo, titulado Observations on the London Bills of Mortality.

Por el año 1540 el alemán Sebastian Münster (1488-1562) realizó una compilación estadística de los recursos nacionales, adjuntando datos sobre organización política, instrucciones sociales, comercio y poderío militar. Durante el siglo XVII aportó indicaciones más concretas de métodos de observación y análisis cuantitativo y amplió los campos de la Inferencia y la Teoría Estadística.

La Iglesia después del Concilio de Trento (1545-1563) estableció una organización archivística obligando al registro de nacimientos, matrimonio y defunciones.

Científicos de la talla de Leonardo da Vinci (1452-1519), Nicolás Copérnico (1473-1543) , John Neper (1550-1617) , Sir Francis Bacon (1561-1626) , Galileo Galilei (1564-1642), William Harvey (1578-1657) , y René Descartes (1596-1650), hicieron grandes aportaciones al método científico, de tal forma que cuando se crearon los Estados Nacionales y surgió con fuerza el comercio internacional existía ya un método capaz de aplicarse a los datos económicos.

     

En 1662, el capitán John Graunt (1620-1674) usó documentos que abarcaban treinta años y efectuó predicciones sobre el número de personas que morirían de varias enfermedades y sobre las proporciones de nacimientos de varones y mujeres que cabría esperar.

El trabajo de Graunt, condensado en su obra Natural and Political Observations Made Upon the Bills of Mortality (Observaciones Naturales y Políticas hechas sobre las Cuentas de Mortalidad) fue un esfuerzo innovador en el análisis estadístico.

El primer empleo de los datos estadísticos para fines ajenos a la política tuvo lugar en 1691 a cargo del profesor alemán Gaspar Neumann (1648-1715). Los procedimientos de Neumann fueron conocidos por el astrónomo inglés Edmund Halley (1656-1742) , quien los aplicó al estudio de la vida humana. Sus cálculos sirvieron de base para las tablas de mortalidad que hoy utilizan todas las compañías de seguros.

Matemáticos como Pierre de Fermat (1607-1665) y Blaise Pascal (1623-1662) sentaron las bases de la Teoría de la Probabilidad, utilizada para estudiar fenómenos aleatorios.

El profesor alemán Gottfried Achenwall (1719-1772) acuñó el término "Estadística" como ciencia de recopilación y análisis de datos.

Al principio de la Edad Contemporánea (1789 - Actualidad) se comienzan a asentar las bases teóricas de la Teoría de Probabilidades con los trabajos de Joseph-Louis Lagrange (1736-1813) , Pierre-Simon de Laplace (1749-1827) , Carl Friedrich Gauss (1777-1855) y Siméon Denis Poisson (1781-1840).

Previamente, destacar el descubrimiento de la distribución normal por Abraham de Moivre (1667-1754), distribución que será posteriormente "redescubierta" por Gauss y Poisson.

En el período (1800-1820) se desarrollaron dos conceptos fundamentales para la Teoría Estadística: la teoría de los errores de observación que aportan Laplace y Gauss, y la teoría de los Mínimos cuadrados realizada por Laplace, Gauss y Legendre.

Sir Francis Galton (1822-1911) ideó el método conocido como correlación que tenía por objeto medir la influencia relativa de los factores sobre las variables. De aquí partió el desarrollo del coeficiente de correlación creado por Karl Pearson (1857-1936) y otros estudiosos de la ciencia biométrica, tales como John Pease Norton, Richard Hooker y George Udny Yule, que efectuaron amplios estudios sobre la medida de las relaciones.

Establecidas las bases de la Teoría de Probabilidades surgieron la Estadística Moderna y su empleo en el Análisis de Experimentos con los trabajos de Francis Galton y Karl Pearson. Este último publicó en 1892 el libro The Grammar of Science (La Gramática de la Ciencia), y fue él quien ideó el conocido test de Chi-cuadrado.
El hijo de Pearson, Egon Sharpe Pearson (1895-1980) y el matemático polaco Jerzy Neyman (1894-1981) pueden considerarse los fundadores de las pruebas modernas de contraste de hipótesis.

Ronald Arnold Fisher (1890-1962) es la figura más importante de la Estadística, situándola como una poderosa herramienta de Análisis de Experimentos. Desarrolló el análisis de varianza y fue pionero en el desarrollo de numerosas técnicas de Análisis Multivariante y en la introducción del método de Máxima Verosimilitud para la estimación de parámetros. Su libro Statistical Methods for Research Workers (Métodos estadísticos para los investigadores), publicado en 1925, ha sido probablemente el libro de Estadística más utilizado a lo largo de muchos años.

La Escuela rusa de Matemáticas y Estadística, desde finales del siglo XVIII y comienzos del XIX, aportó destacados científicos, resaltando a Pafnuti Lvóvich Chebyshev (1821-1849), Andréi Andréyevich Márkov (1856-1922) y Aleksandr Liapunov (1857-1918), y posteriormente las de Aleksandr Khinchin (1894-1959) y Andrey Nikoláyevich Kolmogórov (1903-1987).

Jean Paul Benzécri (1932-2019) y John Wilder Tukey (1867-1947) fueron pioneros en relacionar la Estadística en función de computadoras. Mejoraron, adaptaron y crearon nuevas técnicas y herramientas gráficas para estudiar grandes volúmenes de datos.

Actualmente, en todos los países hay oficinas de Estadística y otros organismos similares que se encargan de elaborar estadísticas oficiales

del país, como pueden ser, tasa de paro, índices de precios, índice de actividad económica, etc. La oficina de Estadística de España es el INE (Instituto Nacional de Estadística), además hay otros organismos (Ministerios) que elaboran estadísticas nacionales.

CONTRIBUCIONES ESTADÍSTICAS
 

 

Pierre de Fermat (1601-1665)
Inició junto a Blaise Pascal la Teoría de las Probabilidades. Es más conocido por sus aportaciones a la Teoría de los Números, en particular por el conocido como "último teorema de Fermat".

Pierre de Fermat (1601-1665)
Estadístico inglés fundador de la bioestadística y precursor de la epidemiología. Sus actividades sociales en Londres le permitieron acceder a los boletines de mortalidad (Bills of Mortality) que fueron la base documental sobre la que estableció sus investigaciones estadísticas, actuariales y demográficas.B>

Blaise Pascal (1623-1662)
Matemático, físico, filósofo, teólogo y apologista francés. Sus importantes contribuciones a la Teoría de la Probabilidad, a la Matemática y a la Historia Natural incluyen el diseño y construcción de calculadoras mecánicas. Con investigaciones sobre los fluidos y la aclaración de conceptos como la presión y el vacío.

Cristiaan Huygens (1629-1695)
Astrónomo, físico, matemático e inventor neerlandés. Con importantes aportaciones a la Teoría de la Probabilidad, explicó la naturaleza de los anillos de Saturno, descubridor de Titán, inventó el reloj de péndulo moderno, formuló la naturaleza ondulatoria de la luz, perfeccionó el telescopio y estableció las leyes del choque entre cuerpos elásticos.

Gaspar Neumann (1648-1715)
Profesor y clérigo alemán de Breslau, con un interés científico especial en las tasas de mortalidad de la ciudad dando lugar al tratado " Reflexionen über Leben und Tod bey denen in Breslau Geborenen und Gestorbenen" que envió a Leibniz. En 1706 fue elegido miembro de la Academia de Ciencias de Berlín.

Jacob Bernoulli (1654-1705)
Destacado matemático y científico suizo. A partir de los planteamientos de Leibniz desarrolló problemas de cálculo infinitesimal. En 1690 inició la técnica para resolver ecuaciones diferenciales separables.

Su obra más importante fue Ars Conjectandi (Arte de la Conjetura), un trabajo pionero en la Teoría de la Probabilidad. Resultado de su trabajo son los términos ensayo de Bernoulli y números de Bernoulli.

Abraham de Moivre (1667-1754)
Matemático francés, conocido por la fórmula de Moivre y por su trabajo en la distribución normal y probabilidad. Publicó el libro de probabilidad The Doctrine of Chances. Fue elegido miembro de la Royal Society de Londres en 1697.

Thomas Bayes (1702-1761)
Matemático británico y ministro presbiteriano. Su obra más conocida es el Teorema de Bayes. Estudió el problema de la determinación de la probabilidad de las causas a través de los efectos observados. El teorema que planteó se refiere a la probabilidad de un suceso condicionado por la ocurrencia de otro suceso.

Concretamente, resuelve el problema conocido como «de la probabilidad inversa».

Fue uno de los primeros en utilizar la probabilidad inductivamente y establecer una base matemática para la inferencia probabilística. Miembro de la Royal Society desde 1742.

Godofredo Achenwall (1719-1772)
Economista prusiano, conocido como el "inventor de la estadística". Escribió obras sobre la historia de los Estados europeos: "Elementos de Estadística de los principales Estados de Europa" y "Principios de Economía Política".

Destacar su trabajo en la estadística cuántica. En el planteamiento global de los diferentes países europeos, describe el estado de su agricultura, las manufacturas y el comercio, y con frecuencia suministra estadísticas en relación con estas materias.

Los economistas alemanes reclamaron por él el título de "padre de la estadística", siendo cuestionado por escritores ingleses alegando que había reclamaciones anteriores en ese sentido.

Pierre Simon Laplace (1749-1827)
Astrónomo, físico y matemático francés. Continuador de la mecánica newtoniana, descubrió y desarrolló la transformada de Laplace y la ecuación de Laplace, como estadístico sentó las bases de la teoría analítica de la probabilidad; y como astrónomo planteó la teoría nebular sobre la formación del sistema solar.

Su antiguo alumno Napoleón Bonaparte en 1805 le otorgó la Legión de honor y el título de conde del Imperio en 1806. Publicó "Teoría analítica de las probabilidades, 1812" y el "Ensayo filosófico sobre la probabilidad, 1814".

En 1816 fue elegido miembro de la Academia Francesa. En 1817, tras la restauración de los Borbones, fue nombrado marqués.

Adrien Marie Legendre (1752-1833)
Destacado matemático francés, con importantes contribuciones a la estadística, a la teoría de números, al álgebra abstracta y al análisis matemático. Intervino en geodesia y en la comisión que estableció el metro como unidad de medida internacional.

En 1811 concibió la función gamma, e introdujo su símbolo. Desarrolló y fue el primero en publicar el Método de los mínimos cuadrados (Méthode des moindres carrés), en un apéndice de su libro sobre la "Trayectoria de los cometas", adelantándose a Gauss, que al parecer había llegado a los mismos resultados con anterioridad. Este método tiene un gran número de aplicaciones en regresión lineal, procesamiento de señales, estadística y ajuste de curva.

Desarrolló un impresionante trabajo sobre funciones elípticas, incluyendo la clasificación de integrales elípticas. Señalar los polinomios de Legendre, soluciones a la ecuación diferencial de Legendre que se utiliza con frecuencia en aplicaciones de física e ingeniería. En mecánica, creó la transformada de Legendre, utilizada para pasar de la formulación lagrangiana a la formulación hamiltoniana de la mecánica clásica.

Johann Carl Friedrich Gauss (1777-1855)
Matemático, astrónomo, y físico alemán, con contribuciones significativas en la teoría de números, el análisis matemático, la geometría diferencial, la estadística, el álgebra, la geodesia, el magnetismo y la óptica. En vida ya era considerado como "Príncipe de las Matemáticas"./B>

Sus trabajos matemáticos revolucionaron la aritmética, la astronomía y la estadística.

En 1801 publicó el libro "Disquisitiones arithmeticae", con seis secciones dedicadas a la teoría de números, proporcionando a esta rama de las matemáticas una estructura sistematizada. Ese mismo año predijo la órbita de Ceres aproximando parámetros por mínimos cuadrados.

Hacia 1820 mientras trabajaba en la determinación matemática de la forma y el tamaño del globo terráqueo, desarrolló distintas herramientas para el tratamiento de datos. La más importante fue la función gaussiana o campana de Gauss, que constituye uno de los pilares de la estadística.

En 1835 introduce la Ley de Gauss, una de las contribuciones más importantes en el campo del electromagnetismo.

Friedrich Wilhelm Bessel (1784-1846)
Matemático y astrónomo alemán, introdujo la corrección de Bessel, utilizando (n - 1) en lugar de n en las fórmulas de la varianza muestral y de la desviación típica muestral (siendo n el número de observaciones de una muestra). Sistematizador de las funciones de Bessel (descubiertas por Daniel Bernoulli). En Astronomía fue el primero en determinar el paralaje de una estrella.

Lambert Adolphe Jacques Quételet (1796-1874)
Matemático sociólogo, estadístico, astrónomo y naturalista belga. Aplicó los métodos estadísticos a las Ciencias Sociales. En 1834 fue nombrado secretario permanente de la Real Academia de Bélgica. En 1853 presidió el primer Congreso Internacional de Estadística y participó en la primera Conferencia Marítima Internacional en Bruselas para promover el intercambio de datos meteorológicos.

Esta cooperación condujo en 1873 a la creación de la Organización Meteorológica Internacional. Fue el primer miembro no estadounidense de la American Statistical Association.

Antoine Augustin Cournot (1801-1877)
Matemático y economista francés impulsor del marginalismo, se le considera como el matemático que comenzó la sistematización formal de la economía. Fue el primero en utilizar funciones matemáticas para describir conceptos económicos como la demanda, la oferta o el precio. Contribuyó notablemente a la ciencia estadística, sus aportes tuvieron mucha influencia sobre Jevons, Walras y Marshall.

Analizó los mercados monopolistas, estableciendo el punto de equilibrio del monopolio, llamado el punto de Cournot. También estudió el duopolio y el oligopolio.

Cournot plantea un modelo sencillo de duopolio donde el producto es homogéneo y las empresas actúan sobre las cantidades, a diferencia de Bertrand, que afirma que las empresas actúan sobre los precios.

El modelo de Cournot de 1838, el modelo de Bertrand de 1883 y el de Edgeworth de 1887 (una adaptación del modelo de Bertrand, suponiendo que la capacidad productiva es limitada) sirven para señalar y comprender los conceptos esenciales del mercado oligopolístico.

Augustus De Morgan (1806-1871)
Matemático y lógico británico nacido en la India, primer presidente de la Sociedad Matemática de Londres. Conocido por formular las llamadas Leyes de "De Morgan" y establecer un concepto riguroso del procedimiento, inducción matemática. En 1847 publica un trabajo notable por su desarrollo del silogismo.

En 1849 publica un trabajo titulado "Trigonometry and Double Algebra", la primera parte es un tratado de trigonometría, y la segunda un tratado de álgebra generalizada, a la que llamó "Álgebra doble". En 1860 descubrió el álgebra de relaciones en su obra "Syllabus of a Proposed System of Logic", prueba crítica del Principia Mathematica de Bertrand Russell y Alfred North Whitehead.

De Morgan promovió la obra del matemático indio Ramchundra, supervisó la publicación de su libro "Máximos y mínimos, 1859" en Londres.

George Boole (1815-1864)
Matemático y lógico británico. Como inventor del álgebra de Boole, que marca los fundamentos de la aritmética computacional moderna, es considerado como uno de los fundadores del campo de las ciencias de la computación.

Su obra fue extensa: En 1847 publicó The Mathematical Analysis of Logic (Análisis matemático de la lógica), donde desarrolló un sistema de reglas que le permitían expresar, manipular y simplificar problemas lógicos y filosóficos cuyos argumentos admiten dos estados (verdadero o falso) por procedimientos matemáticos.

En 1857 su tratado "On the Comparison of Transcendents, with Certain Applications to the Theory of Definite Integrals" (Comparación de transcendentes, con ciertas aplicaciones a la teoría de integrales definidas), estudiando la suma de residuos de una función racional. Entre otros resultados, probó la conocida como identidad de Boole.

En 1859 un Tratado de ecuaciones diferenciales "A Treatise on Differential Equations" y en 1860 un Tratado del cálculo de las diferencias finitas "A Treatise on the Calculus of Finite Differences".

Pafnuti Lvóvich Chebyshev (1821-1894)
Matemático ruso, su principal contribución al conocimiento es en el área de la probabilidad y estadística con la desigualdad que lleva su nombre. En matemáticas destacan sus trabajos sobre Distancia de Chebyshev, Función de Chebyshev (en teoría de números), los Polinomios de Chebyshev y la Integral de Chebyshev.

Entre sus estudiantes señalar a Aleksandr Korkin, Aleksandr Liapunov y Andréi Márkov.

Francis Galton (1822-1911)
Investigador inglés, fue el primero en aplicar métodos estadísticos para el estudio de las diferencias humanas y la herencia de la inteligencia, introdujo el uso de cuestionarios y encuestas para recoger datos sobre las comunidades humanas, necesarios para sus trabajos genealógicos y biográficos y para sus estudios antropométricos.

Sus investigaciones fueron fundamentales para la constitución de la ciencia de la estadística:

    Inventó el uso de la línea de regresión, siendo el primero en explicar el fenómeno de la regresión    a la media.

    En las décadas de 1870 y 1880 fue pionero en el uso de la distribución normal. Inventó la    máquina Quincunx, un instrumento para demostrar la ley del error y la distribución normal.

    Descubrió las propiedades de la distribución normal bivariada y su relación con el análisis de    regresión.

    En 1888 introdujo el concepto de correlación, posteriormente desarrollado por Pearson y    Spearman.

    En 1901, fue cofundador de la revista científica Biometrika, junto con Karl Pearson y Walter    Weldon.

Julius Wilhelm Richard Dedekind (1831-1916)
Matemático alemán, dejó una huella muy importante en los elementos de la matemática, conocido sobre todo por su aportación a los fundamentos del sistema numérico (definiciones de los números reales y naturales), aunque su principal contribución como investigador fue en el terreno del álgebra y sobre todo la teoría de números algebraicos.

Ernst Louis Étienne Laspeyres (1834-1913)
Economista, administrador público y estadístico alemán, conocido sobre todo por el desarrollo en 1871 de la fórmula y el método para determinar el índice de precios, que se utiliza para el cálculo de la tasa de inflación.
El índice de Laspeyres, es una forma de mostrar la evolución en el tiempo, a partir de un año base, de un conjunto de magnitudes, ponderando en cada una su importancia dentro del conjunto.

Los índices de precios al consumo en muchos países se elaboran actualmente utilizando el índice de Laspeyres.

Anders Nicolai Kiær (1838-1919)
Estadístico noruego que propuso por primera vez utilizar una muestra representativa para recopilar información sobre una población, en lugar de una encuesta de enumeración completa.
En 1877 fue nombrado director de la oficina recién creada de Estadística de Noruega.

Charles Sanders Peirce (1839-1914)
Científico estadounidense, lógico matemático y un fundador de la estadística. Introduce el pragmatismo y padre de la semiótica moderna o teoría de los signos.
Su trabajo fue relevante para muchas áreas del conocimiento, tales como astronomía, metrología, geodesia, matemáticas, lógica, filosofía, teoría e historia de la ciencia, semiótica, lingüística, econometría y psicología.

Francis Ysidro Edgeworth (1845-1926)
Economista y estadístico británico, su teorema del límite se relaciona con el equilibrio de la oferta y la demanda en un mercado libre. En 1897 mostró cómo la competencia de precios entre dos empresas con limitaciones de capacidad y / o curvas de costos marginales crecientes resulta en una indeterminación.
Durante el período (1912-1914) desempeñó el cargo de presidente de la Royal Statistical Society.

Vilfredo Federico Pareto (1848-1923)
Ingeniero, sociólogo, economista y filósofo italiano. En 1909 introdujo el índice de Pareto (medida de la desigualdad de la distribución del ingreso) y mostró el modo de distribución de la riqueza (distribución de Pareto).
En sus estudios sobre la eficiencia económica y distribución de la renta introduce la "Eficiencia u Óptimo de Pareto" con aplicaciones en ingeniería y diferentes ciencias sociales.

Una de sus aportaciones importantes a la teoría neoclásica es la Curva de Indiferencia (The Curve of Incomes): Una curva de indiferencia es un conjunto de puntos en el espacio de bienes - o conjuntos de bienes - entre los que el consumidor se siente indiferente.

Hermann Paasche (1851-1925)
Estadístico y economista alemán, conocido por su índice Paasche, que proporciona un cálculo del índice de precios. Se diferencia del índice de Laspeyres en que utiliza una ponderación del período actual.
El índice de precios de Paasche tiende a subestimar los aumentos de precios, se fundamenta en que un mayor consumo de bienes indicará precios relativos reducidos.

Andréi Andréyevich Márkov (1856-1922)
Matemático ruso conocido por sus trabajos en la teoría de los números y la teoría de probabilidades. Tiene aportaciones muy importantes en diversos campos de las matemáticas: En sus trabajos sobre fracciones continuas, obtuvo resultados relacionados con la teoría de la probabilidad. En 1887 completó la prueba que permitía generalizar el teorema central del límite y que ya había avanzado Chebyshev.

La aportación más conocida se encuentra en su trabajo teórico en el campo de los procesos en los que están involucrados componentes aleatorios (procesos estocásticos), introduciendo un instrumento matemático que se conoce como Cadenas de Márkov.

En la actualidad, las Cadenas de Márkov son una herramienta esencial en disciplinas como la economía, la ingeniería, la investigación de operaciones y muchas otras.

En estadística, el Teorema de Gauss-Márkov, formulado por Carl Friedrich Gauss y Andréi Márkov, tiene una amplia aplicación en un modelo lineal general (MLG).

Aleksandr Mijáilovich Lyapunov (1857-1918)
Matemático y físico ruso. Ha cobrado una gran relevancia su trabajo en el campo de las ecuaciones diferenciales, la teoría del potencial, la estabilidad de sistemas y la teoría de la probabilidad. Fue miembro honorario de muchas universidades, miembro honorario de la Academia de Roma y miembro de la la Academia de Ciencias en París.

En la teoría de la probabilidad, generalizó los trabajos de Chebyshev y Márkov, y demostró el Teorema Central del Límite en condiciones más generales que sus predecesores. El método de funciones características que utilizó para la demostración encontró más tarde un uso generalizado en la teoría de la probabilidad.

Creó la teoría moderna de la estabilidad de un sistema dinámico, introdujo la función de Lyapunov, la estabilidad de Lyapunov, exponente de Lyapunov, tiempo de Lyapunov o teorema de Lyapunov-Malkin. Se le debe también la Ecuación de Lyapunov en teoría del control, así como los fractales de Markus-Lyapunov (fractales bifurcacionales derivados de la función logística).

Karl Pearson (1857-1936)
Extraordinario científico, matemático y pensador británico, estableció la disciplina de la estadística matemática. Desarrolló una intensa investigación sobre la aplicación de los métodos estadísticos en la biología y fue el fundador de la bioestadística. Los análisis de Pearson se han revelado como imprescindibles para una correcta interpretación de los datos estadísticos.

A partir de 1890 estableció la disciplina de la estadística matemática, su investigación colocó en gran medida las bases de la estadística del siglo XX, definiendo los significados de análisis de la regresión, desviación estándar, correlación, la teoría de la probabilidad, elaborando los métodos gráficos y muestreo aleatorio.

En 1900 publicó su prueba de Chi-cuadrado, una medida de la bondad de una cierta distribución al ajustarse a un grupo determinado de datos. La prueba permite determinar, entre otras cosas, si dos caracteres hereditarios eran transmitidos de forma dependiente o independiente.

En 1901, fue cofundador de la revista científica Biometrika, junto con Francis Galton (del que fue alumno) y Walter Weldon.

Charles Edward Spearman (1863-1945)
Psicólogo inglés, pionero en el desarrollo del análisis factorial y del coeficiente de correlación. Desarrolló importantes modelos en el ámbito de la inteligencia humana, formulando que la inteligencia se compone de un factor general G y otros factores específicos.

Fue el primer autor en ofrecer una definición psicométrica sostenible de la inteligencia, y es considerado el padre de la teoría clásica de los tests. Propuso la idea de que el comportamiento inteligente es generado por una cualidad singular dentro del cerebro humano.

A partir de este concepto, que llamaría inteligencia general o simplemente G, desarrolló una nueva técnica estadística que le permitiera analizar las correlaciones entre distintas variables, el llamado análisis factorial. Esta técnica demostraba que todas las medidas en las pruebas mentales estaban positivamente correlacionadas. A pesar de que los teóricos de la inteligencia múltiple rechazan su interpretación, no cabe duda de que el análisis factorial es una de las herramientas más importantes del siglo XXI para la investigación en inteligencia.

Irving Fisher (1867-1947)
Economista, estadístico, inventor, y eugenista estadounidense que contribuyó a difundir las ideas económicas neoclásicas en Estados Unidos. Célebre por sus trabajos sobre el capital y por contribuir a las modernas teorías monetarias sobre la inflación. Incorporó formulaciones muy modernas para su época: fue el inventor de los índices económicos y un pionero de la econometría.

Varios conceptos estadísticos toman su nombre: la ecuación de Fisher, la hipótesis de Fisher, la tasa de Fisher y el teorema de separabilidad de Fisher.

En su más importante obra de economía, The Making of Index Numbers (1922), desarrolló la idea de establecer números índices como técnica para medir valores bursátiles y precios de mercancías.

Entre sus obras, Mathematical Investigations in the Theory of Value and Prices (1892) , The Nature of Capital and Income (1906) , Rate of Interest (1907) , The Theory of Interest (1930) , Booms and Depressions (1932) , 100% Money (1935) y The Theory of Constructive Income Taxation (1942).

Arthur Lyon Bowley (1869-1957)
Estadístico y economista inglés que trabajó en Estadística Económica y fue pionero en el uso de técnicas de muestreo en encuestas sociales. En teoría estadística siguió los trabajos de Karl Pearson, George Udny Yule y Francis Ysidro Edgeworth. Sus enseñanzas presagiarían futuros desarrollos en Análisis exploratorio de datos luego popularizados por John Wilder Tukey.

Sus Elementos de Estadística se considera como el primer libro de texto sobre estadística en inglés. En él se describen las técnicas de la estadística descriptiva muy útil para la economía y las ciencias sociales.

George Udny Yule (1871-1951)
Estadístico escocés, pionero en la estadística moderna, haciendo contribuciones fundamentales a la teoría de correlación, regresión lineal y series históricas. Entre sus trabajos, la distribución de Yule-Simon, la distribución discreta toma su nombre y el de Herbert Alexander Simon.

Yule estaba interesado en aplicar técnicas estadísticas a los problemas sociales y rápidamente se convirtió en miembro de la Royal Statistical Society.

Entre 1897-1899, escribió artículos importantes sobre correlación y regresión. En 1900 trabajó en una teoría de la asociación paralela, su enfoque de la asociación era bastante diferente al de Pearson y las relaciones entre ellos se deterioraron.

En la década de 1920 escribió tres artículos influyentes sobre el análisis de series temporales, sobre el problema de la correlación temporal (1921) y un método de investigación de periodicidades en series perturbadas (1927) con especial referencia al número de manchas solares de Wolfer, para modelar la serie temporal de manchas solares utilizó un modelo autorregresivo en lugar del método del periodograma establecido de Franz Arthur Friedrich Schuster.

Fue pionero en el uso de procesos estocásticos de apego preferencial para explicar el origen de la distribución de la ley de potencia.

Félix Édouard Justin Émile Borel (1871-1956))
Matemático y político francés, uno de los pioneros de la teoría de la medida (junto a Henri Lebesgue y René Louis Baire) y sus aplicaciones a la Teoría de la Probabilidad, con aportaciones en la estrategia de Teoría de Juegos. Trabajó en series convergentes y teoría de funciones. Con un trabajo divulgativo entre (1913-1914) relacionó la geometría hiperbólica y la relatividad especial. Sus aportaciones culminaron con el Teorema de Heine-Borel.

George Waddel Snedecor (1881-1974)
Matemático y estadístico estadounidense. Fundó el primer departamento académico de estadística de los Estados Unidos, y fue un pionero de la moderna estadística aplicada en los EE.UU.
Su libro de Métodos estadísticos (1938) se convirtió en un recurso esencial, en la década de 1970 fue el libro más frecuentemente citado.

Contribuyó a los fundamentos del análisis de la varianza, análisis de datos, diseño de experimentos y metodología estadística. Da nombre a la Distribución F que lleva su nombre.

William Sealy Gosset (1876-1937)
Matemático y químico inglés, conocido por su sobrenombre Student. Publicó el error probable de una medida y en casi todos sus artículos publicados en la revista Biometrika firmaba con el seudónimo Student (estudiante).
Fue Ronald Aylmer Fisher, al recibir correspondencia de Gosset con las tablas de Student, quien apreció la importancia de los trabajos en muestras pequeñas al considerar que había efectuado una revolución lógica.

Fisher introdujo la forma "t " debido a que se ajustaba a su teoría de grados de libertad.

La distribución t de Gosset comenzó a conocerse como la distribución t de Student. Fisher es responsable también de la aplicación de la "distribución t" a la regresión.

Los residuos estudentizados, aunque fueron introducidos por otros, reciben su nombre en honor a Student, la idea es ajustar la base del concepto usando las desviaciones estándar estimadas.

El germen de la distribución t de Student se inicia a principios del siglo XX con los trabajos de Gosset en la compañía cervecera Guinness en Dublín.

La investigación sobre el efecto de diversas condiciones del suelo y del tipo de cebada sobre el rendimiento de los cultivos y la calidad de la cerveza, para lo que contaba con muestras pequeñas, de alrededor de diez datos. La población de la que se extraían las muestras no se conocía demasiado bien, por lo que su varianza se estimaba a partir de la varianza de las muestras.

Gosset se dio cuenta de que las medias de sus muestras no seguían una distribución de probabilidad normal, y desarrolló una distribución más adecuada. Como los datos con los que realizó las pruebas eran confidenciales y no debían caer en manos de la competencia, evitó que pudieran relacionarse con su compañía publicándolos con el seudónimo Student (estudiante).

Richard Edler von Mises (1883-1953)
Físico y matemático austríaco que trabajó en mecánica de sólidos, mecánica de fluidos, aerodinámica, estadística y teoría de la probabilidad. Propuso una axiomatización de la teoría de la probabilidad basada en el concepto de probabilidad definida como valor límite de la frecuencia relativa. Desarrolló, junto a Harald Cramér, el test no paramétrico de bondad de ajuste Cramér-von Mises.

En mecánica del sólido deformable dio una interpretación de la fractura a partir de energía elástica (Criterio de Von Mises) que sustituyó al más tosco Criterio de Tresca. Da también nombre a la tensión de Von Mises, una medida escalar de dicha energía.

Fue el hermano más joven del economista liberal clásico Ludwig Heinrich Edler von Mises, que defendía que el protagonista de la economía es el emprendedor, de manera que tendrá éxito siempre que los precios generados en el mercado cubran sus pérdidas, de este modo irán arruinándose los empresarios menos competitivos favoreciendo la innovación y el progreso.

Corrado Gini (1884-1965)
Estadístico, demógrafo y sociólogo italiano que definió el índice de concentración o coeficiente de Gini, utilizado universalmente como medida de la equidad en la distribución de las rentas de una sociedad.
Sus principales aportaciones científicas pertenecen al campo de la estadística: en la teoría de las distribuciones, en la estimación de parámetros en la medida del valor y márgenes de error de variables, medidas de variabilidad, etc.

En el campo de la demografía prestó una atención especial a los fenómenos migratorios. Desarrolló una teoría del metabolismo social que proporciona una visión cíclica del desarrollo de la población, y un conjunto de teorías que denominaba fisiopatología económica para el estudio de las crisis económicas y sociales.

En 1926, fue nombrado Presidente del Instituto Central de Estadística en Roma, quien Gini organizó como centro único de los servicios estadísticos italianos.

Louis Leon Thurstone (1887-1955)
Ingeniero mecánico y psicólogo estadounidense conocido por ser el psicometrista más famoso de su tiempo. Trabajó en el estudio de la psicometría, la psicofísica y la creación de pruebas para la medición de la inteligencia humana con métodos cuantitativos. Desarrolló métodos estadísticos para realizar medidas psicológicas, evaluar actitudes y capacidades mentales, entre muchas otras contribuciones.

Introdujo el desarrollo de nuevas técnicas analíticas de factores para determinar el número y la naturaleza de las construcciones latentes dentro de un conjunto de variables observadas.

En su obra "Multiple Factor Analysis" se plantea un análisis factorial con más de un factor común y se introducen la estructura simple y las rotaciones de factores. La existencia de varias dimensiones latentes hacía imposible una ordenación de los individuos en función de su inteligencia.

Incorporó la media estandarizada y la desviación estándar de las puntuaciones de CI que se utilizan en la actualidad, a diferencia del sistema de prueba de inteligencia utilizado originalmente por Alfred Binet. También es conocido por el desarrollo de la escala Thurstone.

Ernst Hjalmar Waloddi Weibull (1887-1979)
Ingeniero, científico y matemático sueco, es conocido por su trabajo en el área de la fatiga de materiales y en estadística por la distribución de Weibull (1939).
La distribución de Weibull se utiliza: en análisis de la supervivencia, teoría de valores extremos, meteorología, telecomunicaciones, sistemas de radar para simular la dispersión de la señal recibida, para modelar la distribución de la velocidad del

viento, en seguros para modelar el tamaño de las pérdidas, en la hidrología para analizar variables aleatorias como valores máximos de la precipitación y la descarga de ríos, y para describir épocas de sequía.

Sydney Chapman (1888-1970)
Matemático y geofísico británico, conocido por sus trabajos en procesos estocásticos. En el estudio de los procesos de Andréi Andréyevich Márkov, Chapman y el ruso Andréi Nikoláyevich Kolmogórov desarrollaron independientemente el conjunto fundamental de igualdades conocido como "ecuación de Chapman-Kolmogórov".

Su implicación por la geofísica le llevó a estudiar las tormentas magnéticas y las variaciones del campo magnético de la Tierra, descubriendo que el campo geomagnético se genera al menos en parte en la atmósfera.

Ronald Aylmer Fisher (1890-1962)
Estadístico y biólogo inglés, por su trabajo en estadística, ha sido descrito como "un genio que casi sin ayuda creó las bases de la ciencia estadística moderna" y "la figura más importante de las estadísticas del siglo XX". Entre sus grandes contribuciones desarrolló: el análisis de la varianza (ANOVA, 1921) y principios del diseño de experimentos (1923-1924).

En genética, su trabajo utilizó las matemáticas para combinar la genética mendeliana y la selección natural; esto contribuyó al renacimiento del darwinismo en la revisión de principios del siglo XX de la teoría de la evolución conocida como síntesis moderna. Por sus contribuciones a la biología, Fisher ha sido llamado "el mayor de los sucesores de Darwin".

Siendo un opositor prominente a la estadística bayesiana, Fisher fue el primero en utilizar el término "bayesiano" en 1950.

En 1956 publica el libro "Statistical Methods and Scientific Inference", dando la impresión de ser un manual para principiantes más que un libro de texto, pero en eso radicó su éxito.

A lo largo del libro, anima a trabajar con ejemplos, discute problemas prácticos y términos teóricos, todo a partir de ejemplos numéricos. En él se separa de los matemáticos diciendo que en estadística hay que hacer razonamiento inductivo, en lugar de razonamiento deductivo, para lo cual es necesaria una gran formación matemática, para aplicarla y obtener conclusiones de los datos con que se trabaja.

Contribuciones a la Inferencia Estadística: Publicó 140 artículos sobre genética, 129 sobre estadística y 16 sobre otros temas. Las contribuciones que más impacto ha producido serían: La calibración del nivel de significación con el p-valor, la diferencia entre muestra y población, el método de la máxima verosimilitud, la construcción de estimadores, el análisis de la varianza y el diseño de experimentos.

Walter Andrew Shewhart (1891-1967)
Físico, ingeniero y estadístico estadounidense, a veces conocido como el padre del control estadístico de la calidad.
Mientras Shewhart trabajaba para la Western Electric, su innovador trabajo de control de calidad se centró en la reducción de la variación y gráficos. Su trabajo alteró el curso de la historia industrial, encabezó una revolución de la calidad y lanzó la calidad como profesión.

Definió el problema de la variabilidad del proceso en términos de causas asignables y el azar, y se encargó de establecer los principios esenciales del control de la variación a través de la aplicación de gráficos de control.

En 1931, publicó el trabajo "Control de Economista de Calidad de productos manufacturados".
Se desafió el enfoque basado en la inspección de la calidad e introdujo la era moderna de la gestión de la calidad. El libro popularizó el control estadístico y su uso luego se extendió en toda la industria.

A partir de la década de 1930, los intereses de Shewhart se expandieron de calidad industrial a las preocupaciones más amplias de la ciencia y la inferencia estadística.

Shewhart fue el núcleo de un grupo del departamento de garantía de calidad de Bell Hawthorne, formado, entre otros, por Harold French Dodge y Harry Romig.

Se desarrollaron los conceptos básicos del muestreo de aceptación, tales como: riesgo del consumidor, riesgo del productor, doble muestreo, porcentaje de tolerancia de lote defectuoso y límite de calidad saliente promedio.

Frank Wilcoxon (1892-1965)
Químico y estadístico estadounidense, aportó el desarrollo de dos pruebas estadísticas no paramétricas: la prueba de la suma de los rangos de Wilcoxon y la prueba de los signos de Wilcoxon. Ambas pruebas son alternativas a la prueba t de Student.

Carlo Emilio Bonferroni (1892-1960)
Matemático italiano, conocido por la prueba de Bonferroni, también conocida como "corrección de Bonferroni" o "ajuste de Bonferroni". Es una prueba de comparación múltiple utilizada en el análisis de la varianza.
Otras pruebas de comparación múltiple son: la prueba de Scheffé, la prueba de Tukey-Kramer y la prueba de Dunnett. La prueba de Bonferroni es demasiado conservadora y puede que no alcance algunos resultados significativos.

Harald Cramér (1893-1985)
Matemático sueco, conocido por el coeficiente V de Cramér y la prueba Cramér-von Mises (1920-1930).
El coeficiente V cuantifica la relación de asociación entre dos o más variables para la prueba de la Chi-cuadrado, varía entre cero y uno (siendo cero un valor nulo de asociación.

El test Cramér-von Mises es una prueba de análisis de la varianza que se utiliza para obtener la bondad de ajuste entre una distribución teórica comparada con una distribución empírica, o para comparar dos distribuciones empíricas. La prueba es una alternativa al test de Kolmogórov-Smirnov. La generalización de las dos muestras se debe a Theodore Wilbur Anderson.

Jerzy Neyman (1894-1981)
Matemático y estadístico polaco, es uno de los principales arquitectos de la estadística moderna, introdujo el concepto moderno de intervalo de confianza, desarrolló (junto a Egon Sharpe Pearson, hijo de Karl Pearson) la teoría de la prueba de hipótesis estadísticas creando lema de Neyman-Pearson, hizo aportaciones en diseños de experimentos y teoría del muestreo.

Al desarrollar su teoría, Neyman y Pearson reconocieron la necesidad de incluir hipótesis alternativas y observaron los errores al probar hipótesis sobre valores de población desconocidos basados en observaciones de muestra que estaban sujetas a variación.

Al error de rechazar una hipótesis verdadera le designaron como error tipo uno y al error de aceptar una hipótesis falsa como error tipo dos.

Dieron importancia a la probabilidad de rechazar una hipótesis cuando es falsa. Llamaron a esta probabilidad el poder de prueba.

Propusieron el término, 'región crítica' para denotar un conjunto de valores estadísticos de muestra que conducen al rechazo de la hipótesis que se está probando.

El 'tamaño' de una región crítica es la probabilidad de cometer un error tipo uno, al que llamaron nivel de significancia.

Llamaron hipótesis simple a una hipótesis que especifica completamente una distribución de probabilidad. Una hipótesis que no es una hipótesis simple es una hipótesis compuesta. De este modo, una hipótesis sobre la media de una distribución normal con una desviación estándar conocida, por ejemplo, es una hipótesis simple. La hipótesis es una hipótesis compuesta si se desconoce la desviación estándar.

Después de haber establecido una base matemática sólida para su teoría, la aplicaron al problema de dos muestras (1930) y al problema de k muestras (1931).

En uno de sus artículos conjuntos (1933) utilizaron la "razón de verosimilitud" para establecer un criterio objetivo para determinar la mejor región crítica (en el sentido del poder de la prueba) para probar una hipótesis simple y una hipótesis compuesta. A partir de entonces, cambiaría el estudio de las pruebas de hipótesis estadísticas.

Harold Hotelling (1895-1973)
Matemático, estadístico e influyente economista estadounidense, conocido en estadística por introducir la distribución T-cuadrado, desarrollada como una generalización de la t de Student, se utiliza en contraste de hipótesis y en regiones de confianza. También introdujo el análisis de la correlación canónica (una extensión de la regresión múltiple).

Hotelling fue crucial para el desarrollo y crecimiento de la economía matemática. Varias áreas de investigación activa estuvieron influenciadas con sus aportaciones: la Ley de Hotelling, el Lema de Hotelling y la Regla de Hotelling.

Entre sus alumnos de estadística, Milton Friedman (Nobel de Economía, 1976) y Kenneth Joseph Arrow (Nobel de Economía, 1972) y Abraham Wald.

Egon Sharpe Pearson (1895-1980)
Estadístico británico (hijo del estadístico Karl Pearson),conocido por el desarrollo del Lema de Neyman-Pearson. Sucedió a su padre como profesor de estadística en el University College de Londres y como editor de la revista Biometrika.

El Lema de Neyman-Pearson establece cómo encontrar la prueba más poderosa de una hipótesis nula simple contra una alternativa simple. Muestra que, para tal prueba, la región crítica tiene un límite en el que la razón de verosimilitud es constante.

Nikolai Vasilyevich Smirnov (1900-1966)
Matemático ruso, sus importantes trabajos en estadística matemática y teoría de la probabilidad se dedicaron a la investigación de distribuciones límite mediante el comportamiento asintomático de integrales múltiples a medida que la multiplicidad aumenta con el límite. Fue uno de los creadores de los métodos no paramétricos y de la teoría de distribuciones límite de estadística de orden.

Junto con el matemático ruso Andréi Nikoláyevich Kolmogórov, Smirnov desarrolló la prueba de Kolmogórov-Smirnov , a veces llamado criterio de consentimiento de Kolmogórov, y participó en la creación del test de Cramér-von Mises-Smirnov.

El test de Kolmogórov-Smirnov (prueba K-S), es una prueba no paramétrica que determina la bondad de ajuste de dos distribuciones de probabilidad entre sí, es un test más sensible a los valores cercanos a la mediana que a los extremos de la distribución. En caso de querer verificar la normal de una distribución, la prueba de Hubert Lilliefors Whitman conlleva algunas mejoras con respecto a la de Kolmogórov-Smirnov; y, en general, el test de Shapiro-Wilk o la prueba de Anderson-Darling son opciones más potentes.

Quinn Michael McNemar (1900-1986)
Psicólogo y estadístico estadounidense, conocido por su trabajo en pruebas de CI, por la prueba de McNemar (1947) y por su libro Psychological Statistics (1949).

La prueba de McNemar se utiliza con datos nominales emparejados, se aplica a tablas de contingencia 2 × 2 con un rasgo dicotómico con pares de sujetos emparejados, para determinar si las frecuencias marginales de fila y columna son iguales (es decir, sí existe "homogeneidad marginal").

En las ciencias médicas los parámetros comúnmente utilizados para evaluar una prueba de diagnóstico son la sensibilidad y la especificidad. La sensibilidad es la capacidad de una prueba para identificar correctamente a las personas con la enfermedad. La especificidad es la capacidad de la prueba para identificar correctamente a quienes no tienen la enfermedad. La prueba de McNemar compara la sensibilidad y la especificidad de dos pruebas de diagnóstico en el mismo grupo de pacientes.

George Horace Gallup (1901-1984)
Periodista, matemático y estadístico estadounidense. En 1935 fundó el American Institute of Public Opinion, Instituto de Opinión Pública estadounidense, para realizar sondeos electorales en Estados Unidos, conocer los gustos de la gente y estudiar la opinión de la masa social. Fue pionero en la medición de la audiencia tanto de radio como de televisión mediante encuestas.

Los métodos de análisis de Gallup, basados en las encuestas y la explotación estadísticas de sus resultados, fueron requeridos por numerosas empresas para conocer los signos de la demanda y adaptar sus ofertas.

Abraham Wald (1902-1950)
Matemático húngaro que hizo importantes contribuciones a la teoría de la decisión, estadística, programación lineal, geometría y econometría y fundó la teoría del análisis secuencial (aplicada a la II Guerra Mundial para mejorar los estudios de control de la calidad).

Propuso varias aplicaciones matemáticas a la economía de cierta relevancia, siendo colaborador de Oskar Morgenstern (fundó el campo de teoría de juegos y sus aplicaciones económicas, con el matemático John Von Neumann).

Se interesó en la Econometría, proponiendo modelos para suavizar la estacionalidad de las series temporales. En 1939 creó la "Prueba de Wald" utilizada en una gran variedad de modelos, incluyendo modelos con variables dicotómicas y modelos con variables continuas.

Aportó soluciones de unicidad a los modelos de equilibrio general competitivo de Marie Ésprit Léon Walras y los posteriores de Kenneth Joseph Arrow (Nobel Economía, 1972) y Gérard Debreu (Nobel Economía, 1983), así como para el modelo de duopolio al estilo de Antoine Augustin Cournot. No obstante, se centró en un modelo derivado del de Walras-Cassel.

Frank Yates (1902-1994)
Estadístico inglés, en 1934 introdujo la corrección de continuidad de Yates para pasar de una distribución de probabilidad discreta a una distribución de probabilidad continua. Se aplica también en la prueba de Chi-cuadrado en tablas de contingencia 2x2.

Durante la Segunda Guerra Mundial trabajó en la disciplina que más tarde recibiría el nombre de Investigación Operativa.

Frank Yates y Ronald Fisher en 1934 demostraron una larga data sobre los cuadrados latinos de 6 × 6 y publicaron un volumen extremadamente importante de tablas estadísticas.

En 1945 contribuyó a la incipiente computación estadística.

John von Neumann (1903-1957)
Matemático húngaro, considerado como uno de los matemáticos más importantes del siglo XX, realizó contribuciones fundamentales en estadística, teoría de juegos, ciencias de la computación, análisis funcional, análisis numérico, economía, física cuántica, cibernética, hidrodinámica y muchos otros campos.

Incorporó una prueba de autocorrelación "Razón de von Neumann", utilizada cuando los estimadores obtenidos con mínimos cuadrados no son de varianza mínima, aunque sean insesgados (las pruebas t y F dejen de ser válidas).

Propuso el lenguaje de la teoría de juegos y la teoría del equilibrio general para la economía.

En 1928 estableció el teorema del "minimax", que establece que en ciertos juegos de suma cero, que involucran información perfecta (cada jugador conoce de antemano la estrategia de su oponente y sus consecuencias), existe una estrategia que permite a ambos jugadores minimizar su máxima pérdida. Este trabajo culminó en 1944 con el libro clásico "Theory of Games and Economic Behavior" (Teoría de juegos y comportamiento económico), escrito con Oskar Morgenstern, fue el primero en emplear el método de prueba, utilizado en teoría de juegos, conocido como Inducción hacia atrás (backward induction).

En 1937 da solución a la existencia de situaciones de equilibrio en modelos matemáticos de desarrollo del mercado basado en oferta y demanda (descrito por Léon Walras en 1874). Primero reconoció que el modelo tendría que estar expresado por medio de inecuaciones y no de ecuaciones (como solía hacerse), y aplicó un teorema de punto fijo (derivado del trabajo del matemático holandés Luitzen Egbertus Jan Brouwer).

La importancia perdurable del trabajo en equilibrio general y la metodología de los teoremas de punto fijo es resaltada por la concesión del Premio Nobel de Economía (1972).

Introdujo la "Máquina de von Neumann" en ciencia computacional, virtualmente cada computadora personal, microcomputadora, minicomputadora y supercomputadora es una máquina de von Neumann.

Creó el campo de los autómatas celulares sin computadores, construyendo los primeros ejemplos de autómatas autorreplicables con lápiz y papel. El concepto de constructor universal fue presentado en su trabajo póstumo "Teoría de los autómatas autorreproductivos". El término «máquina de von Neumann» se refiere alternativamente a las máquinas autorreplicativas, para aprovechar el crecimiento exponencial de tales mecanismos.

Donald Ervin Knuth (experto en ciencias de la computación, famoso por su fructífera investigación dentro del análisis de algoritmos y compiladores) considera a von Neumann el inventor del conocido algoritmo merge sort, en el cual la primera y segunda mitad de un array (vector) se clasifican recursivamente por separado y luego se fusionan juntas.

Andrey Nikolaevich Kolmogórov (1903-1987)
Matemático ruso, con grandes aportaciones en teoría de la probabilidad y topología. Estructuró el sistema axiomático de la teoría de la probabilidad, utilizando el lenguaje teoría de conjuntos. Trabajó en lógica constructivista; en series de Fourier; en turbulencias y mecánica clásica.
Fundó la teoría de la complejidad algorítmica.

En 1924 publicó la potente "Desigualdad de Kolmogórov" desarrollando una nueva metodología que sería muy fructífera en el futuro.

En 1931 publicó "Métodos Analíticos en la Teoría de las Probabilidades" estudiando, en forma abstracta, lo que actualmente se denominan "Procesos de Markov", este trabajo sentó las bases teóricas necesarias para el futuro desarrollo de esta rama de las matemáticas.

En 1933 publicó el libro "Fundamentos de la Teoría de la Probabilidad", presenta la construcción axiomática de la teoría de probabilidades que actualmente es ampliamente aceptada. Desarrolla de forma clara y matemáticamente precisa los principales conceptos que ofrecen base para la fundamentación de los Procesos Estocásticos.

Desarrolló una teoría para la programación de instrucciones, y elaboró un procedimiento para conducir la información a través de los canales de comunicación. Después centró su investigación en el área de la turbulencia, donde sus publicaciones a partir de 1941 tuvieron una influencia significativa en este campo.

En 1949 publicó, junto a su alumno Boris Vladimirovich Gnedenko, el libro "Distribuciones Limites para Sumas de Variables Aleatorias Independientes", cuyo centro es la noción de ley infinitamente divisible y ley de estabilidad.

En mecánica clásica, es más conocido por el Teorema de Kolmogórov-Arnold-Moser (presentado por primera vez en 1954 en el Congreso Internacional de Matemáticos). En 1957 resolvió el decimotercer problema de Hilbert (un trabajo conjunto con su alumno Vladímir Ígorevich Arnold).

En 1963, Kolmogórov expone la idea de proporcionar una base algorítmica a las nociones básicas de la Teoría de Información y la Teoría de Probabilidades. Surge así la idea de complejidad algorítmica de un objeto, que hoy se conoce como complejidad según Kolmogórov.

Otros conceptos o resultados que aporta: Ecuación de Fischer-Kolmogórov, Axiomas de Kolmogórov, Teorema de continuidad de Kolmogórov, Teorema de Fréchet-Kolmogórov, Teorema de superposición de Kolmogórov, Espacio de Kolmogórov, Paradoja de Borel-Kolmogórov.

Henry Berthold Mann (1905-2000)
Matemático y estadístico austríaco, en teoría de números aditivos demostró la "Conjetura de Schnirelmann-Landau" sobre la densidad asintótica de conjuntos de sumas, estableciendo el "Teorema de Mann (1942)". En 1949 publicó "Análisis y diseño de experimentos: Análisis de varianza y análisis de diseños de varianza", primer libro matemático sobre el diseño de experimentos.

Desarrolló la prueba no paramétrica "U de Mann-Whitney", junto a su alumno Donald Ransom Whitney, que se aplica a muestras independientes para comparar dos grupos (o condiciones o tratamientos), mientras que la "Prueba de rango o signo de Frank Wilcoxon" se aplica a muestras emparejadas o dependientes.

Henry Scheffé (1907-1977)
Estadístico estadounidense, con importantes contribuciones a las pruebas de hipótesis no paramétricas, conocido por el Teorema de "Lehmann-Scheffé", desarrollado junto a Erich Leo Lehmann, y el "Método de Scheffé" para ajustar los niveles de significancia en un análisis de regresión lineal para tener en cuenta las comparaciones múltiples.

Maurice George Kendall (1907-1983)
Matemático inglés, introdujo en 1938 el "Coeficiente de correlación tau de Kendall", denominado "Coeficiente t de Kendall", aunque Gustav Theodor Fechner había propuesto una medida similar en 1897 en el contexto de series de tiempo.

Es una prueba no paramétrica para medir la asociación ordinal entre dos cantidades medidas.
Una medida de correlación de rango: Intuitivamente, la correlación de Kendall entre dos variables será alta cuando las observaciones tengan un rango similar (idéntico para una correlación de 1) y bajo cuando las observaciones tienen un rango diferente (completamente diferente para una correlación de -1).

William Gemmell Cochran (1909-1980)
Matemático y estadístico escocés, conocido por: La "Prueba C de Cochran", para decidir si una sola estimación de una varianza (o una desviación estándar) es significativamente más grande que un grupo de varianzas (o desviaciones estándar) con el que la estimación única se supone que debe ser comparable.

Prueba Q de Cochran", prueba estadística no paramétrica para verificar si k tratamientos tienen efectos idénticos.

Teorema de Cochran", utilizado para justificar los resultados relacionados con las distribuciones de probabilidad de estadísticas que se utilizan en el análisis de varianza.

"Prueba Cochran-Mantel-Haenszel", utilizada en el análisis de datos categóricos estratificados o coincidentes.

William Manning Haenszel (1910-1998)
Epidemiólogo estadounidense, junto con William Gemmell Cochran y Nathan Mantel, introdujó la prueba "Cochran-Mantel-Haenszel ", utilizada en el análisis de datos categóricos estratificados o coincidentes. Permite a un investigador probar la asociación entre un tratamiento binario y un resultado binario, como el estado de caso o control, mientras se tiene en cuenta la estratificación.

La prueba CMH maneja tamaños de estratos arbitrarios, a diferencia de la prueba de Quinn Michael McNemar que solo puede manejar pares.

Jacob Wolfowitz (1910-1981)
Matemático estadounidense de origen polaco, con importantes contribuciones en teoría de la decisión, estadística no paramétrica, análisis secuencial y teoría de la información.

En inferencia no paramétrica presenta formas de calcular los intervalos de confianza que no son necesariamente de ancho fijo, basado en las observaciones empíricas independientes distribuidas de manera idéntica en la distribución F.
En un artículo de 1942 introduce por primera vez la palabra "no paramétrico".

Incorporó la prueba de "Rachas de Wald-Wolfowitz", lleva los nombres de Abraham Wald y Jacob Wolfowitz, que permite contrastar la hipótesis nula de que dos muestras independientes proceden de poblaciones con distribuciones contínuas idénticas contra la hipótesis alternativa de que las poblaciones difieren en algún aspecto, que puede ser tanto la tendencia central como cualquier otra característica.

La prueba de Kolmogórov-Smirnov es más poderosa que la prueba de Wald-Wolfowitz para detectar diferencias entre distribuciones que difieren únicamente en su ubicación.
La prueba de Rachas de Wald - Wolfowitz se ha ampliado para su uso con varias muestras.

En teoría de la información, iniciada por Claude Elwood Shannon, hizo importantes contribuciones en su libro "Teoremas de codificación de la teoría de la información".

Maurice Stevenson Bartlett (1910-2002)
Estadístico inglés, con contribuciones en análisis de datos, teoría de la inferencia estadística y análisis multivariado. Conocido por la "Prueba de Bartlett" para estudiar la homocedasticidad (homogeneidad).
En análisis de la varianza ANOVA se supone que las varianzas de k muestras provienen de poblaciones con la misma varianza (homocedasticidad), la "Prueba de Bartlett" se utiliza para verificar esta suposición.

La prueba es sensible a las desviaciones de la normalidad, cuando las muestras provienen de distribuciones no normales, entonces la prueba de Bartlett puede ser simplemente para probar la no-normalidad. La "Prueba de Levene" y la "Prueba Brown-Forsythe", menos sensibles a las desviaciones de la normalidad, son alternativas a la "Prueba de Bartlett".

Wilson Allen Wallis (1912-1998)
Economista y estadístico estadounidense, conocido por la "Prueba Kruskal-Wallis", desarrollada junto a William Kruskal, método no paramétrico para probar si un grupo de datos proviene de la misma población. Intuitivamente, es idéntico al ANOVA con los datos reemplazados por categorías. Es una extensión de la prueba de la "U de Mann-Whitney" para tres o más grupos.

Al ser una prueba no paramétrica, no asume normalidad en los datos, en oposición al tradicional ANOVA. Sí asume, bajo la hipótesis nula, que los datos vienen de la misma distribución, violando con el supuesto el principio de heterocedasticidad (la varianza de los errores no es constante en todas las observaciones realizadas).

Milton Friedman (1912-2006)
Economista y estadístico estadounidense, uno de los economistas más influyentes del siglo XX. Fundador de la Escuela de Economía de Chicago (defensora del libre mercado), junto a Ludwig Von Mises y Friedrich Hayek. Premio Nobel de Economía de 1976.

Desarrolló la "Prueba de Friedman", prueba no paramétrica de comparación de tres o más muestras relacionadas. Se utiliza para comparar más de dos mediciones de rangos (medianas) y determinar que la diferencia no se deba al azar (que la diferencia sea estadísticamente significativa).
El método consiste en ordenar los datos (considerando la existencia de datos idénticos) por filas o bloques, reemplazándolos por su respectivo orden.

Howard Levene (1914-2003)
Estadístico y genetista estadounidense, conocido por desarrollar la "Prueba de Levene", utilizada para probar homocedasticidad (homogeneidad) de las varianzas de dos o más poblaciones, se basa en la distribución F.

Algunos procedimientos estadísticos asumen que las varianzas de las poblaciones de las que se extraen diferentes muestras son iguales, la prueba de Levene evalúa este supuesto.
Cuando el p-valor resultante de la prueba es inferior a cierto nivel de significación (típicamente 0,05) se rechaza la hipótesis nula de igualdad de varianzas.

Desarrolló la "Prueba de Friedman", prueba no paramétrica de comparación de tres o más muestras relacionadas. Se utiliza para comparar más de dos mediciones de rangos (medianas) y determinar que la diferencia no se deba al azar (que la diferencia sea estadísticamente significativa).
El método consiste en ordenar los datos (considerando la existencia de datos idénticos) por filas o bloques, reemplazándolos por su respectivo orden.

John Wilder Tukey (1915-2000)
Estadístico estadounidense, conocido por introducir el algoritmo para el cálculo de la Transformada de Fourier discreta y trabajos en topología. Acuñó muchos términos estadísticos que actualmente son de uso común.
En 1946 introdujo la palabra "bit" como contracción de "dígito binario".

En 1958, en el American Mathematical Monthly, planteó por primera vez el término "Software de Computación" (Computer Software).

Creó el método "Lines Media-Media" para obtener la línea de regresión.

En 1970, contribuyó significativamente en la "Estimación Jackknife", técnica para corregir el sesgo de estimación, aproximación lineal del Bootstrapping.

En 1977 introdujo el diagrama de caja y bigotes o Blox plot.

Propuso el uso de la mediana móvil (running median) para el análisis de series de tiempos, que derivó en el filtro mediano, usado en el tratamiento de señales en ingeniería, y también en el tratamiento de imágenes como filtro alisador (smoothing filter).

Incorporó la "Prueba Tukey" para comparar la media entre cada combinación de grupos por pares, utilizada conjuntamente con ANOVA, en experimentos que implican un número elevado de comparaciones. Su cálculo resulta sencillo porque define un solo comparador, resultante del producto del error estándar de la media por el valor tabular en la tabla de Tukey, usando como numerador el número de tratamientos y como denominador los grados de libertad del error.

La prueba Tukey se usa en experimentos que implican un número elevado de comparaciones de medias o se desea usar un test más riguroso que la "Prueba Duncan".

Se conoce como "Prueba de Tukey-Kramer" cuando las muestras no tienen el mismo número de datos.

Donald Ransom Whitney (1915-2007)
Matemático y estadístico estadounidense, conocido por desarrollar la prueba no paramétrica "U de Mann-Whitney", junto con Henry Berthold Mann, que se aplica a muestras independientes para comparar dos grupos (o condiciones o tratamientos). Es el equivalente no paramétrico de la Prueba t de Student.

Mientras que la "Prueba de rango o signo de Frank Wilcoxon" se aplica a muestras emparejadas o dependientes.

Donald Allan Darling (1915-2014)
Estadístico estadounidense, en 1952 publicó la prueba no paramétrica de "Anderson-Darling", junto a Theodore Wilbur Anderson, que determina si una muestra de datos dada se ajusta a una distribución de probabilidad conocida.

Es una de las tres pruebas no paramétricas diseñadas para detectar la normalidad de los datos, junto a las pruebas de "Kolmogórov-Smirnov" y de "Shapiro-Wilk".

La prueba de "Anderson-Darling" se ve gravemente afectada con los empates en los datos debido a la poca precisión. Cuando existe un número significativo de vínculos, rechazará con frecuencia los datos como no normales, independientemente de que se ajusten a la distribución normal.

Sidney Siegel (1916-1961)
Psicólogo estadounidense conocido por su trabajo en la divulgación de estadísticas no paramétricas para su uso en las ciencias del comportamiento. Publicó en 1960, en el Journal of the American Statistical Association, junto a John Wilder Tukey, la prueba estadística no paramétrica "Siegel-Tukey" con aplicación a datos medidos al menos en una escala ordinal. Prueba las diferencias de escala entre dos grupos.

La prueba determina si uno de los dos grupos de datos tiende a tener valores más dispersos que el otro. En consecuencia, la prueba determina si uno de los dos grupos tiende a moverse, a veces a la derecha, a veces a la izquierda, pero alejándose del centro (de la escala ordinal).

Herbert Alexander Simon (1916-2001)
Economista, politólogo y teórico de las ciencias sociales estadounidense. Nobel de Economía en 1978. Es innovador en teoría de juegos y estrategias racionales. Sus principales contribuciones fueron en los campos del equilibrio general y la econometría.

Pionero en el campo de la inteligencia artificial, creó con Allen Newell, los programas Logic Theory Machine (1956) y General Problem Solver (GPS) (1957). Desarrolló, junto a Edward Feigenbaum (padre de los sistemas expertos), la teoría EPAM (Perceptor Elemental y Memorizador), una de las primeras teorías del aprendizaje que se implementará como un programa de computadora.

El trabajo de Simon ha influido fuertemente en John Mighton, impulsor de un programa que ha logrado un éxito significativo en la mejora del rendimiento en matemáticas entre los estudiantes de primaria y secundaria.

Theodore Wilbur Anderson (1916-2016)
Matemático y estadístico estadounidense que se especializó en el análisis de datos multivariados. En 1958 publicó el libro "Una introducción al análisis multivariante", convirtiéndose en una guía para generaciones de estadísticos teóricos, planteando la prueba de hipótesis a través de pruebas de razón de verosimilitud y propiedades de las funciones de potencia.

Planteó, junto a Donald Allan Darling, la prueba de "Anderson-Darling", que determina si una muestra de datos dada se ajusta a una distribución de probabilidad conocida.

Estructuró, junto al estadístico indio Raghu Raj Bahadur, el algoritmo "Anderson-Bahadur", que se utiliza en estadística e ingeniería para resolver problemas de clasificación binaria cuando los datos subyacentes tienen distribuciones normales multivariadas con diferentes matrices de covarianza.

Leonard Jimmie Savage (1917-1971)
Matemático estadounidense, en 1954 publica "The Foundations of Statistics", donde expone ideas sobre la estadística bayesiana y, en particular, explica su teoría de la probabilidad subjetiva y una función de utilidad (von Neumann y Oskar Morgenstern habían introducido un caso especial de función de utilidad en Teoría de Juegos).

En varios artículos se relaciona con la inferencia estadística, introdujó pruebas de hipótesis bayesianas y la estimación bayesiana, oponiéndose a las opiniones de Ronald Fisher y Jerzy Neyman.

En Teoría de la Decisión propuso el "Modelo de Savage" o mínima penalización, que se basa en una dualidad, se busca la máxima ganancia a través de la mínima perdida. Para cada una de las soluciones hay diferentes resultados, se consideran todos los escenarios (columnas) como referente y dentro de éstos, para cada solución se elige el mayor valor para restarlo de cada valor dentro de esa misma columna.

Pierre Simon Laplace planteó en 1825 el criterio de "Razón insuficiente", como a priori no existe ninguna razón para suponer que un estado se puede presentar antes que los demás, se puede considerar que todos los estados tienen la misma probabilidad de ocurrencia. Es decir, la ausencia de conocimiento sobre el estado de la naturaleza equivale a afirmar que todos los estados son equiprobables.

Así, para un problema de decisión con n posibles estados de la naturaleza, se asigna la probabilidad 1/n a cada uno de ellos.

Leonid Hurwicz (1917-2008)
Economista y matemático de origen polaco, con importantes contribuciones en Diseño de Mecanismos y Teoría de la Empresa. Pionero en el valor de la Teoría de Juegos y sus aplicaciones. Nobel de Economía en 2007. Trabajó con Kenneth Joseph Arrow (Nobel Economía, 1972) en programación no lineal.

La programación no lineal es un método que optimiza, ya sea maximizando o minimizando, una función objetivo teniendo en cuenta distintas restricciones dadas. Se caracteriza porque la función objetivo, o alguna de las restricciones, pueden ser no lineales.

En 1951 aportó en Teoría de la Decisión el "Modelo de Hurwicz", criterio intermedio entre el modelo Maximin (pesimista) de Wald y el modelo Maximax (optimista), como hay pocas personas que son tan extremadamente pesimistas u optimistas como sugieren dichos criterios, considera que el decisor debe ordenar las alternativas de acuerdo con una media ponderada de los niveles de seguridad y optimismo.

Erich Leo Lehmann (1917-2009)
Estadístico estadounidense, con importantes contribuciones a las pruebas de hipótesis no paramétricas. Planteó el "Teorema de Lehmann-Scheffé", junto a Henry Scheffé, que determina el estimador insesgado de varianza mínima.

Formuló el "Estimador de Hodges-Lehmann", junto a Joseph Lawson Hodges, que para poblaciones no simétricas estima la " pseudo-mediana". Es un estimador robusto y no paramétrico del parámetro de localización de una población.

En poblaciones que son simétricas alrededor de una mediana, como la distribución normal (Gaussiana) o la distribución t de Student, el estimador de Hodges-Lehmann es una estimación consistente y mediana de la media de la población.
Para poblaciones no simétricas, el estimador de Hodges-Lehmann estima la "pseudo-mediana", que está estrechamente relacionada con la mediana de la población.

Se propuso originalmente para estimar el parámetro de localización de poblaciones unidimensionales, pero se ha utilizado para muchos más propósitos, como para estimar las diferencias entre los miembros de dos poblaciones. Se ha generalizado a partir de poblaciones univariadas a poblaciones multivariadas, que producen muestras de vectores.

Se basa en la "Prueba de los rangos con signo" de Frank Wilcoxon, fue un ejemplo temprano de un estimador basado en el rango, una clase importante de estimadores tanto en estadística no paramétrica como en estadística robusta (alternativa a los métodos estadísticos clásicos).

También recibe el nombre de "Estimador de Hodges-Lehmann-Sen", al ser propuesto independientemente en 1963 por Pranab Kumar Sen y por Joseph Hodges y Erich Leo Lehmann.

Nathan Mantel (1919-2002)
Bioestadístico estadounidense, introdujo el "Test de Mantel" de la correlación entre dos matrices, y la prueba de "Cochran-Mantel-Haenszel", junto a William Manning Haenszel y William Gemmell Cochran, que se utiliza en el análisis de datos categóricos estratificados o emparejados.

La prueba permite probar la asociación entre un tratamiento binario y un resultado binario, como el estado de caso o control, teniendo en cuenta la estratificación. A diferencia de la prueba de Quinn McNemar que solo puede manejar pares, la prueba CMH maneja tamaños arbitrarios de estratos.

La prueba de Cochran Mantel-Haenszel (CMH) y sus extensiones pueden combinar datos de varias fuentes o grupos evitando la confusión. A menudo se utiliza en estudios observacionales en los que no se puede controlar la asignación aleatoria de sujetos a diferentes tratamientos, pero se pueden medir las covariables de confusión.

William Henry Kruskal (1919-2005)
Matemático y estadístico estadounidense, introdujo en estadística no paramétrica, junto a Wilson Allen Wallis, la prueba de "Kruskal-Wallis", que prueba si un grupo de datos proviene de la misma población.

Intuitivamente, es idéntico al ANOVA con los datos reemplazados por categorías. Es una extensión de la prueba de la "U de Mann-Whitney" para 3 o más grupos.

Al ser una prueba no paramétrica no asume la normalidad en los datos, en oposición al tradicional ANOVA, este supuesto se esquiva con datos heterocedásticos (la varianza de los errores no es constante en todas las observaciones realizadas).

George Edward Pelham Box (1919-2013)
Estadístico británico, trabajó en las áreas de control de calidad, análisis de series temporales, diseño de experimentos, y la inferencia bayesiana. Es una de las mentes más brillantes de la estadística del siglo XX.
Publicó, junto a George Tiao, "Bayesian Inference in Statistical Analysis", libro influyente en muchos estadísticos.

En análisis discriminante introdujo, la prueba "M de Box" que compara la covarianza entre grupos, contrasta la igualdad de las matrices de varianzas-covarianzas poblacionales.

En series temporales, la prueba "Q de Ljung-Box", junto a Greta Marianne Ljung.

En diseño de experimentos, la prueba "Box-Behnken", junto a Donald Behnken, para mejorar el rendimiento del análisis conjunto en estudios experimentales de mercado.

Edward Lynn Kaplan (1920-2006)
Matemático estadounidense. En 1958, junto a Paul Meier, desarrolló el método de "Kaplan-Meier", estimador no paramétrico de la función de supervivencia, un método para medir cuántos pacientes sobreviven a un tratamiento médico de una duración a otra, teniendo en cuenta que la población de la muestra cambia a lo largo de tiempo.

El estimador admite una representación gráfica por medio de una función escalonada.

En las enfermedades crónicas, tales como el cáncer, la supervivencia se mide como una probabilidad de permanecer vivo durante una determinada cantidad de tiempo. Típicamente, el pronóstico del cáncer se valora determinando el porcentaje de pacientes que sobrevive al menos cinco años después del diagnóstico.

La prueba de "Kaplan-Meier" calcula la supervivencia cada vez que un paciente muere, se utiliza cuando la muestra es menor de 30 o para muestras mayores cuando se conocen los tiempos individuales de los censurados y no censurados.

Calyampudi Radhakrishna Rao (1920 - )
Estadístico indio, alumno de Ronald Aylmer Fisher, hizo aportaciones en la calidad de los estimadores, como la "Cota de Cramér-Rao", junto a Harald Cramér, que expresa una cota inferior para la varianza de un estimador insesgado, partiendo de la información de Fisher; y el "Teorema de Rao-Blackwell", junto a David Harold.

Blackwell transforma un estimador crudo arbitrario en uno optimizado mediante el criterio del error cuadrático medio u otro similar.

Rao desarrolló trabajos en análisis multivariante y geometría diferencial.

Charles William Dunnett (1921-2007)
Estadístico canadiense, introdujo el "Contraste Dunnett", un método de comparaciones múltiples, comparando distintos tratamientos con un control utilizado en determinados campos de investigación, por ejemplo en estudios epidemiológicos.

El contraste de Duncan utiliza, como el test HSD (Honestly Significant Difference) de John Wilder Tukey, la distribución del recorrido estudentizado. Se diferencia de ese test en que su aplicación es secuencial, en el sentido de no utilizar un único valor crítico para todas las diferencias de medias, como el de Tukey, sino un valor crítico que depende del número de medias comprendido entre las dos medias que se comparan, habiendo ordenado previamente las medias en orden creciente.

Morton B. Brown (1921-2014)
Estadístico británico, introdujo en análisis de la varianza la prueba "Brown-Forsythe" para la igualdad de medias cuando las varianzas son distintas. Se utiliza siempre que se necesita probar el supuesto de igualdad de varianzas.

Al realizar un análisis de la varianza (ANOVA) de una vía o de un factor entre grupos, se supone que las varianzas son iguales. Cuando esto no ocurre, la prueba F de Fisher no es válida. El test de "Brown-Forsythe" es una prueba robusta que se basa en las diferencias absolutas dentro de cada grupo de la mediana del grupo. Es una modificación de la prueba de "Levene", que utiliza la media.

La prueba "Brown-Forsythe" es una alternativa adecuada a la prueba de "Bartlett" para varianzas iguales, ya que no es sensible a la falta de normalidad y tamaños de muestra desiguales.

Joseph Lawson Hodges (1922-2000)
Estadístico estadounidense, conocido por sus contribuciones con el "Estimador de Hodges-Lehmann", el algoritmo del "Vecino más cercano", junto Evelyn Fix (1904-1965), publicado en el innovador artículo "Discriminatory Analysis. Nonparametric Discrimination: Consistency Properties" (Análisis discriminatorio. Discriminación no paramétrica: Propiedades de Consistencia), y el "Estimador de Hodges".

El estimador no paramétrico de "Hodges-Lehmann" fue propuesto en 1963 por Joseph Lawson Hodges y Erich Leo Lehmann, es un estimador robusto de localización de una población.
También se le conoce como el "Estimador de Hodges-Lehmann-Sen", al ser propuesto de forma independiente por Pranab Kumar Sen.

Para poblaciones simétricas alrededor de una mediana, como la distribución normal o la t de Student, es una estimación consistente y mediana de la media de la población. En poblaciones no simétricas estima la "pseudo-mediana", relacionada estrechamente con la mediana de la población.

El algoritmo no paramétrico del "Vecino más cercano" fue uno de los primeros algoritmos utilizados para determinar una solución para el "problema del viajante", genera rápidamente un camino corto, pero generalmente no ideal.

Un método importante que se convertiría en una pieza clave de las tecnologías del aprendizaje automático, el algoritmo de los "k vecinos más cercanos".

El algoritmo fue ampliado por Thomas M. Cover (1938-2012), siendo una de las principales motivaciones teóricas para el uso de "Métodos de Kernel" no lineales en aplicaciones de aprendizaje automático.

El "Estimador de Hodges" es un estimador supereficiente (más preciso), alcanza una varianza asintótica menor que estimadores eficientes regulares. En general, cualquier estimador supereficiente puede superar a un estimador regular como máximo en un conjunto de medidas de Lebesgue cero.

- El Análisis Discriminantes es una técnica multivariante de clasificación, con el objetivo de obtener una función capaz de clasificar a un nuevo individuo a partir del conocimiento de los valores de ciertas variables discriminadoras.

- El Análisis Clusters y el Análisis Discriminante son métodos de clasificación de individuos en categorías. La principal diferencia entre ellos estriba en que en el análisis discriminante se conoce a priori el grupo de pertenencia, mientras que el análisis cluster sirve para formar grupos (conglomerados, clusters, racimos, etc.) lo más homogéneos posibles.

- El Análisis Discriminante define una regla o esquema de clasificación que permita predecir la población a la que es más probable que tenga que pertenecer una nueva observación. El "Vecino más próximo o cercano" mide la proximidad entre dos grupos calculando la distancia entre sus objetos más próximos o la similitud entre sus objetos más semejantes.

Martin Bradbury Wilk (1922-2013)
Estadístico canadiense, conocido por desarrollar en 1965, junto a Samuel Sanford Shapiro, la prueba no paramétrica de "Shapiro-Wilk" para contrastar la normalidad de un conjunto de datos (cuando el tamaño de la muestra es menor que 50, en muestras grandes es equivalente al test de Kolmogórov-Smirnov).

Desarrolló, con Ramanathan Gnanadesikan (1932-2015), varias técnicas gráficas importantes para el análisis de datos, que incluyen los gráficos de probabilidad "Q-Q" y "P-P".

La idea básica de los métodos "Q-Q" y "P-P" consiste en representar, en un mismo gráfico, los datos empíricos observados, frente a los datos que se obtendrían en una distribución normal teórica. Si la distribución de la variable es normal, los puntos quedarán cerca de una línea recta. Es frecuente observar una mayor variabilidad (separación) en los extremos.

El gráfico de probabilidad "Q-Q", Q viene de cuantil, es un método para el diagnóstico de diferencias de los cuantiles entre la distribución de probabilidad de una población de la que se ha extraído una muestra aleatoria y la distribución normal usada para la comparación.

El gráfico de probabilidad "P-P" es similar al "Q-Q", la diferencia es que confronta las proporciones acumuladas de una variable que se ha extraído una muestra aleatoria con las proporciones de una distribución normal.

Jacob Cohen (1923-1998)
Psicólogo y estadístico estadounidense, dio su nombre a medidas como la "kappa de Cohen", "d de Cohen" y "h de Cohen".

Desarrolló trabajos sobre el poder estadístico (potencia de una prueba de hipótesis) y el tamaño del efecto (número que mide la fuerza de la relación entre dos variables en una población, o una estimación basada en una muestra de esa cantidad), que ayudaron a sentar las bases del metaanálisis estadístico actual y métodos de estimación de estadísticas (conjunto de métodos de análisis de datos relacionados con los tamaños del efecto).

El Coeficiente "kappa de Cohen" es una medida que ajusta el efecto del azar en la proporción de la concordancia observada para elementos cualitativos (variables categóricas).

La "d de Cohen" es una medida del tamaño del efecto como diferencia de medias estandarizada. Informa de cuántas desviaciones típicas de diferencia hay entre los resultados de los dos grupos que se comparan (grupo experimental y grupo de control, o el mismo grupo antes y después de la intervención).

La "h de Cohen" es una medida de distancia entre dos proporciones o probabilidades, se puede utilizar para describir la diferencia entre dos proporciones (pequeña, mediana o grande), determinar si la diferencia entre dos proporciones es significativa, o para calcular el tamaño de la muestra para un estudio futuro.
Al medir la diferencia entre dos proporciones, se puede utilizar como prueba de hipótesis. Entendiendo que una diferencia estadísticamente significativa entre dos proporciones significa que, dados los datos, es probable que exista una diferencia en las proporciones de la población. Sin embargo, la diferencia puede ser demasiado pequeña para ser significativa. Por otro lado, cuantifica el tamaño de la diferencia por lo que permite decidir si es significativa.

Ingram Olkin (1924-2016)
Estadístico estadounidense, conocido por el desarrollo de análisis estadístico para evaluar las políticas, en particular la educativa, y por sus contribuciones al metaanálisis, la educación estadística, el análisis multivariante, y la teoría de la mayorización. Introdujo la prueba "Kaiser-Meyer-Olkin (KMO)", medida de cuán adecuados son los datos para el análisis factorial.

La prueba mide la adecuación del muestreo para cada variable en el modelo y para el modelo completo. El estadístico es una medida de la proporción de varianza entre variables que podrían ser varianza común. Cuanto menor sea la proporción, más adecuados serán sus datos para el análisis factorial.

- El Análisis Factorial (AF) y el Análisis de Componentes Principales (ACP) están muy relacionados, son una técnica de análisis multivariante de reducción de datos.

- El método de Componentes Principales (ACP) tiene como objetivo transformar un conjunto de variables originales, en un nuevo conjunto de variables (sin perder información), combinación lineal de las originales, denominadas componentes principales (factores).
Trata de hallar estos componentes o factores, que se caracterizan por estar incorrelacionadas entre sí, que sucesivamente expliquen la mayor parte de la varianza total. El primer factor o componente será aquel que explica una mayor parte de la varianza total, el segundo factor sería aquel que explica la mayor parte de la varianza restante, es decir, de la que no explicaba el primero y así sucesivamente. De este modo sería posible obtener tantos componentes como variables originales aunque esto en la práctica no tiene sentido.

- El Análisis Factorial (AF) busca factores que expliquen la mayor parte de la varianza común, distinguiendo varianza común y varianza única.
La varianza común es la parte de la variación de la variable que está compartida con las otras variables y se puede cuantificar con la denominada "comunalidad". La varianza única es la parte de la variación de la variable que es propia de esa variable.

- Diferencias entre ACP y AF: El Análisis de Componentes Principales no hace distinción entre los dos tipos de varianzas de AF, busca hallar combinaciones lineales de las variables originales que expliquen la mayor parte de la variación total. Mientras que el Análisis Factorial pretende hallar un nuevo conjunto de variables, menor en número que las variables originales, que exprese lo que es común a esas variables.

- En algunos programas, como el SPSS, ambas técnicas están dentro del mismo procedimiento general. Existen varios contrastes que pueden realizarse para evaluar sí el modelo factorial (o la extracción de los factores) en su conjunto es significativo.

El test KMO (Kaiser, Meyer y Olkin) relaciona los coeficientes de correlación y los coeficientes de correlación parcial, entre dos variables.

Con un valor próximo a 1 del test KMO se tiene una correlación alta, con KMO>=0,9 la correlación es muy buena, con KMO>=0,8 la correlación es notable, con KMO>=0,7 la correlación es mediana, con KMO>=0,6 la correlación es baja, y muy baja para KMO<=0,5.

David Roxbee Cox (1924 - )
Estadístico inglés, conocido por sus trabajos en la regresión de Cox (análisis de la supervivencia), procesos estocásticos, diseño experimental y análisis de data binaria. Editor de la revista Biometrika entre (1966-1991).

La regresión de Cox, conocida como modelo del riesgo proporcional, es una técnica inferencial que se utiliza para modelar los riesgos que afectan a la supervivencia de una población de sujetos.

El modelo genera una función de supervivencia que pronostica la probabilidad de que se haya producido el evento de interés en un momento dado t para determinados valores de las variables predictoras.

La forma de la función de supervivencia y los coeficientes de regresión de los predictores se estiman mediante los sujetos observados. Después, se puede aplicar el modelo a los nuevos casos que tengan mediciones para las variables predictoras.

Señalar que la información de los sujetos censurados, es decir, aquellos que no han experimentado el evento de interés durante el tiempo de observación, contribuye de manera útil a la estimación del modelo.

Hubert Lilliefors Whitman (1928-2008)
Estadístico estadounidense, conocido por introducir la "Prueba de Lilliefors". En cálculos estadísticos fue uno de los pioneros de la Tecnología Informática, a finales de 1960 utilizó una computadora para calcular la "Distribución de Lilliefors".

Fue alumno del criptoanalista y matemático estadounidense Solomon Kullback (1907-1994), que introdujo, junto a Richard A. Leibler (1914-2003), la "Divergencia Kullback-Leibler" o "Entropía relativa", una medida de cómo una distribución de probabilidad es diferente de una segunda distribución de probabilidad de referencia.

La "Prueba de Lilliefors" es una prueba de normalidad basada en la prueba de "Kolmogórov-Smirnov", que utiliza para probar la hipótesis nula de que los datos provienen de una población con distribución normal con varianza desconocida.

Cuando la prueba de "Kolmogórov-Smirnov" es la normal y se estiman sus parámetros, los valores críticos se obtienen aplicando la corrección de significación propuesta por Lilliefors.

La tabla para la "Distribución de Lilliefors" se calcula mediante el Método de Montecarlo (introducido por Stanislaw Marcin Ulam y John von Neumann).

John Forbes Nash (1928-2015)
Matemático estadounidense, experto en teoría de juegos, geometría diferencial y ecuaciones en derivadas parciales. Premio Nobel de Economía (1994) , junto a Reinhard Selten y John Charles Harsanyi, y Premio Abel (2015).

Identificó puntos básicos sobre estrategias y posibilidades de predicción del comportamiento que se dan en juegos no cooperativos.

El denominado "Equilibrio de Nash" define la confrontación entre la cooperación y el deseo de obtener el máximo beneficio.

Los notables logros de Nash inspiraron a generaciones de matemáticos, estadísticos, economistas y científicos. Ganó un lugar especial en la historia por sus contribuciones revolucionarias en áreas tan diversas de las matemáticas como teoría de juegos, geometría, topología y ecuaciones diferenciales parciales.

Leo Aria Goodman (1928-2020)
Estadístico estadounidense, conocido por desarrollar métodos estadísticos para las ciencias sociales y herramientas para que los investigadores analicen datos categóricos y datos de encuestas estadísticas.

Introdujo, junto a William Henry Kruskal, dos medidas basadas en la reducción del error (RPE): La "Lambda de Goodman-Kruskal" y la "Tau de Goodman-Kruskal", y una medida de correlación de rango "Gamma de Goodman-Kruskal" para variables en escala ordinal.

La "Tau de Goodman-Kruskal" se basa en la asignación aleatoria de las categorías. Mide la mejora porcentual en la capacidad de predicción de la variable dependiente (variable de columna o fila) dado el valor de otras variables (variables de fila o columna).

La "Lambda de Goodman-Kruskal" se basa en las probabilidades modales. Mide la mejora porcentual en la probabilidad de la variable dependiente (variable de columna o fila) dado el valor de otras variables (variables de fila o columna).

La "Gamma de Goodman-Kruskal" es una medida de la correlación de rango, mide la fuerza de asociación de los datos de tabla cruzada cuando ambas variables se miden en escala ordinal, varía entre -1 y +1, se puede interpretar como la reducción proporcional del error cometido al predecir el ordenamiento de los casos de una variable mediante el conocimiento de la ordenación en la otra variable.

Robert Hough Somers (1929-2004)
Sociólogo y estadístico estadounidense, en 1962 introdujo la "d de Somers", una medida de dependencia entre variables ordinales.

Es una medida de asociación para datos ordinales, el estadístico considera que las variables pueden ser simétricas o dependientes. En el primer caso, el estadístico "d de Somers" coincide con la "Tau-b de Kendall". En el segundo supuesto, se diferencia del estadístico "Gamma" en que incluye los empates de la variable que considera dependiente.
Toma valores entre -1 y +1, y alcanza los valores extremos cuando existe concordancia o discordancia perfecta, valores próximos a 0 indican ausencia de asociación.

Gwilym Jenkins (1932-1982)
Ingeniero de sistemas y estadístico británico, desarrolló, con George Edward Pelham Box, el método de "Box-Jenkins" en el análisis de series de tiempo.

El método "Box-Jenkins" se aplica a los modelos autorregresivos de media móvil ARMA (dos componentes: autorregresiva AR, y media móvil MA) o a los modelos autorregresivos integrados de media móvil ARIMA (tres componentes: AR autorregresiva, integrado I, y medias móviles MA) para encontrar el mejor ajuste de una serie temporal de valores, con el objetivo de que los pronósticos sean más acertados.

La estimación de los parámetros de los modelos de "Box-Jenkins" es un problema no lineal bastante complicado. La estimación de parámetros lo realiza un programa de software estadístico.

Jean Paul Benzécri (1932-2019)
Matemático y estadístico francés, desarrolló técnicas estadísticas, destacando la del análisis de correspondencias. Fundador, entre 1960-1990, de la escuela francesa de análisis estadístico de datos.

- El análisis de correspondencias (AC) es una técnica multivariante descriptiva, utilizada en el estudio de tablas de contingencia y es conceptualmente similar al análisis de componentes principales, se diferencia porque identifica las dimensiones básicas mediante el análisis de tablas de contingencia o correspondencias obtenidas del cruce de las categorías de las variables cualitativas (escala nominal y ordinal) observadas en una muestra.

- El análisis de correspondencias asume que las variables son nominales y permite describir las relaciones entre las categorías de cada variable, así como la relación entre las variables. Además, se puede utilizar para analizar cualquier tabla de medidas de correspondencia que sean positivas.

- Cuando en el estudio hay implicadas más de dos variables, se utiliza el análisis de correspondencias múltiple. Si se deben escalar las variables de forma ordinal, se utiliza el análisis de componentes principales categórico.

George C Tiao (1933- )
Economista inglés, con importantes investigaciones en análisis bayesiano, análisis de series temporales y el estudio estadístico de los datos meteorológicos y climatológicos. Fue uno de los creadores del prestigioso NBER/NSF Time Series Seminar y el fundador de la conferencia anual Making Statistics more effective in schools of business.

Durante (1962-1972) fue uno de los pioneros en el campo del análisis bayesiano gracias a una labor de investigación reflejada en 25 artículos en las mejores revistas de Estadística y en un libro escrito conjuntamente con George Edward Pelham Box.

La mayoría de las agencias de Estadística y Bancos Centrales de los países industrializados utilizan sus procedimientos para desestacionalizar las series temporales económicas.

Desarrolló, junto a Box, el análisis de intervención, empleando el modelamiento ARIMA propuesto inicialmente por Box y Tiao (1965) y en 1970 por Box y Jenkins. Fue responsable del procedimiento para detectar sucesos atípicos en series temporales y evaluar sus efectos.

Sus trabajos en el estudio de los datos meteorológicos y climatológicos han afectado a la política industrial y energética de todos los países industrializados, es miembro del equipo que descubrió y midió los cambios en la capa de ozono.

Entre otras contribuciones importantes, creó una Escuela de Investigación para promocionar el conocimiento y la investigación estadística en Asía (China y Taiwan).

Fundó The International Chinese Statistical Associationy , así como la revista Statistica Sinica, la más prestigiosa sobre Estadística creada en los últimos 50 años.

Pranab Kumar Sen (1937- )
Estadístico indio, con importantes contribuciones a la investigación estadística, incluidas la estadística de orden, la no paramétrica, inferencia sólida, métodos secuenciales, bioestadística, ensayos clínicos, estudios bioambientales y la bioinformática. Coeditor fundador de dos revistas: Sequential Analysis y Statistics and Decisions, y Journal of Statistical Planning and Inference.

En estadística no paramétrica introdujó, junto al econométrico holandés Henri Theil, el estimador "Theil-Sen" para ajustar de manera robusta una línea a puntos de muestra en el plano (regresión lineal simple) eligiendo la mediana de las pendientes de todas las líneas a través de pares de puntos.

Este estimador se calcula de manera eficiente y es sensible a valores atípicos, significativamente más preciso que la regresión lineal simple no robusta (mínimos cuadrados) para datos asimétricos y heterocedásticos, compitiendo bien contra mínimos cuadrados para datos distribuidos normalmente en términos de poder estadístico.
Se le considera la técnica no paramétrica más popular para estimar una tendencia lineal.

Desarrolló, de forma independiente a Hodges y Erich Leo Lehmann, el estimador no paramétrico de "Hodges-Lehmann-Sen", estimador robusto del parámetro de localización de una población.
En poblaciones que son simétricas alrededor de una mediana, como la distribución normal o la distribución t de Student, es un estimador consistente y mediana de la media de la población.
En poblaciones no simétricas, estima la "pseudo-mediana", que se encuentra estrechamente relacionada con la mediana de la población.
Tiene aplicaciones para estimar las diferencias entre los miembros de dos poblaciones. Se ha generalizado a partir de poblaciones univariadas a poblaciones multivariadas, que producen muestras de vectores.

Bradley Efron (1938- )
Estadístico estadounidense, en 1979 desarrolló la técnica de remuestreo Bootstrapping (o bootstrap) para aproximar la distribución en el muestreo de un estadístico. Se utiliza frecuentemente para aproximar el sesgo o la varianza de un análisis estadístico, así como para construir intervalos de confianza o realizar contrastes de hipótesis sobre parámetros de interés.

El bootstrap fue una de las primeras técnicas estadísticas de uso intensivo de computadoras, sustituyendo a derivaciones algebraicas con simulaciones por ordenador basadas en datos.
Tiene un impacto importante en el campo de la estadística y prácticamente en todos los ámbitos de su aplicación.

En el mundo de Big Data, cuando no solo la ciencia, sino también la tecnología y la economía se alimentan de grandes cantidades de datos, el trabajo de David Roxbee Cox y Bradley Efron adquiere aún más importancia al trabajar con conjuntos de datos cada vez más grandes. Cox y Efron publicaron sus contribuciones más célebres en la década de 1970.

Bradley desarrolló métodos estadísticos que han resultado imprescindibles para obtener resultados fiables en muchas áreas: medicina, astrofísica, y física de partículas.

 

 

Portal Estadística Aplicada. Consultoría Estadística-Econometría,

 
 

De las cualidades del hombre, la más asombrosa, es sin duda la imaginación