Professional Documents
Culture Documents
Rey T. Meja R.
Matrcula:
2008-1797
Asignatura:
Probabilidad y Estadstica (MAT-252)
Tema:
Conceptos Generales de la Estadstica
Profesor:
Ral Santana
Santo Domingo, D.N
Enero 2016
Historia
Origen
El trmino alemn Statistik, introducido originalmente por Gottfried Achenwall en 1749, se refera al
anlisis de datos del Estado, es decir, la ciencia del Estado (o ms bien, de la ciudad-estado).
Tambin se llam aritmtica poltica de acuerdo con la traduccin literal del ingls. No fue hasta el
siglo XIX cuando el trmino estadstica adquiri el significado de recolectar y clasificar datos. Este
concepto fue introducido por el militar britnico sir John Sinclair (1754-1835).
En su origen, por tanto, la estadstica estuvo asociada a los Estados o ciudades libres, para ser utilizados
por el gobierno y cuerpos administrativos (a menudo centralizados). La coleccin de datos acerca de
estados y localidades contina ampliamente a travs de los servicios de estadstica nacionales e
internacionales. En particular, los censos comenzaron a suministrar informacin regular acerca de la
poblacin de cada pas. As pues, los datos estadsticos se referan originalmente a los datos
demogrficos de una ciudad o Estado determinados. Y es por ello que en la clasificacin decimal de
Melvil Dewey, empleada en las bibliotecas, todas las obras sobre estadstica se encuentran ubicadas al
lado de las obras de o sobre la demografa.
Ya se utilizaban representaciones grficas y otras medidas en pieles, rocas, palos de madera y paredes
de cuevas para controlar el nmero de personas, animales o ciertas mercancas. Hacia el ao 3000 a. C.
los babilonios usaban ya pequeos envases moldeados de arcilla para recopilar datos sobre la
produccin agrcola y de los gneros vendidos o cambiados. Los egipcios analizaban los datos de la
poblacin y la renta del pas mucho antes de construir las pirmides en el siglo XI a. C. Los libros
bblicos de Nmeros y Crnicas incluyen en algunas partes trabajos de estadstica. El primero contiene
dos censos de la poblacin de la Tierra de Israel y el segundo describe el bienestar material de las
diversas tribus judas. En China existan registros numricos similares con anterioridad al ao 2000 a.
C. Los antiguos griegos realizaban censos cuya informacin se utilizaba hacia el 594 a. C. para cobrar
impuestos.
Orgenes en probabilidad
Los mtodos estadstico-matemticos emergieron desde la teora de probabilidad, la cual data desde la
correspondencia entre Pascal y Pierre de Fermat (1654). Christian Huygens (1657) da el primer
tratamiento cientfico que se conoce a la materia. El Ars coniectandi (pstumo, 1713) de Jakob
Bernoulli y la Doctrina de posibilidades (1718) de Abraham de Moivre estudiaron la materia como una
rama de las matemticas.1 En la era moderna, el trabajo de Kolmogrov ha sido un pilar en la
formulacin del modelo fundamental de la Teora de Probabilidades, el cual es usado a travs de la
estadstica.
La teora de errores se puede remontar a la pera miscellnea (pstuma, 1722) de Roger Cotes y al
trabajo preparado por Thomas Simpson en 1755 (impreso en 1756) el cual aplica por primera vez la
teora de la discusin de errores de observacin. La reimpresin (1757) de este trabajo incluye el
axioma de que errores positivos y negativos son igualmente probables y que hay unos ciertos lmites
asignables dentro de los cuales se encuentran todos los errores; se describen errores continuos y una
curva de probabilidad.
Pierre-Simon Laplace (1774) hace el primer intento de deducir una regla para la combinacin de
observaciones desde los principios de la teora de probabilidades. Laplace represent la Ley de
probabilidades de errores mediante una curva y dedujo una frmula para la media de tres
observaciones. Tambin, en 1871, obtiene la frmula para la ley de facilidad del error (trmino
introducido por Lagrange, 1744) pero con ecuaciones inmanejables. Daniel Bernoulli (1778) introduce
el principio del mximo producto de las probabilidades de un sistema de errores concurrentes.
El mtodo de mnimos cuadrados, el cual fue usado para minimizar los errores en mediciones, fue
publicado independientemente por Adrien-Marie Legendre (1805), Robert Adrain (1808), y Carl
Friedrich Gauss (1809). Gauss haba usado el mtodo en su famosa prediccin de la localizacin del
planeta enano Ceres en 1801. Pruebas adicionales fueron escritas por Laplace (1810, 1812), Gauss
(1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856),
John Herschel (1850) y Morgan Crofton (1870). Otros contribuidores fueron Ellis (1844), Augustus De
Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La frmula de Peters para r, el
probable error de una observacin simple es bien conocido.
Siglo XX
El campo moderno de la estadstica se emergi a los principios del siglo XX dirigida por la obra de
Francis Galton y Karl Pearson, quienes transformaron la estadstica a convertirse en una disciplina
matemtica rigurosa usada por anlisis, no solamente en la ciencia sino en la manufactura y la poltica.
Las contribuciones de Galton incluyen los conceptos de desviacin tpica, correlacin, anlisis de la
regresin y la aplicacin de estos mtodos al estudio de la variedad de caractersticas la altura, el peso,
el largo de las pestaas de ojo entre otros. Pearson desarroll el Coeficiente de correlacin de Pearson,
defini como un momento-producto, el mtodo de momentos por caber las distribuciones a las
muestras y la distribuciones de Pearson, entre otras cosas. Galton y Pearson se fundaron Biometrika
como su primera revista de la estadstica matemtica y la bioestadstica (en aquel entonces conocida
como la biomentra). Pearson tambin fund el primer departamento de estadstica en University
College de Londres.
Durante el siglo XX, la creacin de instrumentos precisos para asuntos de salud pblica
(epidemiologa, bioestadstica, etc.) y propsitos econmicos y sociales (tasa de desempleo,
econometra, etc.) necesit de avances sustanciales en las prcticas estadsticas.
Ronald Fisher invent el trmino hiptesis nula durante el experimento de la mujer saboreando t, la
cual nunca se pruebe ni se establezca pero tal vez se refuta, en el curso de experimentacin.
La segunda ola de los aos 1910 y 1920 se inici William Gosset, y se culmin en la obra de Ronald
Fisher, quin escribi los libros de texto que iban a definir la disciplina acadmica en universidades en
todos lados del mundo. Sus publicaciones ms importantes fueron su papel de 1918 The Correlation
between Relatives on the Supposition of Mendelian Inheritance, lo cual era el primero en usar el
trmino estadstico varianza, su obra clsica de 1925 Statistical Methods for Research Workers y su
1935 The Design of Experiments, donde desarroll los modelos rigorosos de diseo experimental.
Origin el concepto de suficiencia y la informacin de Fisher. En su libro de 1930 The Genetical
Theory of Natural Selection aplic la estadstica a varios conceptos en la biologa como el Principio de
Fisher13 13 (sobre el ratio de sexo), el Fisherian runaway, un concepto en la seleccin sexual sobre una
realimentacin positiva efecto hallado en la evolucin.
El siglo XIX incluye autores como Laplace, Silvestre Lacroix (1816), Littrow (1833), Richard
Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre y Didion. Augustus De Morgan y
George Boole mejoraron la presentacin de la teora. Adolphe Quetelet (1796-1874), fue otro
importante fundador de la estadstica y quien introdujo la nocin del hombre promedio (lhomme
moyen) como un medio de entender los fenmenos sociales complejos tales como tasas de
criminalidad, tasas de matrimonio o tasas de suicidios.
Estadstica - Definiciones
La estadstica es una ciencia formal y una herramienta que estudia usos y anlisis provenientes de una
muestra representativa de datos, busca explicar las correlaciones y dependencias de un fenmeno fsico
o natural, de ocurrencia en forma aleatoria o condicional.
Sin embargo, la estadstica es ms que eso, es decir, es la herramienta fundamental que permite llevar a
cabo el proceso relacionado de la estadstica con la investigacin cientfica.
Es transversal a una amplia variedad de disciplinas, desde la fsica hasta las ciencias sociales, desde las
ciencias de la salud hasta el control de calidad.
Se usa para la toma de decisiones en reas de negocios o instituciones gubernamentales.
Diferencias entre:
a) Poblacin y Muestra: La poblacin es el todo parte del universo sobre el cual se realiza una
investigacin un ejemplo: mujeres en edad frtil que sufren cncer de mama. El universo son las
mujeres la poblacin son las mujeres en edad frtil y la muestra se toma de la poblacin en estudio
aplicando frmulas ya sea para poblacin finita (cuando se conoce el dato cuantitativo de una
poblacin ) y para poblacines infinitas cuando la poblacion no se conoce el dato. Luego que se
establece la muestra, se selecciona el tipo de muestreo que sirve para describir la unidad de anlisis.
c) Variables Continuas y Discretas: Variables discretas, son las que pueden tomar un nmero finito o
infinito de valores aislados (por tanto son un conjunto numerable), generalmente enteros. A cada valor
de la variable se le asocia una probabilidad y los pares variable, probabilidad forman la Distribucin de
Probabilidades. Provienen generalmente de conteos.
Variables continuas, pueden tomar cualquier valor real en uno o ms intervalos (por tanto no forman
conjuntos numerables). A cada valor de la variable se le asocia una densidad de probabilidad. Solo
tienen probabilidad diferente de cero intervalos de medida no nula. La funcin se denomina de
Densidad de Probabilidades. Provienen generalmente de mediciones con instrumentos tericamente
con precisin infinita.
En el caso de que los datos no sigan una distribucin normal, no es adecuado utilizar la media y
desviacin tpica para resumir la informacin, sino que debe emplearse la mediana como ndice de
centralizacin y el rango intercuartlico como ndice de dispersin. la mediana es el valor que deja a
cada lado, por encima y por debajo, la mitad de la distribucin, de tal manera que es igualmente
probable encontrar un valor ms pequeo que uno mayor que la mediana.
Para caracteriza la distribucin utilizamos los percentiles, que son aquellos valores que dejan una
proporcin determinada de datos a cada lado.
La precisin de la estimacin efectuada a partir de los datos del estudio se refleja en el intervalo de
confianza. el intervalo de confianza de un parmetro viene dado por dos lmites, inferior y superior, en
el que, de acuerdo con nuestros datos, esperamos que se encuentre el valor verdadero del parmetro de
la poblacin (desconocido), con un nivel de seguridad determinado y que se suele fijar en el 95%.