You are on page 1of 28

Capitulo 1

Estadística: Definiciones básicas


Experimento o Encuesta: Se llama así a la observación planeada de un fenómeno de cualquier
índole con el objetivo de conocer su comportamiento, poder describirlo y/o tomar una decisión.
Se llama Unidad experimental a cada uno de los entes que son observados en el experimento.
Se llama Medición a la asignación, conforme a reglas preestablecidas, de valores (símbolos,
numerales o números), a cada una de las características que poseen las Unidades Experimentales.
Se llama Escala de medición a una regla preestablecida o instrumento de medición, que consiste
en un conjunto de valores que se asignaran a una característica especifica que poseen las
Unidades de Experimentales.
Se llama Dato estadístico al valor asignado a una de las características de una Unidad
Experimental, conforme a la Escala de Medición empleada.
Un dato estadístico es el valor que resulta de una medición. Se pueden clasificar en:
Datos estadísticos cualitativos: Son aquellos valores correspondientes a los atributos o
propiedades categóricas que solo se pueden usar para identificar y describir a una Unidad
Experimental.
Datos estadísticos cuantitativos: Son aquellos valores que, además de identificar y describir a
una Unidad Experimental, establecen las diferencias posibles entre los valores en cantidad y grado.
Escalas de medición
Escala nominal : Se usa únicamente para clasificar a los entes en distintas categorías. La operación
básica y más sencilla en todo proceso de investigación, es la clasificación, esto significa separar las
unidades experimentales desde el punto de vista de determinadas características, decidiendo
cuales son las que pertenecen a una misma clase y cuales pertenecen a distintas clases. Esta
escala se utiliza cuando los datos son cualitativos, constituyendo el nivel más bajo de medición. Los
valores correspondientes a esta escala reciben el nombre de categorías y son simples etiquetas. Si
algún numero se asocia a una categoría, este estaría cumpliendo una función de código, de
ninguna manera se pueden utilizar para operaciones matemáticas. La relación lógica de la Escala
Nominal es la relación de equivalencia y posee las propiedades de simetría y transitividad.
Ej.: Provincia de origen del personal de una empresa: Los empleados de una empresa pueden ser
clasificados en las distintas provincias, pero no es posible establecer una jerarquía entre ellas.
Escala Ordinal: Se usa para, además de clasificar a los entes en distintas categorías, clasificarlos
de acuerdo a su rango. Esta escala se utiliza cuando los datos son cualitativos, y es posible
ordenarlo de acuerdo a una jerarquía preestablecida de sus valores según el grado que poseen. La
escala Ordinal constituye un nivel de medición superior al de la Escala Nominal. Cuando a las
categorías se las representan con números, se hace la misma salvedad que la realizada para la
Escala Nominal. Las relaciones lógicas propias de esta escala son, Relación de Equivalencia y la
Relación de Origen y posee las propiedades de simetría, para dos valores de la misma categoría;
asimetría, para dos valores de distinta categoría, y transitividad.
A<B<C<D
B tiene mayor jerarquía que A, C tiene mayor jerarquía B, D tiene mayor jerarquía que C, se puede
decir que la mayor diferencia jerárquica entre A y D es igual al agregado de las diferencias
jerárquicas entreA y B, y la diferencia jerárquica entre B y C, la diferencia jerárquica entre C y D,
pero no se puede establecer cuál de las diferencia jerárquicas parciales es mayor.
Ej.: Grado de acuerdo con una determinada política del gobierno si las posibilidades son: muy de
acuerdo, de acuerdo y desacuerdo: Se puede establecer una relación de orden o jerarquía entre las
respuestas.
Escala de Intervalo o Distancia: Se usa para, además de clasificar a los entes en distintas
categorías y clasificarlos de acuerdo a su rango, poder establecer una distancia entre dos
cualquiera de ellos. Esta escala se utiliza cuando los datos son cuantitativos, por lo tanto los valores
de cada categoría necesariamente deben ser números.
A<B<C
ABC
Se puede decir que la distancia entre a y b es mayor que la distancia entre b y c, pero no se pude
establecer la proporcionalidad entre ellos. Al punto de origen de esta escala se le asigna
arbitrariamente el valor cero, llamado cero arbitrario, que no necesariamente indica ausencia de la
característica medida.
Ej.: Temperatura ambiente: Temperatura cero grados no indica ausencia de temperatura
Escala de Razón o proporción: Se usa para, además de clasificar a los entes en distintas
categorías, clasificarlos de acuerdo a su rango, y poder establecer una distancia entre dos
cualquiera de ellos, poder establecer una proporcionalidad entre dos cualquiera de ellos, poder
establecer una proporcionalidad entre dos cualquiera de ellos.
A<B<C

ABC
Se puede decir que la distancia entre a y b es mayor que la distancia entre b y c, como así también
se puede establecer la proporcionalidad entre ellos. El punto de origen de esta escala es realmente
cero, llamado cero real, que indica ausencia de la característica medida. Esta escala constituye el
nivel más alto de medición.
Ej.: Peso de una persona (en kg): Peso cero indica ausencia de peso.
Información: Al resultado de la evaluación de los datos estadísticos cuando se los compara con
una adecuada referencia.
Ej.: La edad mínima requerida para ver una determinada película en el cine es 16 años. Llega una
persona para ver la película y el empleado de la entrada le consulta la edad. Ella le contesta que
tiene 18 años y el empleado le permite entrar.
Referencia: Es la edad mínima, 16 años.
Dato estadístico: Es la edad de la persona, 18 años.
Información: Surge cuando se comparan las edades, la persona es apta.
Decisión: Es la acción del empleado, le permite la entrada.
Estadística
Es la disciplina científica que crea, desarrolla y aplica los adecuados métodos de recopilación de
datos, y su evaluación, para transformarlos en informaciones con las cuales se describan
objetivamente las distintas situaciones investigadas, se analice el comportamiento de determinadas
características que poseen las unidades experimentales, y se tomen decisiones en condición de
incertidumbre. Para que un evento sea objeto de análisis estadístico, debe ser susceptible de
presentar distintos resultados, aun cuando se lo repita bajo condiciones similares. La tarea
Estadística está presente cuando se necesita estudiar aquellas situaciones que requieran ser
medidas en similares condiciones y los resultados de estas puedan presentar variabilidad.
Universo
Es el conjunto de Unidades Experimentales que poseen características comunes observables para
obtener información sobre un hecho particular. Puede ser finito o infinito. Se va a determinar cuándo
se establezca el objetivo del trabajo a realizar.
Se llama variable a cualquier característica observable que tienen las unidades experimentales. Se
llama recorrido de una variable al conjunto de los posibles valores que ella puede asumir. De
acuerdo al tipo de datos que original la variable, estas se clasifican en:
Variable cualitativa: Cuando los valores que puede asumir no constituyen un espacio métrico. Esto
quiere decir que no es posible establecer una distancia entre dos valores cualesquiera, como así
tampoco realizar operaciones algebraicas con los valores de una variable cualitativa. Se miden en
escala nominal o en escala ordinal.
Variable cuantitativa: Cuando los valores que puede asumir si constituyen un espacio métrico.
Esto quiere decir que es posible establecer la distancia entre dos valores cualesquiera como así
también realizar operaciones algebraicas con los valores de una variable cuantitativa. Se miden en
escala de Intervalo o de razón y los valores pueden ser únicamente números.
Variable cuantitativa continua: Dado un intervalo [a; b] de números reales, si cualquier número real
que pertenece a dicho intervalo puede ser un valor de la variable, entonces la variable es continua.
Se originan cuando la característica a medir es una magnitud (longitud, superficie, volumen) y no se
establecen restricciones. El recorrido de una continua es siempre infinito no numerable.
Variable cuantitativa discreta: Dado un intervalo [a; b] de números reales, si solo alguno números
reales que pertenecen a dicho intervalo pueden ser un valor de la variable, entonces la variable es
discreta. Se originan en los conteos, cuando se establecen restricciones al medir magnitudes. El
recorrido de una discreta es siempre finito o infinito numerable.
Se llama Población a cada una de las variables particulares que se estudian en un universo. Se
llama Muestra a un subconjunto o parte de una población sobre la base de la cual se puede hacer
un juicio acerca de esta.
Etapas de la tarea estadística
1. Enunciación del problema, definición del Universo e identificación de las variables.
2. Formulación de los instrumentos de medición: son aquellos con los cuales se obtienen y/o
registran los datos a medida que se los conoce o ellos se producen.
3. Recopilación de los datos: Forman la materia prima del proceso estadístico para la obtención de
información.
Fuentes internas o propias: Si el estadístico y el especialista deciden recopilar los datos por cuenta
propia lo pueden realizar de 3 formas clásicas:
· Registro: Es la recopilación sistemática de los datos en el momento que se producen. Ej. El
registro nacional de las personal o dentro de una empresa el registro de proveedores.
· Censo: Es la observación del universo y la medición, a la totalidad de las unidades experimentales
que lo conforman, de todas las variables que previamente hayan sido declaradas relevantes para la
investigación a llevar a cabo, en un instante dado. Es un método estático de recopilación de datos.
· Muestreo: Es un conjunto de métodos que se utilizan para tomar una muestra, por lo tanto se
observa una parte del universo en un instante dado. Es un método estático de recopilación de los
datos.
Fuentes externas: Son las publicaciones. Si se utiliza este tipo de fuente para la obtención de los
datos hay que verificar la calidad y responsabilidad de la publicación tratando que, en lo posible sea
un material especializado.
· Fuente externa primaria: Cuando los datos publicados fueron recopilados directamente por los
responsables del medio que los reproduce, mediante alguno de los métodos descriptos para las
Fuentes Propias. Generalmente se recurre, como fuente externa primaria, a las publicaciones de
organismos oficiales, como el Instituto Nacional de Estadísticas y Censos.
· Fuente externa secundaria: Cuando los datos publicados no fueron recopilados directamente por
los responsables del medio que los reproduce. Generalmente las fuentes externas secundarias son
publicaciones periodísticas que reproducen datos recopilados y presentados por otros organismos.
4. Presentación de los datos
Una vez que los datos se han recopilado es necesario que sean presentados en forma efectiva, de
modo tal que puedan ser comunicados y que, a la vez, permitan tanto, obtener alguna información
primaria, como así también, organizarlos para proceder al análisis.
Presentación escrita: Consiste en incorporar los datos en un párrafo combinando cifras y textos. No
es muy eficaz cuando hay gran cantidad de datos.
Cuadro estadístico : también llamado tabla estadística, es una técnica de presentación de datos
basada en un arreglo de filas y columnas donde se pueden clasificar los datos de acuerdo a las
características que se le estudian a las unidades experimentales, permitiendo organizarlos
adecuadamente.
· Cuadro estadístico de referencia: Son aquellos que se usan solo para publicar los datos y son
utilizados como fuente para otros trabajos.
· Cuadro estadístico de Análisis: Son aquellos que se utilizan para presentar los datos de modo tal
que facilite la realización de los cálculos matemáticos necesarios para el análisis de los datos.
La diferencia entre ambos está en la forma en que se los utiliza y no en su estructura.
5. Análisis de los datos
Análisis estadístico descriptivo: Permite describir, en forma apropiada, el comportamiento empírico
de las variables, mediante el cálculo de algunas medidas capaces de resumir la información que
contienen los datos.
Análisis estadísticos inferencial: El análisis inferencial permite tener información acerca de una
población o tomar decisiones concernientes a ella, mediante los datos obtenidos con una muestra.
Análisis probabilístico: Con la utilización de modelos teóricos, permite cuantificar la incertidumbre
que provocan los resultados de ciertos experimentos, cuando a estos no se los puede predecir con
exactitud, como así también, medir el “error” que pudiera cometerse en las decisiones tomadas
mediante el Análisis inferencial.
6. Interpretación de los resultados
Los resultados que se obtienen mediante el análisis de los datos están expresados en un lenguaje
estadístico. En esta etapa, el Estadístico y el Especialista deben “traducir” estos resultados al
lenguaje de la disciplina objeto de la investigación y entre ambos poder compatibilizarlos, dado que
toda conclusión estadística tiene asociada una conclusión especifica donde se tomaras las
decisiones.
Se llama regularidad estadística a la información del comportamiento de una variable, que
proporciona el registro ordenado de sus valores observados. El conocimiento de la regularidad
estadística permitirá la construcción de modelos teóricos con los cuales realizar predicciones
confiables sobre los eventos que son investigados.
Cantidades absolutas y relativas
Los Datos Cuantitativos que se obtienen mediante la recopilación de los datos para realizar un
determinado trabajo, según el tipo de información que se quiera proporcionar, se pueden expresar
de dos maneras:
· En forma absoluta, si solamente se quiere mostrar la cuantía de la magnitud
· En forma relativa, si a la cuantía de la magnitud medida, se la quiere relacionar con otro valor de la
misma magnitud.
Esto da origen a los dos tipos de cantidades:
Cantidades absolutas: Son aquellos datos cuantitativos que, cuando son presentados y/o
analizados, están expresados en las unidades de medida correspondientes a la magnitud que se
está midiendo.
Cantidades relativas: Son aquellos datos cuantitativos que surgen del cociente entre dos cantidades
absolutas correspondientes a la misma magnitud y unidad de medida.
Se llama Proporción estadística a la cantidad relativa que se obtiene haciendo el cociente entre
una parte y su correspondiente total.
Capitulo 2
Cuadro estadístico: se llama así a un arreglo de filas y columnas dispuestas metódicamente de modo tal
que se puedan presentar y organizar los datos para clasificarlos adecuadamente.
1. Cuadro estadístico de referencia
2. Cuadro estadístico de análisis

Estructura

1. Título: debe describir el contenido del cuadro y responder ¿Qué son los datos incluidos en el cuadro?
¿Dónde fueron recopilados? ¿Cuándo ocurrieron los eventos que dieron origen a los datos? ¿Cómo están
clasificados?. Evitar que sea breve y no proporcione la información correcta, y que sea demasiado extenso.

2. Nota de encabezado: se incorpora al cuadro para explicar ciertos puntos relacionados con la tabla
completa que no han sido incluidos en el título o cuando se quiere hacer una ampliación de éste, ya sea
detallando algún elemento importante o aclarando la unidad de medida de la magnitud que corresponde a
los datos. Va debajo del título y entre paréntesis.

3. Columna de matriz: es la primer columna, y se ubican las variables que se consideran más significativas.
4. Encabezado de columnas: se colocan los valores de las otras variables que se quieren presentar junto a
la variable más significativa, o algunas características especiales de ésta.

5. Cuerpo: es el conjunto de celdas que se forman con la intersección de filas y columnas. Se llaman unida
básica de presentación del cuadro estadístico y en cada una se registran los datos.

6. Nota al pie: para clarificar o explicitar algún dato o elemento en particular.

7. Fuente: se estable el origen y la forma de relevamiento de los datos. Si es una publicación es necesario
mencionar el título, el número de edición, fecha, y la página de donde salieron los datos.
Gráficos: dibujo metódicamente realizado para presentar los daros y expresarlos en forma plástica.
Estructura

1. Título: debe describir lo que se quiere expresar y responder ¿Qué son los datos incluidos en el gráfico?
¿Dónde fueron recopilados? ¿Cuándo ocurrieron los eventos que dieron origen a los datos? ¿Cómo están
clasificados?.

2. Nota de encabezado: se incorpora al gráfico cuando se quiere hacer una ampliación del título, ya sea
detallando algún elemento importante o aclarando la unidad de medida de la magnitud que corresponde a
los datos. Va debajo del título y entre paréntesis.

3. Diagrama: está formado por los distintos trazos que se utilizan para realizar los dibujos. Pueden ser líneas,
rectángulos, circunferencias, etc.

4. Nota al pie: para clarificar o explicitar algún dato o elemento en particular.

5. Fuente: se estable el origen y la forma de relevamiento de los datos. Si es una publicación es necesario
mencionar el título, el número de edición, fecha, y la página de donde salieron los datos.
Tipos de gráficos estadísticos
 Lineal: se utiliza para representar valores de dos variables cuantitativas presentadas conjuntamente o
mostrar la evolución de una variable cuantitativa a través del tiempo usando un sistema de coordenadas
cartesianas octogonales. El diagrama está formado por líneas rectas que unen los puntos del plano que
representan valores de las variables.

 Lineal de partes componentes: se utiliza para mostrar la evolución de un total conjuntamente con las
partes que lo componen.

 De barras: se utilizan cuando una de las variables es cualitativa. Consiste en rectángulos dibujados en
un sistema de coordenadas cartesianas ortogonales y la base de ellos puede estar sobre el eje de las
abscisas o el de las ordenadas según donde se ubica la variable cualitativa.

 De barras segmentadas: para mostrar la incidencia que tienen cada una de las partes que forman los
totales representados en cada una de las barras.

 De barras agrupadas: para mostrar la comparación entre las partes a través de barras adyacentes.

 Circulares: se utilizan para comparar partes de un total y la evolución en el tiempo o espacio. Consiste
en un circulo dividido en tantos sectores circulares como partes componen los totales que se quieren
comparar. El ángulo correspondiente a cada uno de los sectores se determina de modo tal que mantenga
la misma proporción con el ángulo de la circunferencia e cada parte con el total. Para calcular el tamaño
de cada sector:
a. g°: grado de sector circular.
b. t: parte del total que quiere representar.
c. T: total.

Se debe cumplir: g°/t = 360°/T → g° = 360°/T x t

d. p: porcentaje de la parte (para expresar en porcentaje).

Se debe cumplir: g°/p = 360°/100 → g° = 360°/100 x p

Capitulo 3
Datos no agrupados: conjunto de datos dispuestos tal como se presentan. Menos de 20.
Datos agrupados en clases de equivalencias: cuando contamos con gran cantidad de datos de una
variable. Se ordenan para poder mostrar la regularidad estadística.
Frecuencia absoluta: cantidad de datos o valores observados de una variable que pertenecen a una
misma clase de equivalencia.
Frecuencia relativa: cociente entre la frecuencia absoluta y la cantidad total de observaciones.
Distribución de frecuencia: se llama así a una relación de clasificación de los datos que asigna a cada
valor, o grupo de valores que formen una misma clase de equivalencia, de una o más variables, su
correspondiente frecuencia.
1. Hay que establecer cuáles serán las clases de equivalencias en las que quedará particionado el recorrido
de la variable. Cada elemento debe pertenecer a una y solo una de ellas.
2. Luego se cuenta la cantidad de datos que pertenecen a cada una de ellas, obteniendo la frecuencia
absoluta y a partir de esta se obtiene la frecuencia relativa.

 Se utiliza para tener los datos estadísticos, organizados, clasificados y distribuidos en las distintas clases
= Datos Agrupados en una distribución de frecuencia.
 Según la cantidad de variables que se quieran clasificar puede ser:
o Univariada: cuando se clasifica solamente una variable
o Polivariada: cuando se clasifican conjuntamente dos o más variables.
o Bivariada: cuando se clasifican sólo dos variables.

Variable cuantitativas discretas n: cantidad de observaciones x: variable en estudio

a) Frecuencia absoluta simple (f): se llama así a la cantidad de veces que se repite un valor de la variable.
Se debe cumplir 0 ≤ f ≤ n y ∑f = n.

Frecuencia absoluta simple. Tabular: consiste en un cuadro de dos columnas. Columna matriz donde
se colocan los valores de la variable en todo su recorrido y la segunda que corresponde a la frecuencia
absoluta simple asociada a cada valor de la variable.

Frecuencia absoluta simple. Bastones: abscisas variable y ordenada frecuencia simple.

b) Frecuencia absoluta acumulada (F= f + F1): se llama así a la cantidad de unidades experimentales con
un valor de la variable menor o igual a un valor dado.
Frecuencia absoluta acumulada. Escalonado: abscisas variable y ordenada frecuencia acumulada. En
el primer valor de la variable con f ≠ 0 se marca un punto cuya ordenada sea igual a la F de ese valor. A
partir de ese punto se traza una paralela al eje de abscisas hasta el valor de la variable.

Frecuencia absoluta acumulada. Tabular: a la frecuencia absoluta simple correspondiente al valor de la


variable se le suma la frecuencia acumulada hasta el valor anterior.

c) Frecuencia relativa simple (fr = f/n): cociente entre f y la cantidad de observaciones. Se debe cumplir 0
≤ fr ≤ 1 y ∑fr = 1. Se representa con un gráfico de bastones. La longitud de cada uno de los bastones
representa la proporción de unidades experimentales que tienen el valor de la variable.

d) Frecuencia relativa acumulada (Fr = F/n): cociente entre F y la cantidad de observaciones. Se representa
con un gráfico de escalones. La altura de cada escalón representa la proporción de unidades
experimentales que tienen el valor de variable menor o igual al correspondiente.
Variables cuantitativas continuas n: cantidad de observaciones x: variable en estudio
a) Intervalo de clases: se establecen para analizar el comportamiento de una variable cuantitativa continua.
A la amplitud total del recorrido se lo particiona en clases de equivalencia = intervalos.
A = xM – xm. A: amplitud total del recorrido de la variable continua. xM: máximo valor razonable que
puede asumir la variable. xm: mínimo valor razonable que puede asumir la variable.

h = ent (1+log2n) = ent (1+logn/log2). h: cantidad de intervalos de clases necesarios para clasificar n
observaciones.
Una vez que tenemos h hay que calcular el tamaño de cada intervalo. La amplitud de cada uno de los
intervalos es el cociente entre la amplitud total y la cantidad de intervalos. a: amplitud de cada intervalo. a
=A/h

Li: límite inferior de cada intervalo. Ls: límite superior de cada intervalo. En variable continuas Ls =Li del
intervalo siguiente.

b) Frecuencia absoluta simple (f): cantidad de unidades experimentales cuyos valores observados de la
variable pertenecen a un mismo intervalo de clase. Se debe cumplir 0 ≤ f ≤ n y ∑f = n.

Frecuencia absoluta simple. Tabular: consiste en un cuadro de dos columnas. En la primera se colocan
los intervalos de clases y en la segunda la frecuencia absoluta simple asociada a cada valor del intervalo.

Distribución de frecuencias absolutas simples. Histograma: la f de un intervalo está representada por


la superficie de un rectángulo cuya base es la amplitud del intervalo. Y (altura del rectángulo) = f/a. En el
eje de las abscisas se colocan los valores marcando los intervalos y en el eje de las ordenadas la altura
de los rectángulos. La superficie total que cubre es el histograma es igual al total de observaciones.

c) Frecuencia absoluta acumulada (F): cantidad de unidades experimentales que tienen un valor observado
de la variable menor al límite superior de un intervalo.

Frecuencia absoluta acumulada. Tabular: a la frecuencia absoluta simple correspondiente a un intervalo


se le suma la frecuencia absoluta simple de todos los intervalos anteriores.

Distribución de frecuencias absolutas acumuladas. Ojiva: eje de abscisas variable marcando los
intervalos y en el eje de las ordenadas la frecuencia absoluta acumulada. El gráfico comienza en el límite
inferior del primer intervalo = 0. El primer punto es el punto de la coordenada (Li1:0). Al límite superior del
primer intervalo le corresponde una ordenada igual a F hasta ese valor, luego el segundo punto es (Ls1:F1).
La ojiva es el poligonal no decreciente que une todos los puntos.
d) Frecuencia relativa simple (fr = f/n): cociente entre la f y la cantidad de observaciones. Se debe cumplir
0 ≤ fr ≤ 1 y ∑fr = 1. Se representa con un histograma donde la superficie de cada rectángulo representa
la proporción de unidades experimentales que pertenecen a cada intervalo.

e) Frecuencia relativa acumulada (Fr = F/n): cociente entre la F y la cantidad de observaciones. Se


representa con la ojiva. La ordenada para cada valor de la variable representa la proporción de unidades
experimentales que tienen el valor de variable menor o igual al correspondiente.

Medidas que resumen información: se llaman parámetros estadísticos cuando se calculan con la
totalidad de los valores de una o más variables y cuando son calculadas usando algún modelo matemático
que describa el comportamiento probabilístico de las poblaciones.
1) Medidas de concentración: aquellas medidas con las cuales se pueden establecer el porcentaje de datos
que está concentrado dentro de un determinado intervalo o un intervalo que contenga una determinada
concentración porcentual de datos.
a. Se mide la concentración en porcentaje a partir de un valor conocido de la variable.
b. A partir de un porcentaje conocido de concentración se determina el valor de la variable hasta donde se
acumula el porcentaje.
Rango percentilar
 Frecuencia relativa porcentual que se acumula desde el mínimo valor del recorrido hasta un valor dado
de la variable.
 Se mide para un valor específico de la variable y brinda el porcentaje de daos que se acumula entre el
menor valor de la variable y el valor dado. Se calcula con la Fr.
 xm: mínimo valor de la variable. xs: valor dado de la variable. k(xs): rango percentilar correspondiente al
valor de la variable. k(xs) = Fr(xs) x 100 (en el intervalo se concentra k% de los datos).
 La diferencia entre los rangos percentilares de dos valores de la variable x mide la concentración de datos
que hay en el intervalo formado por ellos.
 Variable discreta: se determina directamente por la frecuencia relativa acumulada hasta el valor dado.
 Variable continua: 1. Cuando el valor dado coincide con el Ls de un intervalo, el RP se determina por la
frecuencia relativa acumulada hasta ese valor. 2. Cuando el valor dado no coincide con el Ls se requiere
de una fórmula de interpolación lineal que calcula F hasta el valor de la variable que sea interior a un
determinado intervalo.
F (xs) = F (s-1) + { [ (xs-Li) / a ] x f } ó Fr (xs) = Fr (s-1) + { [ (xs-Li) / a ] x fr }

F (s-1): frecuencia absoluta acumulada hasta el límite anterior al intervalo.


Fr (s-1): frecuencia relativa acumulada hasta el límite anterior al intervalo.

 Determinación gráfica: dado un valor de la variable hay que localizarlo en el eje de las abscisas. A partir
de ese punto se traza un segmento paralelo al eje de ordenadas hasta intersectar con la ojiva. La ordenada
correspondiente es el valor de la F.

Percentiles
 De orden k, aquel valor hasta donde se acumula, a lo sumo el k% de los datos y desde donde se acumula
a lo sumo el (100-k)%.
 Se localizan en variables cualitativas medidas en escala ordinal, cuantitativas con dato sin agrupar y
cuantitativas con datos organizados en una distribución de frecuencia.
 ORP: orden relativo del percentil = rango percentilar.
 OAP: orden absoluto del percentil, es la F correspondiente al valor k y se obtiene calculando el k% del
total de las observaciones n. OAP = (k.n)/100
 Variable discreta: se determina el OAP, si no coincide con algún valor de F se busca el primer valor de
ésta que supera el OAP. Si OAP coincide con algún valor de la F entonces el percentil de orden k es la
semi-suma entre el valor de la variable que le corresponde y la siguiente.
 Variable continua: se determina el OAP, si OAP coincide con algún valor de la F entonces el valor del Ls
del intervalo correspondiente es el percentil de orden k. Si no coincide con algún valor de F se busca el
primer valor de ésta que supera el OAP. El intervalo que le corresponde es el que contiene al percentil
buscado. Para determinarlo se utiliza la fórmula de interpolación:
Xk = Lip + { [ (k.n) / 100 ] – F(p-1) } / f p } . a

p = orden del intervalo que contiene el percentil. k = ORP. Lip = límite inferior del intervalo que contiene el
percentil. (k.n) / 100 = OAP – orden absoluto del percentil. F(p-1) = F hasta el intervalo anterior al que contiene
al percentil. f p = f del intervalo que contiene el percentil. a = amplitud.

 Determinación gráfica: dado un orden relativo de percentil = k hay que transformarlo en un valor de F
OAP. Se localiza este valor en el eje de ordenadas y a partir de ese punto se traza un segmento paralelo
al eje de abscisas hasta intersectar con la ojiva. La abscisa del punto de intersección es k.
Percentiles especiales
 Deciles: percentiles de orden 10, 20, 30, 40, 50, 60, 70, 80, 90 y 100 que forman entre dos consecutivos
de ellos, intervalos donde se concentran, en cada uno, la décima parte (10%) de los datos.
 Quintiles: percentiles 20, 40, 60, 80 y 100 que forman, entre dos consecutivos de ellos, intervalos donde
se concentran, en cada uno, la quinta parte (20%) de los datos.
 Cuartiles: percentiles de orden 25, 50 y 75 que forman, entre dos consecutivos de ellos, intervalos donde
se concentran, en cada uno la cuarta parte (25%) de los datos.

2) Medidas de posición o tendencia central: se llaman medidas de posición de una variable, a aquellos
valores destacados con los cuales es posible representar a la totalidad de los valores observados de la
variable.
a. No necesariamente son valores de la variable, pero sí están expresadas en la misma magnitud, y pueden
ser localizadas en el mismo eje de coordenadas donde este representada la variable.
b. A partir de un porcentaje conocido de concentración se determina el valor de la variable hasta donde se
acumula el porcentaje.

Modo o Moda
 Se llama así al valor de la variable que se presenta con mayor frecuencia.
 Tiene sentido si los datos están agrupados en una distribución de frecuencia donde no todos los valores
de la variable presentan igual frecuencia simple.
 Variable cualitativa: se puede determinar cualquiera sea la escala en que esté medida. Corresponde a
aquella clase que presente mayor frecuencia.
 Variable cuantitativa: es el valor de mayor frecuencia dentro de un entorno de valores de la variable con
mayor frecuencia.
 Unimodales: distribuciones con un solo modo. Polimodales: distribuciones con más de un modo.
Bimodales: las que tienen dos. Trimodales: las que tienen tres.
 Variable discreta: se determina mediante la inspección de la columna de las frecuencias simples, absolutas
o relativas. Valor con mayor frecuencia.
Determinación gráfica: se utiliza el gráfico de bastones. El bastón de máxima longitud es el modo.

 Variable continua: no se puede encontrar un valor pero si un intervalo de mayor frecuencia simple. El
modo es un valor que pertenece a dicho intervalo y para localizarlo hay que utilizar una fórmula de
interpolación.
Modo(x) = Li + { [ d1/ (d1+d2) ] . a }

Li = límite inferior del intervalo modal. d1 = diferencia entre la frecuencia simple del intervalo modal y la
frecuencia simple del intervalo anterior. d2 = diferencia entre la frecuencia simple del intervalo modal y la
frecuencia simple del intervalo posterior. a = amplitud.
Determinación gráfica: se utiliza el gráfico de histograma.

Mediana
 Se llama mediana de una variable al valor que supera y es superado por, a lo sumo, igual cantidad de
observaciones.
 Se llama orden mediano a la ubicación de la mediana dentro del recorrido de la variable.
OM = [(n+1)/2]º
 Variables cuantitativas datos no agrupados: primero se ordenan los valores observados de la variable en
forma creciente. Luego se determina el OM. La mediana es el valor que ocupa el OM.
Si la cantidad de datos es impar la mediana es el valor del que está en el medio, si la cantidad es par es
el valor que surge de la semi suma de los dos valores centrales.
 Variables cuantitativas datos agrupados en una distribución de frecuencia: el OM pasa a ser OAM (orden
absoluto de la mediana). OAM = n/2. ORM (orden relativo de la mediana) ORM = 50%
 Variable discreta: se determina el OAM. Si no coincide con algún valor de la F entonces se busca el primer
valor de ésta que supera el OAM. Si coincide con algún valor de la F la mediana es la semi suma entre el
valor de la variable que le corresponde y el siguiente.
 Variable continua: se determina el OAM. Si coincide con algún valor de la F la mediana es el valor del
límite superior del intervalo. Si no coincide con algún valor de la F entonces se busca el primer valor de
ésta que supera el OAM. El intervalo que le corresponde es el que contiene a la mediana. Se utiliza una
fórmula de interpolación para determinarlo:
Me(x) = Lim + { [ (n/2) - F(m-1) ] / fm } . a}

F(m-1) = F hasta el intervalo anterior al que contiene a la mediana. fm = frecuencia simple del intervalo que
contiene a la mediana.

 Características:
1. el valor de la media es igual al percentil 50
2. el valor de la mediana no se ve afectado por la presencia de valores extremos de la variable.
3. la suma del módulo de las desviaciones con respecto a la mediana es mínima. Si se calcula el módulo de
las desviaciones con respecto a un número cualquiera que no sea la mediana y luego se suman, el
resultado siempre será mayor que el obtenido con la suma del módulo de las desviaciones con respecto a
la mediana.
 Determinación gráfica: en las variables cuantitativas se utiliza la ojiva. En el eje de las ordenadas se
determina la ojiva y a partir de ese punto se traza un segmento hasta intersectar con la ojiva. La abscisa
corresponde a la mediana.

Promedios simples
 Se llaman promedios simple de una variable a ciertos valores que se obtienen mediante la aplicación de
operadores matemáticos, a la totalidad de los valores observados de dicha variable.
 Se calculan solo cuando las variables son cuantitativas.

a. Media Aritmética (“ si todas.. tuviese en mismo.., cada una tendría..”)


 De una variable x es el número que resulta de sumar todos los valores observados de la variable y dividir
esta suma por la cantidad de unidades experimentales.
 Es el cociente entre el total observado de la magnitud en estudio y la cantidad de elementos con los cuales
está formado el total.
 Valores de una variable sin agrupar: X = ∑x / n
 Valores de una variable discreta agrupados en una distribución de frecuencia simple: cada valor de la
variable debe multiplicarse por su frecuencia absoluta simple porque ésta representa la cantidad de veces
que se repite ese valor. X = ∑x.f / n
 Valores de una variable continua agrupados en una distribución de frecuencia simple: no hay valores
puntuales de la variable por lo que se debe determinar un punto de cada intervalo que represente la clase.
Este punto es el punto medio del intervalo y representa el valor de la variable en ese intervalo. X = (Li +
Ls) / 2. Cada valor de la variable debe multiplicarse por su frecuencia absoluta simple porque ésta
representa la cantidad de veces que se repite ese valor. X = ∑x.f / n
 Valores de una variable discreta o continua, agrupados en una distribución de frecuencia relativa: fr = f/n
→ X = ∑x.f / n → X = ∑x . f/n → X = ∑x . fr
 Desviación: con respecto a la media aritmética es la diferencia entre un valor individual de la variable y su
media aritmética. d = x – X
 Propiedades:
 La suma de las desviaciones con respecto a la media aritmética es cero. La media aritmética compensa las
desviaciones – con las +. ∑(x-X) = 0 / ∑(x-X). f = 0
 La suma del cuadrado de las desviaciones con respecto a la media aritmética es mínima. ∑(x-X)2 = mín /
∑(x-X)2 . f = mín
 La media aritmética de una variable x es igual a un número real arbitrario más la media aritmética de los
desvíos con respecto al número real. X = c + [∑(x-c) / n] / X = c + [∑(x-c). f / n]
 La media aritmética de una constante es la constante misma.
 La media aritmética de la suma o diferencia entre una variable y una constante, es igual a la media aritmética
de la variable más o menos la constante.
 La media aritmética del producto, o cociente, entre una variable y una constante no nula es igual a la media
aritmética de la variable multiplicada o dividida por al constante.
 En la transformación afin de una variable se cumple que la media aritmética de la transformación es la
transformación afín de la media aritmética de la variable.
y = a + bx → Y = a+bX
 La media aritmética de la suma de dos o más variables correspondientes a la misma magnitud y expresadas
en la misma unidad de medida, es igual a, la suma del producto entre la cantidad de observaciones y la
media aritmética de cada una de las variables, dividida por la suma de la cantidad de observaciones.

b. Media Geométrica
 De una variable x es el número resultante de multiplicar todos los valores observados de la variable
extrayendo a este producto la raíz de índice igual a la cantidad de datos.
 Desventajas: los valores de la variable deben ser no nulos y necesariamente positivos. La obtención es
complicada.

c. Media Armónica
 De la variable x es el número resultante de hacer el cociente entre la cantidad de observaciones y la suma
de las inversas de todos los valores observados de la variable.

Promedios ponderados
 Se llama ponderación a aquella cantidad que permite asignar a cada valor de la variable en estudio una
determinada importancia o peso relativo.
 Pueden ser subjetivas cuando un sujeto, sobre la base de un buen saber y entender asigna una cantidad
la ponderación que considera adecuada. u objetivas cuando hay otra variable asociada cuyos valores
pueden ser usados como ponderaciones.
 Promedio aritmético ponderado: surge de hacer el cociente entre, la suma del producto de cada valor de
la variable y su correspondiente ponderación y la suma de las ponderaciones.

3) Medidas de variabilidad: son aquellas que permiten estudiar, cómo se desvían, los valores observados
de una variable, con respecto a alguna medida de tendencia central.

Desvío medio DMe = ∑ x-X


Datos agrupados en f: DMe = ∑ (x-X) . f / Datos agrupados en fr: DMe = ∑ (x-X) . fr
 Es una medida de variabilidad que mide el promedio aritmético del módulo las desviaciones de los valores
observados de una variable con respecto a una medida de tendencia central.
 Diferencia entre el desvío y el promedio.

Suma de cuadrados SC = ∑ (x-X)2


Variable sin agrupar: ∑ x2 - nX2 . Variable continua o discreta agrupada en distribución f: ∑ x2 .f - nX2
 Mide la variabilidad total de los valores observados de una variable con respecto a su media aritmética.
 Surge de sumar el cuadrado de todos los desvíos que se producen entre cada valor observado de la
variable y la media aritmética.

Varianza V(x) = ∑ (x-X)2 /n


Variable sin agrupar: V(x) = (∑ x2 /n) - X2.
Variable continua o discreta agrupada en distribución f: V(x) = [∑ (x-X)2 . f] / n → V(x) = (∑ x2 . f /n)- X2.
Variable continua o discreta agrupada en distribución fr: V(x) = [∑ (x-X)2. fr] → V(x) = (∑ x2 . fr)- X.

 Mide el promedio aritmético del cuadrado de los desvíos que se producen entre cada valor de la variable
y la media aritmética.
 Surge de dividir la suma de cuadrados entre la cantidad de observaciones.
 Cuando mayor es el valor numérico mayor es la variabilidad que presenta la variable y menor es la
representatividad de la media aritmética.
 Propiedades:
 Es un número real no negativo.
 La varianza de una constante es nula.
 La varianza de la suma de una variable más o menos una constante es igual a la varianza de la variable.
 La varianza del producto o cociente de una variable por o dividido una constante no nula, es igual a la
varianza de la variable por o dividido la constante al cuadrado.
 Dada la transformación afín de la variable y = a + bx → V(Y) = b2 V(X)

Desvío estándar
S(x) = +√V(x)
 De una variable es la raíz cuadrada positiva de la varianza.
 Es una media de variabilidad absoluta porque su valor numérico está expresado en la misma dimensión
de la variable manteniendo la magnitud.

Coeficiente de variación
CV(x) = S(x) / X
 Es un número puro desprovisto de magnitud.
 Es una medida de variable relativa. Su valor numérico permite establecer criterios generales acerca de la
homogeneidad de los datos, de la representatividad de la media aritmética y la comparación con la
variabilidad de otras variables aunque las unidades de medida o las magnitudes sean distintas.
 Si el CV(x) ≤ se puede considerar que la variable en estudio es homogénea y la media aritmética es
representativa.

Momentos empíricos
 Son operadores matemáticos que se obtienen a partir de los valores observados de la variable.
 Absolutos: se llama momento empírico absoluto de orden k de la variable, al promedio aritmético de la
potencia k-ésima de los valores observados de la variable. El de orden 1 es igual a la media aritmética.
Frecuencia absoluta: Mk(x) = (∑ xk . f ) / n Frecuencia relativa: Mk(x) = (∑ xk . fr ) / n

 Centrado: se llama momento empírico absoluto de orden k de la variable, al promedio aritmético de la


potencia k-ésima de los desvíos, de cada uno de los valores individuales observados de la variable, con
respecto a la media aritmética. El momento empírico centrado de orden 2 es igual a la varianza.
Frecuencia absoluta: Mk(x) = ∑(x – X)k .f )/n Frecuencia relativa: Mk(x) = ∑(x – X)k .fr)/n

 A partir de los momentos empíricos absolutos y/o centrados es posible verificar la concordancia de la
distribución de frecuencias con algún modelo matemático específico, comparando los momentos empíricos
con los momentos teóricos correspondiente al modelo matemático en cuestión.

4) Medidas de forma:
 Una distribución de frecuencias es simétrica cuando, si la variable es discreta, las frecuencias simples
correspondientes a valores de la variable que equidistan de la media aritmética son iguales; o, si la variable
es continua, las frecuencias simples de los intervalos cuyos puntos medios equidisten de la media
aritmética, son iguales.
 Curtosis: se llama así a una determinada relación entre la amplitud total y la máxima frecuencia, que
presenta una distribución de frecuencia.
 Coeficiente de asimetría: de una variable X, es el cociente entre el momento centrado de orden 3 y la
potencia tercera el desvío estándar.
As(x) = mc3 (x) / S3(X)
a. Cuando una distribución de frecuencias es simétrica todos los momentos centrados de orden impar, son
nulos dado que la suma de una determinada potencia impar de las desviaciones positivas multiplicadas
por las respectivas frecuencias simples, se compensan con la suma de dicha potencia impar de las
desviaciones negativas multiplicadas por sus respectivas frecuencias simples. As(x) = 0 / As(x) < 0.05
b. Cuando una distribución de frecuencias es asimétrica el momento centrado 3 no es nulo. As(x) ≥ 0.05
c. Si el mc3 es positivo, quiere decir que la suma del cubo de las desviaciones positivas multiplicadas por las
respectivas frecuencias simples es mayor que la suma del cubo de las desviaciones negativas
multiplicadas por las respectivas frecuencias simples. As(x) > 0
d. Si el mc3 es negativo, quiere decir que la suma del cubo de las desviaciones negativas multiplicadas por
las respectivas frecuencias simples es mayor que la suma del cubo de las desviaciones positivas
multiplicadas por las respectivas frecuencias simples. As(x) < 0

 Coeficiente de curtosis: de una variable X, es el valor que surge de restarle 3 al cociente entre, el mc4 y
la potencia cuarta del desvío estándar.
K(x) = [mc4 (x) / S4(X)] – 3
a. Coeficiente de curtosis de la función normal estandarizada cero = curtosis media. K(x) = 0
b. Coeficiente de curtosis positiva = leptocúrtica. K(x) > 0
c. Coeficiente de curtosis negativa = platicúrtica. K(x) < 0

 Variable de cálculo: es una transformación afin de los valores observados de la variable en estudio que
se genera de modo tal que no represente a alguna magnitud, que sus valores sean números enteros, y
que el incremento de ellos sea unitario.
xc = (x-C) / a
a= distancia entre cada uno de los valores de la variable discreta y amplitud de cada intervalo variable
continua.

C= uno de valores de la variable elegido arbitrariamente de la variable discreta y uno de los puntos medios
de la variable representante de la clase de un intervalo seleccionado de la variable continua.

Capitulo 4
Modelos matemáticos:
a. Modelo determinístico: se llama así a aquel modelo matemático que describe el comportamiento de las
variables cuyos valores quedan inequívocamente determinados a partir de las condiciones en que se
llevará a cabo el experimento que las origina.
b. Modelo estadístico: se llama así a aquel modelo matemático que describe el comportamiento de las
variables cuyos valores no quedan inequívocamente determinados a partir de las condiciones en que se
llevará a cabo el experimento que las origina.
Experimento aleatorio o estocástico - E

 Aquel fenómeno empírico que admite dos o más resultados posibles y no se tienen elementos de
juicio suficientes como para poder predecir con exactitud cuál o cuales de ellos ocurrirán, aunque
se los repita bajo las mismas condiciones.

Espacio muestral – U
 Se llama espacio muestral correspondiente a un experimento aleatorio, al conjunto de todos los
resultados posibles que puede presentar dicho experimento.
 Según la cantidad de elementos que contiene el conjunto puede ser:
a. Finito
b. Infinito numerable
c. Infinito no numerable
Suceso aleatorio

 Cualquier subconjunto del espacio muestral U correspondiente a un experimento aleatorio E.


 Es un conjunto de algunos, todos o ninguno de los resultados posibles de un experimento aleatorio
que puede ocurrir o no.

Sucesos especiales

a. Teniendo en cuenta que el conjunto vacío es un subconjunto de cualquier conjunto, el conjunto


vacío es un subconjunto del espacio muestral → el conjunto vacío es un suceso aleatorio. S = Ø
b. Teniendo en cuenta que todo conjunto es subconjunto de sí mismo, el espacio muestral, es un
subconjunto del espacio muestral → el espacio muestral es un suceso aleatorio. S = U

Operaciones con Sucesos

a. Complemento de un suceso: aquel suceso que ocurre sí, y solo si no se presenta el suceso S.

b. Suceso conjunto: aquel suceso que ocurre sí, y solo sí se presentan conjuntamente dos o más de
los sucesos que forman el espacio muestral. Se lee A y B.

c. Suceso unión incluyente: aquel suceso que ocurre sí, y sólo si ocurre alguno de los sucesos que
forman el espacio muestral. Se lee suceso A o B.
El suceso A o B se presenta solamente si se presenta el suceso A y no se presenta el suceso B o al revés
o se presentan los dos sucesos simultáneamente.

d. Suceso unión excluyente: aquel suceso que ocurre sí, y sólo si ocurre sólo uno de los sucesos que
forman el espacio muestral. Se lee suceso A o bien B.
El suceso A o bien B se presenta solamente si se presenta el suceso A y no se presenta el suceso B, o al
revés. Los sucesos no tienen que presentarse en forma simultánea.

e. Sucesos compatibles: dos o más sucesos son compatibles sí, y sólo si es posible que se presenten
en forma conjunta. Dos o más sucesos son compatibles cuando el suceso intersección no es el Ø

f. Sucesos mutuamente excluyentes o incompatibles: dos o más sucesos son sucesos mutuamente
excluyentes sí, y sólo si la presentación de uno de ellos impide, “excluye” la presentación del o de
los otros. Dos o más sucesos son mutuamente excluyentes cuando el suceso intersección es el Ø

g. Frecuencia relativa: se llama fr correspondiente a un suceso aleatorio S, al cociente entre la


cantidad de veces que ocurrió el suceso y a cantidad de veces que se repitió el experimento E.
E: experimento aleatorio S: suceso aleatorio n: cantidad de veces que se repite E
k: cantidad de veces que se repite S fr(s): frecuencia relativa correspondiente a S

fr(s) = k/n → 0  fr(s)  1


fr(s) = 1 → sí y sólo si en cada una de las n observaciones de E siempre se presentó el suceso S.
fr(s) = 0 → sí y sólo si en cada una de las n observaciones de E nunca se presentó el suceso S.

Principio de estabilidad de la frecuencia relativa

 Establece que la frecuencia relativa correspondiente a un suceso aleatorio, oscila con una
convergencia asintótica, alrededor de un número fijo, cuando la cantidad de observaciones del
experimento aleatorio crece indefinidamente. (lím n→infinito fr(s) = c)

Axiomas para el cálculo de la probabilidad


Sea un experimento aleatorio E y su correspondiente espacio muestral U, se llama probabilidad de
ocurrencia de un suceso aleatorio S a un número real, denotado por P(S), que cumpla:

 La probabilidad de ocurrencia de un suceso aleatorio es un número real no negativo. P(S)≥0


 Si el suceso aleatorio es el espacio muestral, a la probabilidad de ocurrencia del suceso se le
asigna el valor 1. S=U → P(S) = 1
 Sen S1 y S2 dos sucesos mutuamente excluyentes pertenecientes a un mismo espacio muestral,
la probabilidad de que se presente alguno de los dos, suceso unión es igual a la probabilidad de
que se presente el suceso S1, más la probabilidad de que se presente el suceso S2. (S1S2) = Ø
→ P(S1S2) = P(S1) + P(S2)
 Sean S1; S2; … ; Sk sucesos mutuamente excluyentes de a pares, pertenecientes a un mismo
espacio muestral, la probabilidad de que se presente alguno de ellos, suceso unión, es igual a la
probabilidad de que se presente el suceso S1 más la probabilidad de que se presente el suceso
S2 más etc, más la probabilidad de que se presente el suceso Sk. (Si Sj) = Ø e i ≠ j → P(S1
S2…Sk) = P(S1) + P(S2) + …. + P(Sk).

Teoremas
1. Si el suceso aleatorio es un conjunto vacío, la probabilidad de ocurrencia del suceso aleatorio es 0.
S = Ø → P(S) = P(Ø) = 0

2. La probabilidad de ocurrencia de un suceso más la probabilidad de ocurrencia de su complemento es igual


a 1. P(S) + P(S) = 1

3. Si S1 y S2 sin sucesos de un mismo espacio muestral, la probabilidad de que se presente alguno de los
dos, suceso unión incluyente, es igual a la probabilidad de que se presente el suceso S1 más la
probabilidad de que se presente el suceso S2 menos la probabilidad de que se presenten conjuntamente.
P(S1S2) = P(S1) + P(S2) – P(S1S2)

4. Si S1 y S2 sin sucesos de un mismo espacio muestral, la probabilidad de que se presente sólo uno de los
dos, suceso unión excluyente, es igual a la probabilidad de que se presente el suceso S1 más la
probabilidad de que se presente el suceso S2 menos el duplo de la probabilidad de que se presenten
conjuntamente. P(S1S2) = P(S1) + P(S2) – 2P(S1S2)

5. La probabilidad de ocurrencia de un suceso es un número real comprendido entre 0 y 1. 0  P(S)  1

Probabilidad marginal
 Se llama probabilidad marginal de un suceso S1 a la probabilidad de que se presente un suceso aleatorio
S1 incluido en el espacio muestral U asociado a un experimento aleatorio E.
P(S1) = probabilidad marginal del suceso S1.

Probabilidad conjunta
 Para dos sucesos: se llama probabilidad conjunta de dos sucesos S1 y S2 a la probabilidad de que se
presenten en el mismo experimento aleatorio dos sucesos aleatorios S1 y S2 incluidos en el espacio
muestral U asociado a dicho experimento E.
P(S1 S2) = probabilidad conjunta S1 S2

 Para más de dos sucesos: se llama probabilidad conjunta de k sucesos S1, S2, Sk a la probabilidad de
que se presenten en el mismo experimento aleatorio los k sucesos aleatorios S1, S2, Sk incluidos en el
espacio muestral U asociado a dicho experimento E.
P(S1 S2 Sk) = probabilidad conjunta S1 S2…. Sk

Probabilidad condicional
 Se llama probabilidad condicional del suceso S1 tal que se haya presentado el suceso S2 a la probabilidad
de que se presente el suceso S1 con la condición de que previamente se presente el suceso S2.
 Implica la probabilidad de que se presente un suceso S1 tomando como espacio muestral al suceso S2
en vez del original U. El espacio S2 es un espacio reducido ya que se considera como total de resultados
posibles sólo los que pertenecen a dicho suceso. S1 suceso condicionado y S2 suceso condicionante.
P(S1 / S2) = probabilidad condicional de S1 dado S2
 La probabilidad condicional del suceso S1 tal que se haya presentado el suceso S2, es el cociente entre
la probabilidad conjunta entre los dos sucesos S1 y S2 y la probabilidad marginal del suceso condicionante
S2.
P(S1 / S2) = P(S1 S2) / P(S2) para S2 ≠ Ø

 Si el suceso condicionante es S1 → P(S2 / S1) = P(S1 S2)/ P(S1) para S1 ≠ Ø


 Igual para k sucesos incluidos
 Si S1 y S2 son sucesos mutuamente excluyentes: P(S2 / S1) = P(S1 S2) / P(S1) = 0 y P(S1 / S2) = P(S1 S2)
/ P(S2) = 0 → S1 y S2 ≠ Ø
 Si S1 esta incluido en S2: P(S1 / S2) = P(S1 S2) / P(S2) = 1

Operaciones con probabilidades


1. Regla del producto o probabilidad compuesta (conjunciones y e ni): sean dos sucesos S1 y S2 incluidos
en un mismo espacio muestral asociado a un experimento aleatorio E, la probabilidad conjunta de
presentación del suceso S1 y S2 se calcula multiplicando la probabilidad marginal de uno de los dos y la
probabilidad condicional del otro, dado el primero.
P(S2 / S1) = P(S1 S2) / P(S1) para S1 ≠ Ø y P(S1 / S2) = P(S1 S2) / P(S2) para S2 ≠ Ø
P(S1 S2) = P(S1) x P(S2 / S1) y P(S1 S2) = P(S2) x P(S1 / S2)

2. Regla de la suma (conjunciones o u)


- Sean dos sucesos S1 y S2 incluidos en un mismo espacio muestral asociado a un experimento aleatorio
E

- Sean tres sucesos S1 S2 S3 incluidos en un mismo espacio muestral asociado a un experimento aleatorio
E

Sistemas exhaustivos
 k sucesos mutuamente excluyentes, S1, S2…Sk, incluidos en el espacio muestral U, asociados a un
experimento aleatorio E, forman un sistema exhaustivo sí, y sólo si la suma de las probabilidades
marginales correspondientes a cada una de ellos es igual a uno.
Teorema de la probabilidad total de un suceso
 Sean S1, S2…Sk, k sucesos mutuamente excluyentes, incluidos en el espacio muestral U asociado a un
experimento aleatorio E, que forman un sistema exhaustivo y sea B un seceso aleatorio incluido en el
mismo espacio muestral U compatible con cada uno de los sucesos Si, entonces la probabilidad total del
suceso B es P(B) = P(Si) . P(B/Si) i=1

Teorema de Bayes
 Sean S1, S2…Sk, k sucesos mutuamente excluyentes, incluidos en el espacio muestral U asociado a un
experimento aleatorio E, que forman un sistema exhaustivo y sea B un seceso aleatorio incluido en el
mismo espacio muestral U compatible con cada uno de los sucesos Si, entonces la probabilidad
condicional de un suceso particular incluido en el espacio muestral U, el suceso Sh, habiéndose
presentado el suceso B es P(Sh/B) = P(Sh) . P(B/Sh) / P(Si) . P(B/Si)

Sucesos probabilísticamente independientes i=1


 Dos o más sucesos son probabilisticamente independientes cuando la presentación de uno de ellos no
modifica el valor de probabilidad de presentación del otro o de los otros sucesos.
P(S1 / S2) = P(S1) y P(S2 / S1) = P(S2)
 Si S1 y S2 son dos sucesos probabilisticamente independientes, la probabilidad conjunta (S1 S2) es igual
al producto de las probabilidades marginales
P(S1 S2) = P(S1) . P(S2)

Diagrama de árbol para el cálculo de probabilidad conjunta


 Se visualiza utilizando un grafo. En la construcción intervienen dos tipos de elementos: vértices y flechas
que unen y que indican las relaciones existentes entre ellos. Del nodo inicial parten tantas flechas como
sucesos mutuamente excluyentes se estén considerando. Cada flecha termina en un nodo en el cual se
coloca la probabilidad marginal que corresponde. De ahí parten tantas flechas como sucesos condicionales
se generen por la ocurrencia de un segundo suceso, y así sucesivamente.

Definiciones de probabilidad
a. Clásica:
a. Aplica solamente a experimentos aleatorios que generen espacios muestrales finitos.
b. El total de los elementos que forma el espacio muestral son todos los casos posibles que pueden
presentarse cuando se realiza un experimento aleatorio y el total de los elementos que forman un suceso
aleatorio son todos los casos favorables a dicho suceso.
c. Se llama probabilidad clásica de ocurrencia del suceso aleatorio S incluido en el espacio muestral U
asociado a un experimento aleatorio E, al cociente entre los casos favorables al suceso y los casos
posibles del experimento.
N: casos posibles del experimento. Cantidad total de elementos igualmente verosímiles de U.
K: casos favorables al suceso. Cantidad total de elementos que contiene el suceso S.
P(S) = Casos favorables / casos posibles = K/N

b. Frecuencia:
a. Se llama probabilidad frecuencial de ocurrencia del suceso aleatorio S incluido en el espacio muestral U
asociado a un experimento aleatorio E, a la frecuencia relativa estabilizada correspondiente a dicho
suceso.
n: cantidad de observaciones. Cantidad de veces que se repite el experimento aleatorio en las mismas
condiciones.
k: frecuencia absoluta. Cantidad de veces que se presento el suceso aleatorio S en las n repeticiones del
experimento.
fr(S) = k/n : frecuencia relativa del suceso S.
c. Subjetiva:
a. Se llama probabilidad subjetiva de ocurrencia del suceso aleatorio S incluido en el espacio muestral U
asociado a un experimento aleatorio E, a un valor personal que un sujeto asigna a la ocurrencia del suceso
S basado en su mejor saber y entendimiento, conforme a los axiomas y teoremas del cálculo de
probabilidad.
Aplicación de operaciones cuando el espacio muestral es finito y los resultados son posibles

a. Totales conjuntos y marginales


Se definen los totales correspondientes a dos sucesos aleatorios, A y B, incluidos en U asociado a E.

N: cantidad finita de posibles resultados de E, todos igualmente verosímiles.


(AB): cantidad de elementos del espacio U que si pertenecen al suceso A y si al B.
(AB): cantidad de elementos del espacio U que si pertenecen al suceso A y no al B.
(AB): cantidad de elementos del espacio U que no pertenecen al suceso A y si al B.
(AB): cantidad de elementos del espacio U que no pertenecen al suceso A y no al B.
N: total de casos posibles del experimento E.
(AB): total conjunto AB. Total de casos favorables al suceso conjunto AB.
(AB): total conjunto AB. Total de casos favorables al suceso conjunto AB.
(AB): total conjunto AB. Total de casos favorables al suceso conjunto AB.
(AB): total conjunto AB. Total de casos favorables al suceso conjunto AB.
(A): total marginal A. Total de casos favorables al suceso conjunto A.
(B): total marginal B. Total de casos favorables al suceso conjunto B.
(A): total marginal A. Total de casos favorables al suceso conjunto A.
(B): total marginal B. Total de casos favorables al suceso conjunto B.
Se verifica que: Tabla de Contingencia
(AB) + (AB) + (AB) + (AB) = N
(AB) + (AB) = (A)
(AB) +(AB) = (B)
(AB) + (AB) + = (A)
(AB) + (AB) + = (B)
(A) + (A) = N y (B) + (B) = N

b. Probabilidad conjunta
 Sean dos sucesos compatibles incluidos en un mismo espacio muestral finito, la probabilidad conjunta
es el cociente entre un total conjunto y el tamaño del espacio muestral.
 Para dos sucesos compatibles A y B se pueden calcular:
- probabilidad de que se presente el suceso A y el B
- probabilidad de que se presente el suceso A y no el B
- probabilidad de que no se presente el suceso A y si el B
- probabilidad de que no se presente el suceso A y no el B

c. Probabilidad marginal
 Sean dos sucesos compatibles incluidos en un mismo espacio muestral finito, la probabilidad marginal
es el cociente entre un total marginal y el tamaño del espacio muestral.
 Para dos sucesos compatibles A y B se pueden calcular:
- probabilidad de que se presente el suceso A
- probabilidad de que se presente el suceso B
- probabilidad de que no se presente el suceso A
- probabilidad de que no se presente el suceso B

d. Probabilidad condicional
 Sean dos sucesos compatibles incluidos en un mismo espacio muestral finito, la probabilidad
condicional es el cociente entre un total conjunto y el total marginal del suceso condicionante.
- Para dos sucesos compatibles A y B si el sucesos condicionado es el suceso B y el suceso condicionante
es el suceso A, la probabilidad condicional es

- Si en el numerador y denominador se divide por N, cantidad de elementos de espacio muestral U, se tiene

- Para dos sucesos compatibles A y B si el suceso condicionado es el suceso A y si el suceso condicionante


es el suceso B, la probabilidad condiciona es

- Si el suceso condicionado es el suceso B y el suceso condicionante es el suceso A, la probabilidad


condicional es

- Si el suceso condicionado es el suceso A y el suceso condicionante es el suceso B, la probabilidad


condicional es

- Si el suceso condicionado es el suceso B y el suceso condicionante es el suceso A, la probabilidad


condicional es

- Si el suceso condicionado es el suceso A y el suceso condicionante es el suceso B, la probabilidad


condicional es

- Si el suceso condicionado es el suceso B y el suceso condicionante es el suceso A, la probabilidad


condicional es

- Si el suceso condicionado es el suceso A y el suceso condicionante es el suceso B, la probabilidad


condicional es

Capitulo 5

Variable aleatoria
Se llama variable aleatoria a una función, o regla bien definida, que asigna, a cada elemento del espacio muestral,
un vector perteneciente a un espacio vectorial.
Es unidimensional cuando, a cada elemento del espacio muestral, se asigna un escalar perteneciente al conjunto de
números reales.
Se llama recorrido de una variable aleatoria unidimensional al conjunto formado por los números reales que se
pueden asignar a dicha variable.
Fórmula:

La variable aleatoria se puede concebir de dos maneras:


 Se realiza un E que tiene un resultado u ϵ U, y luego se le asigna a este resultado el valor numérico x(u)ϵR.
 Se realiza un E que tiene un resultado u ϵ U.
 Si la observación consiste en realizar mediciones cuantitativas, el resultado u, es un número real.
 Si la unidad de medida correspondiente a dicho resultado coincide con la unidad de medida de la variable aleatoria
definida, u es igual a x(u) y U es igual a R(X).
 Si la unidad de medida de la magnitud de la variable no coincide con la medición realizada son dos números reales
distintos.
Variable Aleatoria Discreta Unidimensional
Se llama así a aquella variable aleatoria cuyo recorrido es finito o infinito numerable.

a) Función de Probabilidad Puntual


Se llama función de probabilidad puntual de una variable aleatoria discreta a una función, o modelo matemático,
que asigna a cada valor del recorrido de dicha variable, un número real no negativo, llamado probabilidad puntual, de
modo tal que la suma de todos estos valores, a través del recorrido de la variable, debe ser igual a la unidad.

Debe cumplir con dos condiciones:


1. Condición de no negatividad: el número real asignado por la función de probabilidad puntual, al i-ésimo valor de la
variable discreta, debe ser no negativo.
2. Condición de cierre: la suma de todos los números reales asignados por la función de probabilidad puntual, a cada
valor de la variable discreta, debe ser igual a uno.

A cada número p(xi) se lo denomina probabilidad puntual porque es la probabilidad de que la variable X asuma
puntualmente el valor xi. p(xi) = P(X=xi)

El conjunto de pares ordenados, [xi;p(xi)], para todo i, forma una distribución de probabilidad puntual.

Se grafica utilizando las coordenadas cartesianas ortogonales, donde los valores de la variable se ubican en el eje de
abscisas y los valores de la probabilidad puntual, en el eje de las ordenadas. El punto, [xi;p(xi)] se une al valor x
mediante un bastón.

b) Función de Distribución
Se llama función de distribución de una variable aleatoria discreta, a una función que asigna a cada valor del
recorrido, un número real que representa la suma de todas las probabilidades puntuales, desde el primero hasta el
valor en cuestión.

Cada número F(xk) se denomina probabilidad acumulada hasta el valor xk y representa la probabilidad de que la
variable tome un valor menor o igual a xk. F(xk)=P(X≤xk)

El conjunto de pares ordenados [xi;F(xi)], para todo i, se llama función de distribución de probabilidad. Es la
distribución acumulada hasta un valor de la variable.

Se grafica utilizando las coordenadas cartesianas ortogonales, donde los valores de la variable se ubican en el eje de
abscisas y los valores de la probabilidad acumulada, en el eje de las ordenadas. El punto, [xi;F(xi)] se une con el punto
[x(i+1) ; F(x(i+1))] mediante un segmento horizontal → Gráfico escalonado.

c) Función de Distribución Complementaria


Se llama función de distribución complementaria de una variable aleatoria discreta, a una función que asigna a
cada valor del recorrido, un número real que representa la suma de todas las probabilidades puntuales, desde el valor
en cuestión hasta el último.

Cada número G(xk) se denomina probabilidad acumulada desde el valor xk, y representa la probabilidad de que la
variable tome un valor mayor o igual al número xk. G(xk)=P(X≥xk)

El conjunto de pares ordenados [xi;G(xi)], para todo i, se llama función de distribución complementaria de
probabilidad. Es la distribución acumulada desde un valor de la variable.

d) Relación entre las funciones de distribución


La suma del valor de la Función de Distribución correspondiente a un valor de la variable y el valor de la Función
de Distribución Complementaria correspondiente al siguiente valor de la variable siempre es igual a uno.
e) Percentiles de Variables Aleatorias Discretas
Se llama percentil de orden k (0  k  100 ^ kϵR) de una variable aleatoria discreta a un valor xk tal que, hasta el valor
de variable inmediato anterior, se acumule, a lo sumo, una probabilidad igual a k/100 y, desde el valor de variable
inmediato posterior se acumule, a lo sumo, una probabilidad igual a (1-k/100).
Fórmula:

Variable Aleatoria Continua Unidimensional


Una variable con recorrido infinito no numerable es una Variable Aleatoria Continua en un determinado intervalo de
números reales, si existe una función real que en dicho intervalo, cumpla con las siguientes condiciones:
a) sea no negativa b) cubra una superficie igual a uno
Fórmula:

a) Función de Densidad de Probabilidad


Se llama Función de Densidad de Probabilidad de una variable aleatoria continua a la función real que cumpla con
la condición de no negatividad y con la condición de cierre.

Una Función de Densidad de Probabilidad está definida únicamente en el recorrido de la variable aleatoria, intervalo
[a;b], fuera de ese intervalo la función es nula.

g(x) 0 en a  X  b ∫ (a; b) g(x) dx=1


Entonces la función de densidad de probabilidad f(x) se define f(x) = g(x) en a  X  b y f(x)=0 en otro caso.

Con la Función de Densidad de Probabilidad es posible calcular la probabilidad de ocurrencia de los valores de una
variable aleatoria continua, teniendo en cuenta:

1. Dados dos valores de la variable continua X, x1 < x2 que pertenezcan al intervalo [a;b] la probabilidad de encontrar un
valor entre ellos está dada por la superficie que encierra la función entre dichos puntos. P(x 1 < X < x2 ) = ∫ (x1; x2) f(x)
dx

2. La probabilidad de que la variable X tome un valor individual x3 es nula. En un punto no hay superficie. P(X = x3) = ∫
(x3; x3) f(x) dx=0

b) Función de Distribución
Sea X una variable aleatoria continua con función de densidad de probabilidad f(x) definida en el intervalo de números
reales [a;b]. Se llama Función de Distribución, F(x) a un modelo matemático o función no decreciente, que asigna a
cada valor de la variable aleatoria un valor de probabilidad acumulada desde el límite inferior del recorrido, hasta ese
valor.
Fórmula:

Conociendo la función de distribución no es necesario integral, cuando quiero calcular la probabilidad de encontrar un
valor de la variable aleatoria continua dentro de un intervalo, se calcula la diferencia entre el valor de la función de
distribución correspondiente al límite superior y el valor de la función de distribución correspondiente al límite inferior.

X: variable continua definida en [a;b]  R


F(X=x): la función de distribución de la variable continua X
Dos valores de la variable X, x1 < x2 que pertenezcan al intervalo [a;b]

La probabilidad de encontrar un valor menor o igual a x1 es P(Xx1) = F(X=x1)


La probabilidad de encontrar un valor entre x1 y x2 es P(x1 X x2) = F(X=x2) - F(X=x1)
La probabilidad de encontrar un valor mayor o igual a x2 es P(Xx2) = F(X=b) - F(X=x2) = 1- F(X=x2)
c) Función de Distribución Complementaria
Sea X una variable aleatoria continua con función de densidad de probabilidad f(x) definida en el intervalo de números
reales [a;b]. Se llama Función de Distribución Complementaria, G(x) a un modelo matemático o función no
creciente, que asigna a cada valor de la variable aleatoria un valor de probabilidad acumulada desde un valor de la
variable hasta el límite superior del recorrido.

X: variable continua definida en [a;b]  R


f(x): la función de densidad de probabilidad de la variable x
Entonces la función de distribución complementaria es P(Xx) = G(X=x) = ∫ (x;b) f(x) dx

X: variable continua definida en [a;b]  R


G(X=x): la función de distribución complementaria de la variable continua X
Dos valores de la variable X, x1 < x2 que pertenezcan al intervalo [a;b]

La probabilidad de encontrar un valor mayor o igual a x1 es P(Xx1) = G(X=x1)


La probabilidad de encontrar un valor entre x1 y x2 es P(x1 X x2) = G(X=x1) - F(X=x2)
La probabilidad de encontrar un valor menor o igual a x2 es P(Xx2)=G(X=a) - G(X=x2) = 1- G(X=x2)

d) Relación entre las funciones de distribución


La suma del valor de la Función de Distribución correspondiente a un valor de la variable y el valor de la Función
de Distribución Complementaria correspondiente a dicho valor de la variable, siempre es igual a uno. F(x) + G(x) =
1 → P(Xx) + P(Xx) = 1

e) Percentiles de Variables Aleatorias Continuas


Se llama percentil de orden k (0  k  100 ^ kϵR) de una variable aleatoria continua al valor de la variable xk donde
se acumule, una probabilidad igual a k/100.

X: variable aleatoria continua f(x): función de densidad de probabilidad


F(x): función de distribución xk : percentil de orden k
Si F(xp) = k/100 entonces xk = xp

Momentos teóricos: MTx = E[g(x)]


Se llama momento de una variable aleatoria al valor esperado o esperanza matemática de una función de la
variable.

 Se llama momento o esperanza matemática de una función generada con una variable aleatoria discreta, a la
suma del producto de cada valor numérico de la función por el correspondiente valor de probabilidad puntual, a través
del recorrido de la variable.
X: una variable aleatoria discreta p(x): función de probabilidad
g(x): función real generada por la variable aleatoria discreta
E[g(x)]: esperanza matemática de la función g(x)
Entonces E[g(x)] =  g(xi) x p(xi)

 Se llama esperanza matemática de una función generada con una variable aleatoria continua, a la integral a través
del recorrido de la variable, del producto de la función dada por la función de densidad de probabilidad de la variable.
X: variable continua definida en [a;b]  R f(x): función de densidad de probabilidad
g(x): función real generada por la variable aleatoria continua x
E[g(x)]: esperanza matemática de la función g(x)
Entonces E[g(x)] = ∫ (a;b) g(x) x f(x) dx
Momentos Particulares
1. Momentos Absolutos
Se llama momento absoluto de orden k a la esperanza matemática de la potencia k-ésima de la variable aleatoria.

X: variable aleatoria k: orden del momento μk= E(Xk)


Momento absoluto de orden 1 es el promedio o media aritmética esperada de la variable X.
μ1= E(X1) → μx= E(X)

- Cálculo de los momentos absolutos de las variables discretas


X: variable aleatoria discreta p(x): función de probabilidad k: orden del momento.
KϵN μk = E(x) =  Xi x p(xi)

- Cálculo de los momentos absolutos de las variables continua


X: variable continua definida en [a;b]  R f(x): función de densidad de probabilidad
k: orden del momento. KϵN μk = E(x) = ∫ (a;b) X x f(x) dx

2. Momentos Centrados
Se llama momento centrado teórico de orden k a la esperanza matemática de la potencia k-ésima de la desviación
e la variable aleatoria con respecto a la media aritmética esperada.

X: variable aleatoria k: orden del momento μx= media aritmética esperada de la variable X
μCk : momento centrado de orden k → μCk = E(X- μx)k

Momento centrado de orden 2 es la varianza esperada de la variable X. → μC2= E(X-μx)2

- Cálculo de los momentos centrados de las variables discretas


X: variable aleatoria discreta p(x): función de probabilidad μx: valor esperado
k: orden del momento. KϵN μCk = E(x - μx)k =  (Xi - μx)k x p(x)
Varianza discreta: σ2x = E(x - μx)2 =  (Xi - μx)2 x p(x)

- Cálculo de los momentos centrados de las variables continua


X: variable continua definida en [a;b]  R f(x): función de densidad de probabilidad
μx: valor esperado k: orden del momento. KϵN μCk = E(x - μx)k = ∫ (a;b) (X-μx)k x f(x) dx
Varianza continua: σ x = E(x - μx) = ∫ (a;b) (X-μx) x f(x) dx
2 2 2

3. Función generatriz de momentos


Sea X una variable aleatoria y t una variable real, no aleatoria, se llama Función Generatriz de Momentos de la
variable X, a la esperanza matemática de la potencia X.t del número e.
Fórmulas de trabajo
a) Fórmula para varianza discreta b)Fórmula para varianza continua
σ2x =  Xi 2 x p(xi) - μx2 σ2x = ∫ (a;b) X2 x f(x) dx - μx2

Desvío Estándar
Se llama Desvío Estándar de una variable aleatoria a la raíz cuadrada positiva de la varianza esperada. σx =
√V(X)

- Desvío estándar de una variable aleatoria discreta


σx = √  (Xi - μx)2 x p(x)

- Desvío estándar de una variable aleatoria continua


σx = √ ∫ (a;b) (X-μx)2 x f(x) dx

Coeficiente de Variación
Se llama Coeficiente de Variación de una variable aleatoria discreta, al cociente entre el desvío estándar y el
promedio esperado. ςVx = σx / μx
Mediana
- Mediana de una variable aleatoria discreta
Se llama mediana de una variable aleatoria discreta a un valor tal que, hasta el valor de variable inmediato anterior,
se acumule, a lo sumo, una probabilidad de 0.50 y desde el valor de variable inmediato posterior se acumule, a lo
sumo, una probabilidad de 0.50
F(x(m-1)) < 0.5 y G(x(m+1)) < 0.5 Me(x) = [xm + x(m+1)] / 2

- Mediana de una variable aleatoria continua


Se llama mediana de una variable aleatoria continua al valor de la variable hasta donde se acumula una probabilidad
exactamente igual a 0.50
P(Xxm)= F(x= xm) = ∫ (a;xm) f(x) dx =0.50 Me(x) = xm

Modo
- Modo de una variable aleatoria discreta
Se llama modo, moda o valor modal de una variable aleatoria discreta a valor de la variable más probable, o de
máxima probabilidad, dentro de un entorno de dicho valor.
Mayor p(x) → Mo(X)=Xo

- Modo de una variable aleatoria continua


Se llama modo, moda o valor modal de una variable aleatoria continua a valor de la variable con el que la
función de densidad de probabilidad alcanza un máximo relativo.

Coeficiente de Asimetría: As=μC3 / σ3


 Una distribución de probabilidad de una variable discreta es simétrica, si las probabilidades puntuales
correspondientes a valores de la variable que equidistan de la Media Aritmética Esperada son iguales.
 Una distribución de probabilidad de una variable continua es simétrica, si las imágenes de la función de densidad de
probabilidad correspondientes a valores de la variable que equidisten de la Media Aritmética Esperada, son iguales.
- As=0 → Simetría - As>0 → Asimetría a la derecha - As<0 → Asimetría a la izquierda

Coeficiente de Curtosis: K= [μC4 / σ4 ] – 3


- K=0 → Mesocúrtica K>0 → Leptocúrtica K<0 → Platicúrtica

Propiedades del promedio y de la varianza


1. El promedio esperado de una constante, es la constante misma y la varianza esperada de una constante es nula.

2. El promedio esperado de la suma de una constante más una variable, es igual a la constante más el promedio esperado
de la variable y la varianza de la suma de una constante más una variable es igual a la varianza más la variable.

3. La esperanza matemática o promedio del producto de una constante por una variable, es igual al producto entre la
constante y la esperanza matemática o promedio de la variable, y la varianza del producto de una constante por una
variable es igual al producto entre el cuadrado de la constante y la varianza de la variable.

4. Transformación afin: Y=a+bx → E(Y)=a+bE(X) y V(Y)=b2V(X)

Teorema de Tchebycheff
Sean X una variable aleatoria, discreta o continua, con Esperanza Matemática finita y Varianza finita, y sea k un
número real positivo mayor a uno. Cualquiera sea la distribución de probabilidad de la variable aleatoria X, siempre se
cumple que:
La probabilidad de que, el módulo de la desviación entre un valor de la variable y el promedio esperado, sea mayor o
igual a k veces el desvío estándar (k>1), es a lo sumo 1/k2
Fórmula:

Variable Estandarizada
Se llama variable estandarizada de una variable aleatoria, discreta o continua, a la variable que se genera
haciendo el cociente entre, la diferencia entre la variable original y su esperanza matemática y la raíz cuadrada
positiva de la varianza.
Fórmula:

Toda variable aleatoria estandarizada tiene Esperanza Matemática o Promedio Aritmético Esperado igual a cero y
Varianza Esperada igual a uno.
Fórmula:

Variables Aleatorias Multidimensionales


Una variable aleatoria es multidimensional cuando, a cada elemento del espacio muestral, se asigna un vector
perteneciente a un espacio vectorial Rn (n≥2).

Variables Aleatorias Bidimensionales


Una variable aleatoria es bidimensional si a cada elemento del espacio muestral, le corresponde un vector de dos
dimensiones.
a. Una variable aleatoria bidimensional es discreta, si el recorrido de cada una de las variables es finito o infinito
numerable.
b. Una variable aleatoria bidimensional es continua, si el recorrido de cada una de las variables es infinito no
numerable.
c. Una variable aleatoria bidimensional es mixta, si el recorrido de una de las variables e infinito no numerable, y el
recorrido de la otra es finito o infinito numerable.

Funciones Conjuntas
a. Función de Probabilidad Puntual Conjunta:
Se llama Función de Probabilidad Puntual Conjunta de dos variables aleatorias discretas X1 y X2 a un modelo
matemático o función p(X1; X2), que asigna a cada par de valores (X1h; X2k) del recorrido de ambas variables, un
número real p(X1h; X2k), llamado Probabilidad Conjunta Puntual, de modo tal que se satisfaga las condiciones
siguientes:
1. Condición de no negatividad.
2. Condición de cierre: la suma de estas probabilidades, a través del recorrido de las dos variables, debe ser igual a la
unidad.

b. Función de Densidad de Probabilidad Conjunta:


Se llama Función de Densidad de Probabilidad Conjunta de dos variables aleatorias continuas X1 y X2 definidas
en un plano euclidiano R=R(X1) x R(X2), a un modelo matemático o función f(X1 ; X2 ) que satisfacen las siguientes
condiciones:
1. Condición de no negatividad.
2. Condición de cierre: la suma de estas probabilidades, a través del recorrido de las dos variables, debe ser igual a la
unidad.

Funciones Marginales
a. Función de Probabilidad Marginal:
Se llama Función de Probabilidad Marginal, de una variable aleatoria discreta X1 cuando se presenta
conjuntamente con otra variable aleatoria discreta X2 a la función de probabilidad puntual, p(X1), que le asigna a
cada valor de la variable aleatoria X1, los valores de probabilidad, sin tener en cuenta la variación de la variable X 2.
(Idem con X invertidos).
1. Condición de no negatividad.
2. Condición de cierre: la suma de estas probabilidades, a través del recorrido de las dos variables, debe ser igual a la
unidad.
Fórmula:

b. Función de Densidad de Probabilidad Marginal:


Se llama Función de Densidad de Probabilidad Marginal de una variable aleatoria continua X1 cuando se
presenta conjuntamente con otra variable aleatoria continua X2 a la función de densidad de probabilidad f(X1) que se
obtiene integrando la función de densidad de probabilidad conjunta a través del recorrido de la variable X2 (Idem con
X invertidos).
1. Condición de no negatividad.
2. Condición de cierre: la suma de estas probabilidades, a través del recorrido de las dos variables, debe ser igual a la
unidad.
Fórmula:

Funciones Condicionales
a. Función de Probabilidad Condicional:
Se llama Función de Probabilidad Condicional de una variable aleatoria discreta, cuando se presenta
conjuntamente con otra variable aleatoria discreta, al cociente entre la función de probabilidad conjunta y la función
de probabilidad marginal de la variable condicionante.
Fórmula:

b. Función de Densidad de Probabilidad Condicional:


Se llama Función de Densidad de Probabilidad Condicional de una variable aleatoria continua, cuando se
presenta conjuntamente con otra variable aleatoria continua, al cociente entre la función de densidad de probabilidad
conjunta y la función de densidad de probabilidad marginal de la variable condicionante.
Fórmula:

Variables Estandarizadas Independientes


Dos variables aleatorias son independientes en sentido estadístico, cuando los valores que puedan asumir una de
ellas no modifican la función de probabilidad, o la función de densidad de probabilidad de la otra.

1. Si dos variables discretas son estadísticamente independientes, se cumple que la función de probabilidad condicional
es igual a la función de probabilidad marginal

Por lo tanto la función de probabilidad conjunta es igual al producto de las funciones de probabilidad marginal

2. Si dos variables continuas sin estadísticamente independientes, se cumple que la función de densidad de
probabilidad condicional es igual a la función de densidad de probabilidad marginal

Por lo tanto la función de probabilidad conjunta es igual al producto de las dos funciones de densidad de
probabilidad marginal

Momento conjunto
Se llama momento conjunto de una variable aleatoria bidimensional a la esperanza matemática de una función
bivariada generada con las variables aleatorias.

- Se llama momento conjunto de una variable aleatoria bidimensional discreta a la suma del producto de cada
valor numérico de una función bivariada por el correspondiente valor de probabilidad puntual conjunta, a través del
recorrido de las variables.
Fórmula:

- Se llama momento conjunto de una variable aleatoria bidimensional continua, a la integral del producto de la
función bivariada por la función de densidad de probabilidad conjunta, a través del recorrido de las variables.
Fórmula:

Suma de Variables
- Esperanza Matemática de la suma de dos variables aleatorias discretas:

- Esperanza Matemática de la suma de dos variables aleatorias continuas:

- Proposición: la esperanza matemática de la suma de dos variables aleatorias, es igual a la suma de los
promedios esperados de dichas variables.

Diferencia de Variables
- Esperanza Matemática de la diferencia de dos variables aleatorias discretas:

- Esperanza Matemática de la diferencia de dos variables aleatorias continuas:

- Proposición: la esperanza matemática de la diferencia de dos variables aleatorias, es igual a la diferencia de los
promedios esperados de dichas variables.

Producto de Variables
- Esperanza Matemática del producto de dos variables aleatorias discretas:

- Esperanza Matemática del producto de dos variables aleatorias continuas:

Covarianza
Se llama covarianza entre dos variables aleatorias que forman una variable aleatoria bidimensional, a la esperanza
matemática del producto de las desviaciones de cada una de las variables con respecto a la correspondiente media
aritmética esperada.

 Si una variable crece y la otra variable también crece, o si una variable decrece y la otra también decrece, entonces las
variaciones son en el mismo sentido. Las desviaciones con respecto a la media aritmética esperada tienen el mismo
signo. Covarianza = +

 Si una variable crece y la otra variable decrece, o si una variable decrece y la otra crece, entonces las variaciones son
en distinto sentido. Las desviaciones con respecto a la media aritmética esperada tiene distinto signo. Covarianza = -

 La variación de una de ellas no induce a variaciones en la otra. Las variaciones son estadísticamente independientes.
Covarianza = 0

- Cálculo de la covarianza entre dos variables discretas:

- Cálculo de la covarianza entre dos variables continuas:


- Proposición: la esperanza matemática del producto de dos variables aleatorias, es igual al producto de los
promedios esperados más la covarianza entre dichas variables.
Fórmula:

- Proposición: si las variables aleatorias son estadísticamente independientes, la covarianza es igual a cero, entonces
la esperanza matemática del producto de dos variables aleatorias es igual al producto de los promedios
esperados de cada una de ellas.
Fórmula:

Varianza
La varianza de la suma de dos variables aleatorias, es igual a la suma de las varianzas de dichas variables más el
duplo de la covarianza entre ellas.
Fórmula:

- Proposición: si las variables aleatorias son estadísticamente independientes, la covarianza es igual a cero, entonces
la varianza de la suma de dos variables aleatorias es igual a la suma de las varianzas de cada una de ellas.
Fórmula:

La varianza de la diferencia de dos variables aleatorias, es igual a la suma de las varianzas de dichas variables
menos el duplo de la covarianza entre ellas.
Fórmula:

- Proposición: si las variables aleatorias son estadísticamente independientes, la covarianza es igual a cero, entonces
la varianza de la diferencia de dos variables aleatorias es igual a la suma de las varianzas de cada una de ellas.

You might also like