You are on page 1of 22

La teoría de la decisión se enfoca como una técnica cuantitativa que sirve de apoyo a la toma de

decisiones. Para desarrollar las técnicas matemáticas propias de la Teoría de la Decisión se deben
conocer un conjunto de conceptos básicos que recogen la terminología generalmente aceptada
por los autores que tratan esta técnica.

Teoría de la decisión
La teoría de la decisión es un área interdisciplinaria de estudio, relacionada con diversas
ramas de la ciencia, como la Administración, la Economía y la Psicología (basados en
perspectivas cognitivo-conductuales). Concierne a la forma y al estudio del
comportamiento y fenómenos psíquicos de aquellos que toman las decisiones (reales o
ficticios), así como las condiciones por las que deben ser tomadas las decisiones.

Freemont E. Kast: la toma de decisiones es fundamental para el organismo la conducta de la


organización. La toma de decisión suministra los medios para el control y permite la coherencia en
los sistemas. (KAST, 1979).

Moody, es una acción que debe tomarse cuando ya no hay más tiempo para recoger
información.

Leon Blan Buris define que una decisión es una elección que se hace entre varias
alterativas.

Le Moigne define el termino decidir como identificar y resolver los problemas que se le
presenta a toda organización. Por tanto, el desencadenante del proceso de toma de
decisiones es la existencia de un problema, pero ¿cuando existe un problema? Para Huber
existirá un problema cuando hay diferencia entre la situación real y la situación deseada. La
solución del problema puede consistir en modificar una u otra situación, por ello se puede
definir como el proceso consciente de reducir la diferencia entre ambas situaciones.

Greenwood afirma que la toma de decisiones para la administración equivale esencialmente


a la resolución de problemas empresariales. Los diagnósticos de problemas, las búsquedas y
las evaluaciones de alternativas y la elección final de una decisión, constituyen las etapas
básicas en el proceso de toma de decisiones y resolución de problemas.

Técnicas y Herramientas

Vamos a proponer una división entre las técnicas que nos permiten modelar el proceso y las
herramientas que se incluyen dentro de ella.

En lo referente a las técnicas tendremos en cuenta el modelo desarrollado por Simón para la
descripción del proceso de toma de decisiones, y el cual es la base de todos los modelos
realizados al respecto. El mismo consta de tres fases principales:
1. Investigación (inteligencia) exploración del ambiente sobre las condiciones que requieren
las decisiones. Los datos de entrada se obtiene, se procesan y se examina en busca de
indicios que pueden identificar problemas u oportunidades.
2. Diseño. Invención, desarrollo y análisis de los posibles cursos de acción. Esto involucra los
procesos para entender el problema, para generar las soluciones y para probar las
soluciones según su factibilidad
3. Elección. Selección de una alternativa o curso de acción entre aquella que están
disponibles. Se hace una selección y se implementa.

En referencia a las herramientas vamos a conceptuar, en primera instancia algunas de las


teorías más importantes que tienen directa ingerencia en la toma de decisiones, nos
referimos a: teoría de juegos, teoría de la utilidad cardinal y teoría de las restricciones.

En los últimos veinte años, la teoría de juegos (o teoría de las decisiones interactivas) se ha
convertido en el modelo dominante en la teoría económica y ha contribuido
significativamente a la ciencia política, la biología y a estudios de seguridad nacional. El
papel central de la teoría de juegos en teoría económica fue reconocido con el premio nobel
de economía otorgado a John C. Harsanyl, John Nash y Reinhard Selten en 1994, esta
teoría analiza el comportamiento estratégico cuando dos o más individuos interactúan y
cada decisión individual resulta de lo que él (o ella) espera que los otros hagan. Es decir
que debemos esperar que suceda a partir de las interacciones entre los individuos.

En la década de los 40´ Von Newmann y Morgenstem sostuvieron que la gente no siempre
toma decisiones buscando maximizar el valor monetario esperado sino que busca
maximizar la utilidad esperada, así nace la teoría de la utilidad cardinal o utilidad en riesgo.
Con base en supuestos lógicos acerca de la manera como la gente elige entre opciones,
ambos autores desarrollaron un procedimiento para cuantificar o medir la utilidad que los
bienes o el dinero tienen para una persona.

En la década del setenta el Doctor en Física Eliyahu Goldratt desarrolló lo que se ha dado a
conocer como la teoría de las restricciones (thoery of constraints o, simplemente, TOC) que
se basa en la idea de que el objetivo (o meta) de toda empresa (o sistema) es generar dinero
de forma sostenida, aumentando el throughput (ingreso a través de las ventas) al mismo
tiempo en que se reducen los inventarios y los gastos operativos.

La clave de esta filosofía pasa por demostrar que toda compañía es una gran cadena de
recursos interdependientes (maquinarias, personal, instalaciones y demás), pero que solo
unos pocos de esos recursos, llamados “cuellos de botella” o “restricciones”, son los que
condicionan la salida de toda la producción. Las restricciones, entonces, no se refieren a
recursos escasos, sino a criterios y decisiones erróneas que impiden a la firma alcanzar su
objetivo.

Etapas de la toma de decisiones

Este proceso se puede aplicar tanto a sus decisiones personales como a una acción de una
empresa, a su vez también se puede aplicar tanto a decisiones individuales como grupales.
Etapa 1. La identificación de un problema

El proceso de toma de decisiones comienza con un problema, es decir, la discrepancia entre


un estado actual de cosas y un estado que se desea. Ahora bien, antes que se pueda
caracterizar alguna cosa como un problema, los administradores tienen que ser conscientes
de las discrepancias, estar bajo presión para que se tomen acciones y tener los recursos
necesarios. Los administradores pueden percibir que tiene una discrepancia por
comparación entre el estado actual de cosas y alguna norma, norma que puede ser el
desempeño pasado, metas fijadas con anterioridad o el desempeño de alguna otra unidad
dentro de la organización o en otras organizaciones. Además, debe existir algún tipo de
presión en esta discrepancia ya que si no el problema se puede posponer hasta algún tiempo
en futuro. Así, para el proceso de decisión, el problema debe ejercer algún tipo de presión
sobre el administrador para que este actué. Esta presión puede incluir políticas de la
organización, fechas límites, crisis financieras, una próxima evaluación del desempeño, etc.

Etapa 2. La identificación de los criterios para la toma de decisiones.

Una vez que se conoce la existencia del problema, se deben identificar los criterios de
decisión que serán relevantes para la resolución del problema. Cada persona que toma
decisiones suele tener unos criterios que los guían en su decisión. Este paso nos indica que
son tan importantes los criterios que se identifican como los que no; ya que un criterio que
no se identifica se considerara irrelevante por el tomador de decisiones.

Etapa 3. La asignación de ponderaciones a los criterios.

Los criterios seleccionados en la fase anterior no tiene todos la misma importancia, por
tanto, es necesario ponderar las variables que se incluyen en las lista en el paso anterior, a
fin de darles la prioridad correcta en la decisión. Este paso lo puede llevar a cabo dándole el
mayor valor al criterio preferente y luego comparar los demás para valorarlos en relación al
preferente.

Etapa 4. El desarrollo de alternativas.

Este paso consiste en la obtención de todas las alternativas viables que puedan tener
éxito para la resolución del problema

Etapa 5. Análisis de las alternativas.

Una vez que se han desarrollado las alternativas el tomador de decisiones debe analizarlas
cuidadosamente. Las fortalezas y debilidades se vuelven evidencias.

Según se les compare con los criterios establecidos en la etapa 2 y 3. Se evalúa cada
alternativa comparándola con los criterios. Algunas valoraciones pueden lograrse en una
forma relativamente objetiva, pero, sin embargo, suele existir algo de subjetividad, por lo
que la mayoría de las decisiones suelen contener juicios.
Etapa 6. Selección de una alternativa.

Consiste en seleccionar la mejor alternativa de todas las valoradas.

Etapa 7. La implantación de la alternativa.

Mientras que el proceso de selección queda completado con el paso anterior, sin embargo,
la decisión puede fallar si no se lleva a cabo correctamente. Este paso intenta que la
decisión se lleve a cabo, e incluye dar a conocer la decisión a las personas afectadas y
lograr que se comprometan con la misma. Si las personas que tienen que ejecutar una
decisión participan en el proceso, es más fácil que apoyen con entusiasmo la misma. Estas
decisiones se llevan a cabo por medio de una planificación, organización y dirección
efectivas.

Etapa 8. La evaluación de la efectividad de la decisión.

Este paso juzga el proceso del resultado de la toma de decisiones para verse que se ha
corregido el problema. Si como resultado de esta evaluación se encuentra que todavía existe
el problema tendrá que hacer el estudio de lo que se hizo mal. Las respuestas a estas
preguntas nos pueden llevar de regreso a uno de los primeros pasos e inclusive al primer
paso.

Tipos de Decisiones

Todas las decisiones no son iguales, ni producen las mismas consecuencias, ni tampoco su
adopción es de idéntica relevancia, por ello existen distintos tipos de decisiones, para su
clasificación destacaremos las más representativas. (Claver, 2000).

1. Tipología por niveles

Está conectada con el concepto de estructura organizativa y la idea de jerarquía que


se deriva de la misma, las decisiones se clasifican en función de la posición jerárquica o
nivel administrativo ocupado por el decisor. Desde este planteamiento distinguiremos.

a. Decisiones estratégicas (o de planificación), son decisiones adoptadas por decisores


situados en el ápice de la pirámide jerárquica o altos directivos. Estas se refieren a las
relaciones entre la organización o empresa y su entorno. Son decisiones de una gran
transcendencia puesto que definen los fines y objetivos generales que afectan a la
totalidad de la organización; son decisiones singulares a largo plazo y no repetitivas, por lo
que la información es escasa y sus efectos son difícilmente reversibles; los errores pueden
comprometer el desarrollo de la empresa y en determinados casos su supervivencia, por
lo que requieren un alto grado de reflexión y juicio.
b. Decisiones tácticas o de pilotaje; son decisiones tomadas por directivos intermedios. Estas
decisiones pueden ser repetitivas y el grado de repetición es suficiente para confiar en
precedentes, los errores no implican sanciones muy fuertes a no ser que se vayan
acumulando.
c. Decisiones operativas, adoptadas por ejecutivos que se sitúan en el nivel más inferior.
Son las relacionadas con las actividades corrientes de la empresa. El grado de repetividad
es elevado: se traducen a menudo en rutinas y procedimientos automáticos, por lo que la
información es disponible. Los errores se pueden corregir rápidamente ya que el plazo al
que afecta es a corto y las sanciones son mínimas.

2. Tipología por métodos

Esta clasificación se debe a Simón (1977) quien realiza una clasificación basándose en la
similitud de los métodos empleados para la toma de decisiones, independientemente de los
niveles de decisión. Así distingue una serie continua de decisiones en cuyos extremos están
las decisiones programadas y no programadas.

 Se entiende por decisiones programadas aquellas que son repetitivas y rutinarias, cuando
se ha definido un procedimiento o se ha establecido un criterio (o regla de decisión) que
facilita hacerles frente, permitiendo el no ser tratadas de nuevo cada vez que se debe
tomar una decisión. En este tipo de decisiones no es el mayor o menor dificultad en
decidir sino que se encuentra en la repetitividad y la posibilidad de predecir y analizar sus
elementos componentes por muy complejos que resulten estos.
 Las decisiones no programadas son aquellas que resultan nuevas para la empresa, no
estructuradas e importantes en sí mismas. No existe ningún método establecido para
manejar el problema porque este no haya surgido antes o porque su naturaleza o
estructura son complejas, o porque es tan importante que
merece un tratamiento hecho a la medida. También se utiliza para problemas que
puedan ocurrir periódicamente pero quizá requiera de enfoques modificados debido a
cambios en las condiciones internas o externas. Koontz y Weihrich, ponen de manifiesto la
relación entre el nivel administrativo donde se toman las decisiones, la clase de problema
al que se enfrentan y el tipo de decisión que es necesario adoptar para hacerle frente. Los
directivos de alto nivel se enfrentan a decisiones no programadas, puesto que son
problemas sin estructurar y a medida que se desciende en la jerarquía organizacional, mas
estructurados o comprensibles resultan los problemas y por tanto, mas programadas
resultaran las decisiones. (Koontz)

 TOMA DE DECISIONES
El enfoque de sistemas es un pro ceso de tom a de deci siones que se usa para
diseñar sistemas. Es por tanto fundamental detenernos en est e proceso antes de emb
arcarnos en la tarea de diseñar sistemas.
 La toma de decisiones es un término reser vado, en ocasiones, para la acción de eleg
ir entre varias alternativas. Lo cual es una interpretación del concepto muy limitada.
La toma de decisiones es un proceso de pensamiento que ocupa toda la actividad
que tiene por fin solucionar problemas.
 Todo aspecto que refleja el esfuerzo humano involucra actividades con un
propósito en las que deben resolverse los probl emas y tomarse decisiones. La toma
de decis iones puede verse como un procedimient o interactivo, un ciclo que incluye
varios círculos sucesivos.
 La toma de decisiones es necesaria cuando tenemos un problema que resolver, o
necesidades que satisfacer. El paso para defi nir el problema, puede verse como un
subproblema del problema princi pal; es decir, es "un circulo dentro de otro circulo"
en el ciclo de la toma de decisiones. El autor de la decisión generalmente posee
cierto fundamento de conocimiento y experiencia, de lo cual deduce información
para delinear un conjunto de alternativas. Las alternativas son estrategias diferentes
por las cuales pueden lograrse los objetivos. Cada alternativa conduce a uno o
varios resultados predichos. Antes de que el autor de la decisión pueda hacer una
elección entre las alternativas y sus correspondientes resultados, debe evaluarse
cada una en términos del grado con el cual satisfacen el o los objetivos. Con el
propós ito de elegir, se fija un valor a cada resultado con base en un criterio
consistente, la formulación de lo cual generalmente está incluido en el modelo de
decisión. Los modelos de cuantificación y medición surgen debido a la no
proporcional idad de los atributos de las diferentes alternat ivas, El proceso de
elección consiste en elegir la mejor alternativa entre las disponibles. Si se implanta
la alternativa, se originan salidas y resultados que deben satisfacer las necesidad es
originales. Entonces un nuevo círculo de evaluación tiene lugar, para evaluar el
grado en el cual la alternativa elegida satisface los objetivos. La comparación entre
los resultados predichos y los logrados, puede conducir a una modificación del
problema orig inal y a una nueva repet ición del ciclo.

DE NECESIDADES A OBJETIVOS
 Como acabamos de señalar, el ciclo de toma de decisiones generalmente se activa
por la urgencia de satisfacer necesidades. Nuestras necesidades pueden variar en
una jerarquía donde la necesidad fisiológica se encuentra en último término y las
necesidades de auto-realización en el primero.
 No podemos esperar satisfacer todas nuestras necesidades. Por tanto, se hace una
elección para elegir un subconjunto de ellas, que definimos como deseos.
 Además, es necesaria otra subrutina para establecer el nivel de aspiración, el cual
representa el nivel esperado de logro o expectativa en la satisfacción de
necesidades.
 No está a nuestro alcance repetir las teorías que tratan los niveles de aspiracion que
se han formulado en los últimos anos. Es suficiente decir que el nivel de aspiración
de un individuo depende, en gran parte, del éxito que haya ten ido en sus intentos
anteriores para satisfacer sus objetivos. 'Enfrentado a objetivos conflictivos, el autor
de decisiones recurrirá a sustituciones y cambios. La jerarquía de necesidad es
constituye una lista de prioridades.

Experimento
Un experimento es un procedimiento mediante el cual se trata de comprobar (confirmar o
verificar) una o varias hipótesis relacionadas con un determinado fenómeno, mediante la
manipulación y el estudio de las correlaciones de las variables que presumiblemente son su
causa.1

La experimentación constituye uno de los elementos claves de la investigación científica y


es fundamental para ofrecer explicaciones causales.

En un experimento se consideran todas las variables relevantes que intervienen en el


fenómeno, mediante la manipulación de las que presumiblemente son su causa, el control
de las variables extrañas y la aleatorización (o randomización) de las restantes. Estos
procedimientos pueden variar mucho según las disciplinas (no es igual en física que en
psicología, por ejemplo), pero persiguen el mismo objetivo: excluir explicaciones
alternativas (diferentes a la variable manipulada) en la explicación de los resultados. Este
aspecto se conoce como validez interna del experimento, la cual aumenta cuando el
experimento es replicado por otros investigadores y se obtienen los mismos resultados.
Cada repetición del experimento se llama prueba o ensayo.

Las distintas formas de realizar un experimento (en cuanto a distribución de unidades


experimentales en condiciones o grupos) son conocidas como protocolo de investigación.

Incluso los más pequeños realizan experimentos rudimentarios, para aprender sobre el
mundo que los rodea.

A través del juego y de la manipulación, y a veces con orientaciones mínimas, los niños
también experimentan y sacan conclusiones.

Por cierto, la experimentación no es dominio exclusivo de las ciencias, pues a nivel


personal y desde la niñez, vivimos experimentando constantemente confirmando o
verificando hipótesis, a efectos de poder mejorar nuestra relación con el mundo que nos
rodea.

Probabilidad
Ir a la navegación Ir a la búsqueda

La probabilidad es una medida de la certidumbre asociada a un suceso o evento futuro y


suele expresarse como un número entre 0 y 1 (o entre 0 % y 100 %).

Una forma tradicional de estimar algunas probabilidades sería obtener la frecuencia de un


acontecimiento determinado mediante la realización de experimentos aleatorios, de los que
se conocen todos los resultados posibles, bajo condiciones suficientemente estables. Un
suceso puede ser improbable (con probabilidad cercana a cero), probable (probabilidad
intermedia) o seguro (con probabilidad uno).
La teoría de la probabilidad se usa extensamente en áreas como la estadística, la física, la
matemática, las ciencias, la administración, contaduría, economía y la filosofía para sacar
conclusiones sobre la probabilidad discreta de sucesos potenciales y la mecánica
subyacente discreta de sistemas complejos, por lo tanto es la rama de las matemáticas que
estudia, mide o determina los experimentos o fenómenos aleatorios.

Teoría
Artículo principal: Teoría de la probabilidad

La probabilidad constituye un importante parámetro en la determinación de las diversas


casualidades obtenidas tras una serie de eventos esperados dentro de un rango estadístico.

Existen diversas formas como método abstracto, como la teoría Dempster-Shafer y la teoría
de la relatividad numérica, esta última con un alto grado de aceptación si se toma en cuenta
que disminuye considerablemente las posibilidades hasta un nivel mínimo ya que somete a
todas las antiguas reglas a una simple ley de relatividad.[cita requerida]

La probabilidad de un evento se denota con la letra p y se expresa en términos de una


fracción y no en porcentajes[cita requerida], por lo que el valor de p cae entre 0 y 1. Por otra
parte, la probabilidad de que un evento "no ocurra" equivale a 1 menos el valor de p y se
denota con la letra q

Los tres métodos para calcular las probabilidades son la regla de la adición, la regla de la
multiplicación y la distribución binomial.

Regla de la adición

La regla de la adición o regla de la suma establece que la probabilidad de ocurrencia de


cualquier evento en particular es igual a la suma de las probabilidades individuales, si es
que los eventos son mutuamente excluyentes, es decir, que dos no pueden ocurrir al mismo
tiempo.

Entonces, si A y B son mutuamente excluyentes,


P(A o B) = P(A) U P(B) = P(A) + P(B)
Si A y B no son mutuamente excluyentes,
P(A o B) = P(A) + P(B) − P(A y B)
Siendo: P(A) = probabilidad de ocurrencia del evento A, P(B) = probabilidad de ocurrencia
del evento B, y P(A y B) = probabilidad de ocurrencia simultánea de los eventos A y B.
Regla de la multiplicación

La regla de la multiplicación establece que la probabilidad de ocurrencia de dos o más


eventos estadísticamente independientes es igual al producto de sus probabilidades
individuales.

P (A y B) = P (A B) = P (A) P (B) si A y B son independientes.

P (A y B) = P (A B) = P (A) P (B|A) si A y B son dependientes.

siendo P (B|A) la probabilidad de que ocurra B habiéndose dado o verificado el evento A.

Un lote contiene "100" objetos de los cuales "20" son defectuosos. Los objetos son
seleccionados uno después del otro para ver si ellos son defectuosos. Suponga que dos
objetos son seleccionados sin reemplazo (significa que el objeto que se selecciona al azar se
deja por fuera del lote). ¿Cuál es la probabilidad de que los dos objetos seleccionados sean
defectuosos?

Solución:

Sea los eventos

A1 = {primer objeto defectuoso}, A2 {segundo objeto defectuoso}

entonces dos objetos seleccionados serán defectuosos, cuando ocurre el evento A1∩ A2
que es la intersección entre los eventos A1 y A2. De la información dada se tiene que:

P (A1) = 20/100 ; P (A2/A1) = 19/99

así probabilidad de que los dos objetos seleccionados sean defectuosos es

P (A1 ∩ A2) = P (A1) P (A2/A1)


(20/100)(19/99)
19/495 = 0.038

Ahora suponga que selecciona un tercer objeto, entonces la probabilidad de que los tres
objetos seleccionados sean defectuosos es

P (A1 ∩ A2 ∩ A3) = P (A1) P (A2/A1) P (A3/A1∩A2)


(20/100)(19/99)(18/98)
19/2695 = 0.007

Regla de Laplace

La Regla de Laplace establece que:

 La probabilidad de ocurrencia de un suceso imposible es 0.


 La probabilidad de ocurrencia de un suceso seguro es 1, es decir, P(A) = 1.
Para aplicar la regla de Laplace es necesario que los experimentos den lugar a sucesos
equiprobables, es decir, que todos tengan o posean la misma probabilidad.

 La probabilidad de que ocurra un suceso se calcula así:

P(A) = Nº de casos favorables / Nº de resultados posibles

Esto significa que: la probabilidad del evento A es igual al cociente del número de casos
favorables (los casos dónde sucede A) sobre el total de casos posibles.

Distribución binomial
Artículo principal: Distribución binomial

La probabilidad de ocurrencia de una combinación específica de eventos independientes y


mutuamente excluyentes se determina con la distribución binomial, que es aquella donde
hay solo dos posibilidades, que se suelen designar como éxito y fracaso.

1. Hay dos resultados posibles mutuamente excluyentes en cada ensayo u observación.


2. La serie de ensayos u observaciones constituyen eventos independientes.
3. La probabilidad de éxito permanece constante de ensayo a ensayo, es decir el proceso es
estacionario.

Para aplicar esta distribución al cálculo de la probabilidad de obtener un número dado de


éxitos en una serie de experimentos en un proceso de Bernoulli, se requieren tres valores: el
número designado de éxitos (m), el número de ensayos y observaciones (n); y la
probabilidad de éxito en cada ensayo (p).
Entonces la probabilidad de que ocurran m éxitos en un experimento de n ensayos es:

donde es el número total de combinaciones posibles de m elementos en un conjunto de


n elementos.

Aplicaciones

Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en el análisis


de riesgo y en el comercio de los mercados de materias primas. Los gobiernos normalmente
aplican métodos probabilísticos en regulación ambiental donde se les llama "análisis de
vías de dispersión o separación por medio de ecuaciones", y a menudo miden el bienestar
usando métodos que son estocásticos por naturaleza, y escogen qué proyectos emprender
basándose en análisis estadísticos de su probable efecto en la población como un conjunto.
No es correcto decir que la estadística está incluida en el propio modelado, ya que
típicamente los análisis de riesgo son para una única vez y por lo tanto requieren más
modelos de probabilidad fundamentales, por ej. "la probabilidad de otro 11-S". Una ley de
números pequeños tiende a aplicarse a todas aquellas elecciones y percepciones del efecto
de estas elecciones, lo que hace de las medidas probabilísticas un tema político. Un buen
ejemplo es el efecto de la probabilidad percibida de cualquier conflicto generalizado sobre
los precios del petróleo en Oriente Medio - que producen un efecto dominó en la economía
en conjunto. Un cálculo por un mercado de materias primas en que la guerra es más
probable en contra de menos probable probablemente envía los precios hacia arriba o hacia
abajo e indica a otros comerciantes esa opinión. Por consiguiente, las probabilidades no se
calculan independientemente y tampoco son necesariamente muy racionales. La teoría de
las finanzas conductuales surgió para describir el efecto de este pensamiento de grupo en el
precio, en la política, y en la paz y en los conflictos.

Se puede decir razonablemente que el descubrimiento de métodos rigurosos para calcular y


combinar los cálculos de probabilidad ha tenido un profundo efecto en la sociedad
moderna. Por consiguiente, puede ser de alguna importancia para la mayoría de los
ciudadanos entender cómo se calculan los pronósticos y las probabilidades, y cómo
contribuyen a la reputación y a las decisiones, especialmente en una democracia.

Otra aplicación significativa de la teoría de la probabilidad en el día a día es en la


fiabilidad. Muchos bienes de consumo, como los automóviles y la electrónica de consumo,
utilizan la teoría de la fiabilidad en el diseño del producto para reducir la probabilidad de
avería. La probabilidad de avería también está estrechamente relacionada con la garantía
del producto.

Se puede decir que no existe una cosa llamada probabilidad. También se puede decir que la
probabilidad es la medida de nuestro grado de incertidumbre, o esto es, el grado de nuestra
ignorancia dada una situación. Por consiguiente, puede haber una probabilidad de 1 entre
52 de que la primera carta en un baraja sea la J de diamantes. Sin embargo, si uno mira la
primera carta y la reemplaza, entonces la probabilidad es o bien 100% ó 0%, y la elección
correcta puede ser hecha con precisión por el que ve la carta. La física moderna
proporciona ejemplos importantes de situaciones deterministas donde sólo la descripción
probabilística es factible debido a información incompleta y la complejidad de un sistema
así como ejemplos de fenómenos realmente aleatorios.

En un universo determinista, basado en los conceptos newtonianos, no hay probabilidad si


se conocen todas las condiciones. En el caso de una ruleta, si la fuerza de la mano y el
periodo de esta fuerza es conocido, entonces el número donde la bola parará será seguro.
Naturalmente, esto también supone el conocimiento de la inercia y la fricción de la ruleta,
el peso, lisura y redondez de la bola, las variaciones en la velocidad de la mano durante el
movimiento y así sucesivamente. Una descripción probabilística puede entonces ser más
práctica que la mecánica newtoniana para analizar el modelo de las salidas de lanzamientos
repetidos de la ruleta. Los físicos se encuentran con la misma situación en la teoría cinética
de los gases, donde el sistema determinístico en principio, es tan complejo (con el número

de moléculas típicamente del orden de magnitud de la constante de Avogadro ) que


sólo la descripción estadística de sus propiedades es viable.
La mecánica cuántica, debido al principio de indeterminación de Heisenberg, sólo puede
ser descrita actualmente a través de distribuciones de probabilidad, lo que le da una gran
importancia a las descripciones probabilísticas. Algunos científicos hablan de la expulsión
del paraíso.[cita requerida] Otros no se conforman con la pérdida del determinismo. Albert
Einstein comentó estupendamente en una carta a Max Born: Jedenfalls bin ich überzeugt,
daß der Alte nicht würfelt. (Estoy convencido de que Dios no tira el dado). No obstante hoy
en día no existe un medio mejor para describir la física cuántica si no es a través de la teoría
de la probabilidad. Mucha gente hoy en día confunde el hecho de que la mecánica cuántica
se describe a través de distribuciones de probabilidad con la suposición de que es por ello
un proceso aleatorio, cuando la mecánica cuántica es probabilística no por el hecho de que
siga procesos aleatorios sino por el hecho de no poder determinar con precisión sus
parámetros fundamentales, lo que imposibilita la creación de un sistema de ecuaciones
determinista.

Investigación biomédica
Véase también: Muestreo en estadística

La mayoría de las investigaciones biomédicas utilizan muestras de probabilidad, es decir,


aquellas que el investigador pueda especificar la probabilidad de cualquier elemento en la
población que investiga. Las muestras de probabilidad permiten usar estadísticas
inferenciales, aquellas que permiten hacer inferencias a partir de datos. Por otra parte, las
muestras no probabilísticas solo permiten usarse estadísticas descriptivas, aquellas que solo
permiten describir, organizar y resumir datos. Se utilizan cuatro tipos de muestras
probabilísticas: muestras aleatorias simples, muestras aleatorias estratificadas, muestra por
conglomerados y muestras sistemáticas.

Probabilidad condicional es la probabilidad de que ocurra un evento A, sabiendo que


también sucede otro evento B. La probabilidad condicional se escribe P(A|B) o P(A/B), y se
lee «la probabilidad de A dado B».

No tiene por qué haber una relación causal o temporal entre A y B. A puede preceder en el
tiempo a B, sucederlo o pueden ocurrir simultáneamente. A puede causar B, viceversa o
pueden no tener relación causal. Las relaciones causales o temporales son nociones que no
pertenecen al ámbito de la probabilidad. Pueden desempeñar un papel o no dependiendo de
la interpretación que se le dé a los eventos.

Un ejemplo clásico es el lanzamiento de una moneda para luego lanzar un dado. ¿Cuál es la
probabilidad que en el dado salga un 6 dado que ya haya salido una cara en la moneda?
Esta probabilidad se denota de esta manera: P(6|C).

El condicionamiento de probabilidades puede lograrse aplicando el teorema de Bayes.


Distribución muestral
En estadística, la distribución muestral es lo que resulta de considerar todas las muestras
posibles que pueden ser tomadas de una población. Su estudio permite calcular la
probabilidad que se tiene, dada una sola muestra, de acercarse al parámetro de la población.
Mediante la distribución muestral se puede estimar el error para un tamaño de muestra
dado.

La distribución de muestreo de una estadística es la distribución de esa estadística, considerada


como una variable aleatoria, cuando se deriva de una muestra aleatoria de tamaño n. Se puede
considerar como la distribución de la estadística para todas las muestras posibles de la misma
población de un tamaño de muestra dado. La distribución del muestreo depende de la distribución
subyacente de la población, la estadística que se considera, el procedimiento de muestreo
empleado y el tamaño de muestra utilizado. A menudo existe un considerable interés en si la
distribución muestral puede aproximarse mediante una distribución asintótica, que corresponde al
caso límite ya que el número de muestras aleatorias de tamaño finito, tomadas de una población
infinita y utilizadas para producir la distribución, tiende a infinito. , o cuando se toma una
"muestra" del mismo tamaño infinito de esa misma población

Eventos Aleatorios y Espacio Muestral

La probabilidad es la ciencia que trata de cuantificar los posibles resultados de un


experimento en el cual está presente la incertidumbre o la aleatoriedad. La teoría de la
probabilidad se usa extensamente en áreas como la estadística, la física, la matemática,
la ciencia y la filosofía para sacar conclusiones sobre la probabilidad de sucesos
potenciales y la mecánica subyacente de sistemas complejos.

Un experimento es un proceso que se observa con el fin de establecer una relación entre
condiciones en que se realizan y los resultados que se obtienen. Se clasifican en:

Un experimento determinístico es aquel que al ser realizado con las mismas


condiciones iniciales produce los mismos resultados.

Ejemplo: Una operación de adición.


Un experimento aleatorio es aquel que puede producir resultados diferentes, aun
cuando se repita siempre de la misma manera.

Ejemplo: El lanzamiento de un dado.

Ejemplo: El lanzamiento de una moneda

Espacio muestral
se le llama espacio muestral al conjunto de todos los resultados posibles de un
experimento aleatorio. El espacio muestral se denota como S.

Ejemplo: Los resultados posibles del lanzamiento de un dado.

S = {1, 2, 3, 4, 5, 6}

Ejemplo: Los resultados posibles del lanzamiento de una moneda.

S = {Sello, Águila}

Los espacios muestrales se clasifican en:

 Espacio muestral discreto, son espacios muéstrales cuyos elementos resultan


de hacer conteos, siendo por lo general subconjuntos de los números enteros.
 Espacio muestral continuo, son espacios muestrales cuyos elementos resultan
de hacer mediciones, siendo por lo general intervalos en el conjunto de los
números reales.

Evento

Un evento es un subconjunto del espacio muestral de un experimento aleatorio. Los


eventos normalmente se denotan con las letras mayúsculas A, B, C; y tienen la
característica de ser subconjuntos de S ((A, B, C)  S). Los eventos pueden ser:
 Evento seguro, es aquel que tiene todos los posibles resultados. S = A  #S =
#A. Por ejemplo al tirar un dado un dado obtener una puntuación que sea menor
que 7.
 Evento imposible, es aquel que no tiene un posible resultado. Por ejemplo al tirar
un dado obtener una puntuación igual a 7.
 Eventos compatibles, dos eventos, A y B, son compatibles cuando tienen
algún eventos elemental común. Ejemplo si A es sacar puntuación par al tirar un
dado y B es obtener múltiplo de 3, A y B son compatibles porque el 6 es un evento
elemental común.
 Evento incompatibles, dos eventos, A y B, son incompatibles cuando no tienen
ningún elemento en común. Ejemplo si A es sacar puntuación par al tirar un dado y
B es obtener múltiplo de 5, A y B son incompatibles.
 Eventos independientes, dos eventos, A y B, son independientes cuando la
probabilidad de que suceda A no se ve afectada porque haya sucedido o no B.
Ejemplo al lazar dos dados los resultados son independientes.
 Eventos dependientes, dos eventos, A y B, son dependientes cuando la
probabilidad de que suceda A se ve afectada porque haya sucedido o no B.
Ejemplo extraer dos cartas de una baraja, sin reposición, son eventos
dependientes.
 Evento contrario, el evento contrario a A es otro evento que se realiza cuando no
se realiza A. Ejemplo son eventos contrarios sacar par e impar al lanzar un dado.

Se clasifican en:

 Evento simple, siendo aquel que tiene un solo punto muestral.


 Evento compuesto, siendo aquel que tiene dos o más puntos muestrales.

Donde el punto muestral es cada uno de los resultados posibles de un experimento


aleatorio. Representándose al número de puntos muestrales por #S.

Ejemplo: El lanzamiento de una moneda.

Experimento aleatorio:

Lanzar una moneda tres veces.

Espacio muestral:

S = {(S,S,S),(S,S,A),(S,A,S),(A,S,S),(A,A,S),(A,S,A),(S,A,A),(A,A,A)}

#S = 8
S es el evento seguro.

Evento simple:

A: que salgan tres sellos.

A = {(S,S,S)}

#A = 1

Evento compuesto:

B: Que salgan al menos dos sellos.

B = {(S,S,S), (S,S,A), (S,A,S), (A,S,S)}

#B = 4

Ante estos conceptos es posible llegar a pensar que un evento y un punto muestral son lo
mismo, pero realmente no lo son. Un ejemplo claro se puede observar en el lanzamiento
del dado, un evento sería por ejemplo que salga número par, para lo cual servirían los
puntos muestrales {2} {4} {6}. De ahí las diferencias entre unos y otros.

Operaciones básicas con eventos aleatorios


Ya que los eventos son subconjuntos del espacio muestral S, se pueden aplicar las
conocidas operaciones con conjuntos, a los eventos, como son la unión, la intersección y
la diferencia de eventos.

Operación Expresión Descripción

Unión AB Unión de eventos originales: es el evento que sucede si


y solo si A sucede o B sucede o ambos suceden

Intersección AB Intersección de los eventos originales, es el evento que


sucede si y sólo si A y B suceden simultáneamente.

Complemento A = S - A El complemento de un conjunto son todos aquellos


elementos de S que no pertenecen al conjunto A.

Diferencia A-B La diferencia de los eventos originales A y B, es el


evento que sucede solo en A pero no en B.

Unión (A  B)

El evento formado por todos los elementos de A y todos los elementos de B. La


probabilidad de la unión de dos eventos es igual a la suma de las probabilidades
individuales de los dos eventos que se unen, menos la probabilidad del suceso
intersección.

Ejemplo: Al lanzar un dado al aire y analizar los siguientes dos eventos.

Evento A: que salga número par.


Evento B: que salga número impar.

La unión se forma por los puntos muestrales {1}, {2}, {3}, {4}, {5} y {6}.

Cuya probabilidad es

P(A) = 3 / 6 = 0.50

P(B) = 3 / 6 = 0.50

P (A  B) = 0 / 6 = 0.00

Por lo tanto (A  B) = (0.50 + 0.50) – 0.00 = 1.00


Intersección (A  B)
Es el evento formado por todos los elementos que son, a la vez, de A y de B. Es aquel
evento compuesto por los elementos comunes de los dos o más sucesos que se
intersectan. La probabilidad será igual a la probabilidad de los elementos comunes.

Ejemplo: Al lanzar un dado al aire y analizar los siguientes dos eventos.

Evento A: que salga número par.

Evento B: que sea mayor que 3.

La intersección de estos dos eventos tiene los puntos muestrales {4} y


{6}.

Su probabilidad será por tanto P(A  B) = 2 / 6 = 0.33

Complemento (A)

La probabilidad de un suceso complementario (A) es igual a 1 - P(A).

Ejemplo: Si se lanza un dado al aire y se analiza el evento que salga un número impar su
complementario, suceso (A), es que obtengamos un número par.

De esta manera, la probabilidad de cada suceso es:

P(A) = 3 / 6 = 0.50

A= 1 - P(A) = 1 – 0.50 = 0.50

La unión de dos eventos complementarios es igual a 1.


Diferencia (A - B)
La diferencia de eventos, A − B, es el evento formado por todos los puntos muestrales de
A que no son de B.

Ejemplo: Al lanzar un dado al aire y analizar los siguientes dos eventos.


Evento A: que salga número par.

Evento B: que sea múltiplo de 3.

A = {2, 4, 6}

B = {3, 6}

A − B = {2, 4}

Animación de operaciones con conjuntos


Para una mejor comprensión de las operaciones con conjuntos, presione aquí.

Esperanza matemática
Ir a la navegación Ir a la búsqueda

En estadística la esperanza matemática (también llamada esperanza, valor esperado,

media poblacional o media) de una variable aleatoria , es el número o que


formaliza la idea de valor medio de un fenómeno aleatorio.

Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad


de cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto,
representa la cantidad media que se "espera" como resultado de un experimento aleatorio
cuando la probabilidad de cada suceso se mantiene constante y el experimento se repite un
elevado número de veces. Cabe decir que el valor que toma la esperanza matemática en
algunos casos puede no ser "esperado" en el sentido más general de la palabra (el valor de
la esperanza puede ser improbable o incluso imposible).

Por ejemplo, el valor esperado cuando tiramos un dado equilibrado de 6 caras es 3,5.
Podemos hacer el cálculo
y cabe destacar que 3,5 no es un valor posible al tirar el dado. En este caso, en el que todos
los sucesos son de igual probabilidad, la esperanza es igual a la media aritmética.

Una aplicación común de la esperanza matemática es en las apuestas o los juegos de azar.
Por ejemplo, la ruleta francesa tiene 37 casillas equiprobables. La ganancia para acertar una
apuesta a un solo número paga de 35 a 1 (es decir, cobramos 35 veces lo que hemos
apostado y recuperamos la apuesta, así que recibimos 36 veces lo que hemos apostado). Por
tanto, considerando los 37 posibles resultados, la esperanza matemática del beneficio para
apostar a un solo número es:

que es exactamente -0,027027. Por lo tanto uno esperaría, en media, perder unos 2,7
céntimos por cada euro que apuesta, y el valor esperado para apostar 1 euro son 0.97273
euros. En el mundo de las apuestas, un juego donde el beneficio esperado es cero (no
ganamos ni perdemos) se llama un "juego justo".

Nota: El primer término es la "esperanza" de perder la apuesta de 1€, por eso el valor es
negativo. El segundo término es la esperanza matemática de ganar los 35€. La esperanza
matemática del beneficio es el valor esperado a ganar menos el valor esperado a perder.

¿Qué es un diagrama de Venn?

Un diagrama de Venn usa círculos que se superponen u otras figuras para ilustrar las
relaciones lógicas entre dos o más conjuntos de elementos. A menudo, se utilizan para
organizar cosas de forma gráfica, destacando en qué se parecen y difieren los elementos.
Los diagramas de Venn, también denominados "diagramas de conjunto" o "diagramas
lógicos", se usan ampliamente en las áreas de matemática, estadística, lógica, enseñanza,
lingüística, informática y negocios. Muchas personas los vieron por primera vez en la
escuela cuando estudiaron Matemática o Lógica, ya que los diagramas de Venn se
convirtieron en una parte del plan de estudio de la "nueva Matemática" en la década de
1960. Estos pueden ser diagramas sencillos que involucran dos o tres conjuntos con
algunos elementos o pueden volverse muy sofisticados, por ejemplo, en presentaciones en
3D, ya que utilizan seis o siete conjuntos o más. Se usan para hacer un análisis detallado y
para representar cómo se relacionan los elementos entre sí dentro de un "universo" o
segmento determinado. Los diagramas de Venn permiten a los usuarios visualizar los datos
de forma clara y con gran alcance y, por este motivo, se utilizan comúnmente en
presentaciones e informes. Se relacionan estrechamente con los diagramas de Euler, pero se
diferencian en que estos últimos omiten los conjuntos si estos no contienen elementos. Los
diagramas de Venn muestran las relaciones incluso si un conjunto está vacío.
Historia

Los diagramas de Venn llevan el nombre del lógico británico, John Venn. Él escribió sobre
ellos en un artículo redactado en 1880 titulado "De la representación mecánica y
diagramática de proposiciones y razonamientos" en la revista "Philosophical Magazine and
Journal of Science".

Pero las raíces de este tipo de diagrama se remontan a un período muy anterior, al menos
600 años atrás. Alrededor del año 1200, el filósofo y lógico Ramon Llull (Raimundo Lulio
en español) de Mallorca, usó un tipo de diagrama similar, escribió la autora M.E. Baron en
un artículo redactado en 1969 que realizaba un seguimiento de su historia. Ella también
atribuye el crédito al matemático y filósofo alemán, Gottfried Wilhelm von Leibnitz de
haber dibujado diagramas similares a finales de 1600.

En la década de 1700, el matemático suizo Leonard Euler (que se pronuncia Oy-ler)


inventó lo que luego se conocería como "diagrama de Euler", el predecesor más directo del
diagrama de Venn. De hecho, John Venn se refería a sus propios diagramas como "círculos
de Euler" y no "diagramas de Venn". El filósofo estadounidense Clarence Irving (C.I.)
Lewis publicó por primera vez el término "diagramas de Venn" en su libro escrito en 1918
llamado, "A Survey of Symbolic Logic".

Los diagramas de Venn continuaron evolucionando en los siguientes 60 años con avances
de la mano de expertos, como David W. Henderson, Peter Hamburger, Jerrold Griggs,
Charles E. “Chip” Killian y Carla D. Savage. Su trabajo se centraba en los diagramas de
Venn simétricos y su relación con los números primos o aquellos indivisibles por otros
números que no sean 1 y el número mismo. Uno de estos diagramas simétricos, basado en
el número primo 7, se conoce ampliamente en las esferas matemáticas como "Victoria".

Otros nombres destacados en el desarrollo de los diagramas de Venn son A. W. F.


Edwards, Branko Grunbaum y Henry John Stephen Smith. Entre otras cosas, modificaron
las figuras en los diagramas para permitir una representación más sencilla de los diagramas
de Venn en un número cada vez mayor de conjuntos.

Un ejemplo sencillo

Supón que nuestro universo es de mascotas y queremos comparar qué tipo de mascota
tenemos en común los miembros de nuestra familia.

El conjunto A contiene mis preferencias: perro, pájaro y hámster.


El conjunto B contiene las preferencias del miembro B de la familia: perro, gato, pez.

El conjunto C contiene las preferencias del miembro C de la familia: perro, gato, tortuga,
serpiente.

La superposición, o intersección, de los tres conjuntos incluye solamente al perro. Al


parecer, tendremos un perro.

Por supuesto que los diagramas de Venn pueden ser mucho más complicados que esto, ya
que se usan ampliamente en diversos campos.

Propósitos y beneficios

 Organizar información visualmente para ver la relación entre los conjuntos de elementos,
como semejanzas y diferencias. Los estudiantes y profesionales pueden usarlos para
pensar la lógica detrás de un concepto y para representar las relaciones para lograr una
comunicación visual. Este propósito puede ser básico o muy avanzado.
 Comparar dos o más opciones y ver claramente lo que tienen en común y lo que puede
distinguirlos. Esto se puede realizar para seleccionar un servicio o producto importante
que se va a adquirir.
 Para resolver problemas matemáticos complejos. En el caso de que seas un matemático,
por supuesto.
 Comparar conjuntos de datos, encontrar correlaciones y predecir probabilidades de
determinados acontecimientos.
 Razonar la lógica detrás de declaraciones o ecuaciones, como la lógica booleana detrás de
una búsqueda de palabras que involucre las instrucciones "or" y "and" y cómo se agrupan.

You might also like