You are on page 1of 11

TEMA 8 EL RAZONAMIENTO PROBABILISTICO

INTRODUCCION

En este tema vamos a estudiar el funcionamiento de los seres humanos con problemas
de razonamiento inductivo q, como recordamos, son problemas donde la info no
permite extraer una conclusión definitiva, bien xq no se dispone de toda la info
necesaria o bien xq dicha info solo conduce a resultados probables (estas son las
condiciones de incertidumbre). Pero, x contrapartida, las conclusiones q se alcanzan con
este razonamiento permiten descubrir y predecir hechos o info nueva basándose en los
hechos anteriores, o combinando algunos aspectos de esta info anterior.

En nuestra vida diaria realizamos multitud de juicios de probabilidad, aunq


generalmente no los clasificamos como tales (sacar el paraguas, compra de un coche de
2ª mano o nuevo…)

NOCIONES BÁSICAS DE PROBABILIDAD

Para valorar si los juicios de probabilidad se realizan de forma correcta, se utiliza un


modelo normativo q, en el caso del razonamiento probabilístico, es la teoría de la
probabilidad.

Veamos cuales son los axiomas de la teoría de la probabilidad:


1. La probabilidad de un suceso esta entre 0 y 1. Es 1 si el suceso es seguro q
suceda y 0 si es seguro q no suceda. No hay probabilidades negativas.
2. La probabilidad de la “no ocurrencia” de un suceso es igual a 1 menos la
probabilidad de su ocurrencia.
3. Si 2 sucesos son mutuamente excluyentes entre si, entonces la probabilidad de
ocurrencia de uno u otro es igual a la suma de sus probabilidades.
4. La probabilidad de la conjunción de 2 sucesos es igual a la probabilidad del
primero x la probabilidad del segundo (la probabilidad de la conjunción de 2
sucesos es siempre menor o igual q la de uno considerado aisladamente).

Pero, ¿como se obtiene la probabilidad concreta de un suceso?  Según la teoría,


clásica, la probabilidad de un suceso puede calcularse de 2 formas:
- Dividiendo el nº de resultados favorables del suceso entre el nº total de
resultados posibles.
- Calculando la frecuencia relativa del mismo después de haberlo repetido un
nº razonablemente grande de veces.

Estos procedimientos son adecuados cuando tratamos, x ej., con juegos de azar, pero en
la vida diaria es raro q podamos asignar probabilidades objetivas, puesto q los
acontecimientos no se repiten hasta poder atribuirles una frecuencia relativa y tp las
alternativas a nuestro alcance son equiprobables.
X esa razón, se utilizan las probabilidades subjetivas, procedentes de la info a
disposición del sujeto o de sus opiniones y creencias. De ahí q Thomas Bayes añadió a
los axiomas antes mencionados la formula conocida como el Teorema de Bayes,
mediante la cual puede hallarse la probabilidad de un suceso, a la vista de una info
nueva, y conocida su probabilidad inicial.

Veamos un ejemplo  si seleccionamos una persona al azar, la probabilidad de que sea


diabética es 0,03. Obviamente la probabilidad de que no lo sea es 0,97. Si no
disponemos de información adicional nada más podemos decir. Ahora supongamos que
elegimos una persona al azar y le realizamos un análisis de sangre y vemos los niveles
de glucosa son superiores a 1.000 mg/l, lo cual ocurre en el 95% de los diabéticos y sólo
en un 2% de las personas sanas.

¿Cuál será ahora la probabilidad de que esa persona sea diabética?:


- Probabilidad a priori de q sea diabético: P(H)=0,3
- Probabilidad de que no sea diabético: P(H´)=0,97
- Probabilidad condicionada del dato a favor: P(D/H)=0,95
- Probabilidad condicionada del dato en contra: P(D/H´)=0,02

P(H/D): probabilidad de q sea diabético teniendo en cuenta el dato, q será igual a la


probabilidad condicionada del dato a favor, por la probabilidad a priori, dividido entre si
mismo mas la probabilidad condicionada del dato en contra por la probabilidad a priori
en contra.

El resultado sería:

Vemos como, gracias a la info q nos proporciona el dato, la probabilidad de ser


diabético, pasa de la probabilidad inicial de 0,3, a la probabilidad de 0,595.

Así, q para el cálculo de la probabilidad de ocurrencia de un suceso, el teorema de


Bayes tiene en cuenta:
- La probabilidad a priori de q ocurra el suceso (y, tb, la probabilidad de q no
ocurra). Estas probabilidades son complementarias (ambas suman 1)
- La probabilidad de q si sucede ese hecho o info nueva, ocurra el suceso (y,
tb, la probabilidad de q no ocurra en ese supuesto). Estas probabilidades no
son complementarias.

La probabilidad condicionada del suceso podría no ser un dato científico, y ser una
estimación que haga el sujeto, con lo q, gracias a esto, la estadística bayesiana permite
introducir probabilidades subjetivas al evaluar las probabilidades a priori y las
probabilidades condicionadas del suceso. Estas probabilidades pueden obtenerse de la
evidencia existente, de teorías previas o simplemente de la opinión o creencias de la
persona. X ello, el modelo bayesiano parece especialmente adecuado para el estudio de
los juicios humanos en situaciones de incertidumbre.

EL ENFOQ DE LOS HEURÍSTICOS DE RAZONAMIENTO

¿Se ajustan los juicios que realizan las personas a las predicciones del teorema de
Bayes?  Son muchos los resultados experimentales q demuestran q el razonamiento
humano no emite sus juicios siguiendo las normas de este teorema. Al contrario, se
observa una tendencia conservadora q lleva a menudo a equiparar las probabilidades
estimadas a las probabilidades a priori.

La teoría de la Racionalidad Restringida abrió una nueva perspectiva señalando que,


quizá, las personas no intentan obtener la máxima exactitud en el juicio sino alcanzar
cierta satisfacción en sus decisiones, emitiendo un juicio a partir de un modelo
simplificado que no utiliza toda la información necesaria, pero que resulta adecuado
ante las limitaciones cognitivas para almacenar y procesar un elevado número de datos.

La evidencia empírica apoya el uso de estas estrategias simplificadas o heurísticos


(reglas de andar por casa o atajos q se utilizan de forma espontánea ya q permiten
simplificar la tarea de asignar probabilidades y la tarea de predecir).

Los tres heurísticos principales descritos por estos autores son:


• El heurístico de representatividad.
• El heurístico de accesibilidad.
• El heurístico de anclaje y ajuste.

1.- EL HEURÍSTICO DE REPRESENTATIVIDAD (Kahneman Y Tversky)

Este tipo de heurístico se utiliza en problemas de tipo: “¿cual es la probabilidad de q un


objeto A, pertenezca a la clase B?” Ej.: ¿cual es la probabilidad de q un sujeto q aparece
en una foto sea alemán? En estos casos el uso del heurístico induce a evaluar las
probabilidades de un suceso, x el grado en q A es representativo de B, es decir, x su
semejanza, en vez de por info estadística.

X tanto, el juicio consiste en:


1. Determinar si el objeto en cuestión es representativo de una clase (juicio de
representatividad), q se realiza comparando las semejanzas q tiene el objeto con
el prototipo de su categoría. Vemos q lo q se tiene en cuenta es la tipicidad y
prototipicidad.
2. Si se decide q es representativo, se asignará una determinada probabilidad a la
pertenencia a esa clase (juicio x representatividad)

El uso de este heurístico puede llevar a respuestas correctas con un bajo coste cognitivo.
Sin embargo, la estrategia de basarse en la semejanza, ignorando la info estadística,
provocará unos sesgos (q a continuación veremos) al no estar basado el juicio en
cuestiones relevantes para la probabilidad (tamaño de la muestra, probabilidades a priori
y capacidad predictiva del nuevo dato) y si estarlo en las cuestiones relevantes a la
semejanza. Veamos esos sesgos.

A) Insensibilidad al tamaño de la muestra

Estadísticamente sabemos q la probabilidad q asignemos a un suceso será mas cercana a


la probabilidad real cuanto mas grande sea el tamaño de la muestra observada. Sin
embargo, este hecho parece q no es tenido en cuenta x los sujetos, lo q provoca los ss
problemas:

1. Los sujetos esperan que la frecuencia real de un suceso se manifieste en muy


pocos sucesos, error muy frecuente que origina lo que se conoce como la
"falacia del jugador". Un ejemplo son los juegos de azar. Las personas
consideran que las características propias de los sucesos aleatorios, como la
equiprobabilidad, se manifestará en un número reducido de lanzamientos,
ignorando que una moneda o un dado no “recuerdan” los resultados obtenidos
anteriormente y, aunque a la larga la frecuencia de caras y cruces se equilibrará,
esto no ha de ocurrir necesariamente en una secuencia corta de lanzamientos.

2. Los sujetos generalizan a partir de muestras muy pequeñas si consideran q la


muestra, aunq pequeña, es representativa o q el grupo es homogéneo en la
característica en cuestión. Así, x ej., los sujetos pueden generalizar sobre la
realización de conductas negativas cuando se realizan por algún sujeto de grupos
marginales, vistas2 o 3 muestras solo.

Sin embargo, no generalizarán si consideran que el grupo es variable en la


característica en cuestión. Ej.: si un explorador va a una isla desierta y se
encuentra con un hombre negro y gordo, podría generalizar que el color de la
gente de esa isla es negro, pero lo mas probable es que no generalice sobre que
todos los de esa isla son gordos.

B) Insensibilidad a las probabilidades a priori

Es la tendencia de los sujetos a asignar probabilidad a un suceso solo teniendo en cuenta


la info nueva presentada (en caso de q esta sea representativa), olvidando las
probabilidades a priori.

X ej., se enjuicia la probabilidad de q una persona es ingeniero o abogado basándose


solo en una descripción ofrecida, sin tener en cuenta la probabilidad a priori q se había
establecido a favor de una u otra opción.

La conclusión de todo esto es que cuando la descripción (o la nueva información) es


suficientemente representativa, las personas ignoran la información inicial sobre las
probabilidades a priori o la frecuencia de un evento, siendo esta información esencial
desde el punto de vista bayesiano.

C) Insensibilidad a la capacidad predictiva del dato


Recordemos q uno de los datos q se tienen en cuenta en la formula bayesiana es la
probabilidad de q no ocurra el suceso, teniendo en cuenta la info nueva. Como ya
dijimos, esta probabilidad no es complementaria a q ocurra el suceso con ese dato
nuevo.

X ej. si estamos estimando la probabilidad de q llueva en base a las nubes q hay y el


dato nuevo es q aparece Laura con un paraguas, no solo hay q tener en cuenta la
probabilidad de q Laura lleve paraguas lloviendo, sino tb la probabilidad de q lo lleve
aunq no llueva, pues puede ser muy alta, y aportar tb mucha info.

Así pues, esta probabilidad hay q conocerla y tenerla en cuenta y los experimentos nos
dicen q los sujetos le conceden bastante menos importancia de la q se merece a este
dato.

En este sentido, cuando se recibe una descripción favorable sobre el rendimiento de un


alumno, la trayectoria de una empresa o una entrevista de trabajo, el juicio predictivo
suele basarse en esta info, sin tener en cuenta la fiabilidad de la fuente o su validez. Sin
embargo, la info no presente y q puede falsar la hipótesis es igualmente importante.

D) Falacia de la conjunción

Según este sesgo, los sujetos consideran más probable la ocurrencia simultánea de dos
sucesos (si ofrecen un modelo más representativo de la información inicial), q la
ocurrencia de uno solo de estos sucesos, aunq según las leyes estadísticas deba suceder
justo lo contrario.

Por ejemplo, en el “problema de Linda” (pag. 340) la mayoría de los sujetos


consideraron más probable la afirmación h) “Linda es cajera en un banco y es
feminista” que la afirmación f) “Linda es cajera en un banco”, a pesar de que h) es la
conjunción de c) “linda es feminista” y f).

Este resultado sorprendente podría explicarse xq los sujetos consideran q la afirmación


conjunta es mas representativa de la descripción realizada o x una mala comprensión del
enunciado, o x confusión entre probabilidad condicional y probabilidad de intersección
de los 2 sucesos. Sin embargo, variaciones posteriores del mismo problema en las que
se intentaban eliminar estas posibilidades ponen de manifiesto que se sigue
considerando más probable la conjunción que un elemento aislado, si ésta es más
representativa.

Este sesgo se encuentra relacionado con la construcción de escenarios (heurístico de


accesibilidad, q veremos a continuación). Las personas consideran más probable una
situación que aparece como una conjunción de varios sucesos, formando un escenario
más detallado y complejo, que otra situación más ambigua en la que únicamente se
describe un suceso. Por ejemplo, la descripción de un accidente pormenorizado se
considera más probable q la descripción de uno con pocos datos.

E) Insensibilidad de la regresión a la media


La regresión a la media es un principio estadístico extraordinariamente contraintuitivo,
que afirma que las puntuaciones extremas en una medición tienden a acercarse a la
media en una medición posterior.

Sin embargo, los sujetos esperan q las puntuaciones extremas en una determinada
cuestión se mantengan en eventos relacionados, simplemente x la semejanza entre si de
los sucesos. Ej.: de un padre extraordinariamente alto se espera un hijo igual, cuando en
la vida real tenemos múltiples ejemplos de lo contrario. Es curioso xq, aunq se de info
explicita de este efecto, los sujetos continúan ignorándolo.

Así, x ej. si un hijo hace una cosa muy mal y le regañamos, y lo hace un poco mejor
luego, probablemente tenga q ver mas la regresión a la media q el haberle regañado. Y
aunq los padres lo sepan, continúan regañándonos!

2.- EL HEURÍSTICO DE ACCESIBILIDAD

Este heurístico consiste en asignar la probabilidad de ocurrencia de un suceso (juicio de


estimación de frecuencias) en función de la facilidad con la q se recuerda ese suceso,
es decir, en función de su accesibilidad. Este heurístico puede conducir a buenos
resultados, puesto que lo más frecuente suele estar más disponible en la memoria.

Sin embargo, además de la frecuencia, hay otras variables afectan a esta accesibilidad
como, por ejemplo, la recencia (se recuerda mas lo mas reciente), la saliencia (se
recuerda mas la info mas impactante o nítida), la familiaridad (se recuerda mas lo mas
conocido). Así, un juicio de frecuencias emitido basándose en la accesibilidad puede
verse afectado por estas variables y, por tanto, resultar erróneo.

Este heurístico de accesibilidad esta estrechamente relacionado con otro heurístico


denominado heurístico de simulación, q consiste en estimar la probabilidad de
ocurrencia de un acontecimiento en función de la facilidad para imaginarlo. Así, cuanto
mas fácil de imaginar sea un escenario, mas probable sea su consideración.

Observemos q el heurístico de accesibilidad se da en tareas de recuerdo y el de


simulación se da en tareas de predicción.

Tanto el heurístico de accesibilidad como el de simulación conducen a sesgos parecidos


a los producidos por la representatividad:

- Se ignora la probabilidad a priori o la frecuencia real de un evento cuando se


dispone de información más reciente o impactante que contradiga dichas
probabilidades.

En el ámbito social, esta prevalencia de la información más accesible daría lugar


al sesgo egocéntrico que consiste en pensar q las propias creencias son
mayoritarias en la población, simplemente xq nuestras creencias son las mas
accesibles. Este sesgo no se produce intencionalmente.

- Se ignora la capacidad predictiva del dato o de la info, considerando


únicamente la información presente sin prestar atención a otras posibilidades. La
mayor relevancia de la información presente, dado que es más accesible,
favorece q se ignoren otras alternativas q no están presentes.

Esta mayor relevancia de la info presente, dado q es más accesible, provoca tb los ss
sesgos:

- El sesgo de explicación: estimar como más probable aquello que ha sido


explicado previamente, puesto q va a ser mejor recordado. Investigaciones
posteriores demuestran, que no es necesario explicar sino únicamente imaginar
un resultado para aumentar su probabilidad percibida.

- Sesgo retrospectivo: cuando sabemos q un evento ha sucedido, consideramos


q hubiésemos hecho una estimación más alta de ese resultado. Cuando se
proporciona a los sujetos un resultado, los antecedentes y escenarios que
conducen a dicho resultado adquieren una mayor saliencia en perjuicio del resto
de resultados posibles. Es más fácil imaginar cómo ha ocurrido un suceso que
pensar cómo podría haber ocurrido.

- Correlación ilusoria. Consiste en evaluar como altamente probable la


presencia simultánea de dos acontecimientos, dado el vínculo que pudiese existir
entre ellos. Este sesgo puede estar implicado en la formación de estereotipos
sociales. X ej.: si un miembro de un grupo minoritario realiza una acción
anómala o negativa, ambos sucesos se asociarán y se estimarán como
relativamente frecuentes. En este caso dos sucesos muy distintivos se asocian y
esta asociación sería altamente distintiva y, por tanto, muy fácil de recordar. Por
este motivo la covariación se estimaría mucho más frecuente de lo que en
realidad es.

3.- EL HEURÍSTICO DE ANCLAJE Y AJUSTE

Este heurístico consiste en sesgar el juicio hacia un valor inicial (anclaje) e ir


ajustándolo a medida q se añade nueva info, hasta producir la respuesta final. El valor
inicial puede estar sugerido x la formulación del problema, ser consecuencia de un
cómputo parcial o incluso puede ser un valor tomado al azar. En cualquier caso, la
respuesta final parece estar sesgada hacia aquel valor inicial, tanto si es relevante para el
problema como si no lo es.

X ej.: se pidió a los sujetos q estimaran la proporción de población negra de EEUU,


mostrando previamente un nº al azar, y cada grupo ajusto su juicio al valor de ese nº.

4.- CRÍTICAS A LOS HEURÍSTICOS

a) Excesiva flexibilidad de los heurísticos  No se puede determinar cuando se


aplicará un heurístico u otro a una situación concreta, pequeños cambios en la
representación del problema influyen en la estrategia a utilizar. Incluso puede q
los heurísticos se apliquen sucesivamente, considerando primero la info mas
accesible y luego la mas representativa. En cualquier caso, los 3 heurísticos
están estrechamente relacionados. Incluso el heurístico de anclaje puede ser
equivalente a la accesibilidad si el punto de anclaje es el más accesible.

b) Escasa validez externa  hasta el punto de considerar q los resultados


obtenidos en el laboratorio no pueden extrapolarse a la vida diaria ya q, en el
contexto natural, el sujeto dispone de datos menos limitados, mas redundantes y
tiene la posibilidad de buscar la info según sus propios criterios. Además, las
personas no solo usan los datos q se les proporcionan, sino q tb basan sus
respuestas en su conocimiento del mundo, en las correlaciones q han percibido
en la vida real… Además, en la vida real no se dispone de una lista exhaustiva
de hipótesis, ni estas son complementarias, como en el laboratorio. En la vida
diaria tb pueden influir otras cuestiones como la presión del tiempo o las
consecuencias del juicio emitido.

c) Falta de precisión del juicio  los resultados a los q se llega con el uso de los
heurísticos no coinciden con las predicciones del modelo bayesiano. Sin
embargo, esto puede ser un argumento a favor, ya q en situaciones naturales, a
menudo, no hay modo de contrastar con precisión la probabilidad de un
resultado. Los juicios en la vida real se establecen x consenso social, x su
relación coste-beneficio o x su adecuación con la meta conseguida.

EL ENFOQUE DE LOS MODELOS MENTALES

La Teoría de Modelos Mentales (q Johnson-Laird defiende q es valida tb para el


razonamiento probabilístico, no solo para el deductivo) propone que los problemas a los
q se enfrentan las personas se resuelven mediante la construcción de un conjunto de
modelos mentales basados en la info de la que se dispone en las premisas. La
conclusión q se obtenga se considera:
- Posible cuando se cumpla en al menos uno de los modelos
- Probable cuando se mantiene en la mayoría de los modelos mentales
(lo q nos permitiría darla x buena)
- Necesaria cuando se cumple en todos los modelos.

Esta teoría permite explicar tanto los aciertos como los errores, ya q el razonamiento no
será correcto mientras no se haya revisado un nº suficiente de los posibles modelos o
cuando la info de las premisas de lugar a una gran cantidad de modelos q sobrecargarían
la memoria operativa.

Así, para evaluar si una respuesta es probable, los sujetos lo q hacen es intentar conocer
la frecuencia relativa de los modelos q apoyan a la conclusión, bien haciendo un
muestreo al azar de los distintos modelos, bien explorando sistemáticamente el espacio
de todos los modelos posibles.

Recordemos tb q, con el fin de no sobrecargar a la memoria de trabajo, esta teoría


sostiene q se representa el mínimo de info en los modelos explícitos y solo la info q es
verdadera. X estas razones, las personas evalúan la frecuencia de los modelos q apoyan
o rechazan la info de una manera rudimentaria y sesgada. Estos sesgos se conocen como
ilusiones cognitivas.
Antes de ver lo q es una ilusión cognitiva, veamos el siguiente ejemplo de disyunción
exclusiva  Solo uno de los ss enunciados es verdadero:
- Hay un rey o un as, o ambos
- Hay una reina o un as, o ambos
¿Q es mas probable, un rey o un as?

Veamos los distintos sesgos o ilusiones cognitivas:

1. Cuando se razona sobre la probabilidad relativa de 2 sucesos con varios


operadores (disyunción exclusiva, condicional, bicondicional), los sujetos
pueden cometer errores al no representar de forma explicita los casos en los q no
ocurren los sucesos. Así, en el ejemplo de disyunción cognitiva, los sujetos solo
se representan la info en la q los casos son verdaderos, sin tener en cuenta los q
no lo son, x lo q estiman q es más probable el as q el rey.

2. Efectos del orden de presentación de las fuentes de info  el orden de


presentación de la info genera modelos mentales distintos, ya q la info nueva se
va integrando en los modelos mentales existentes.

3. Efectos de la congruencia e incongruencia entre las fuentes de info  la


integración de info representativa y probabilística depende de la congruencia
entre ambas, ya q si son incongruentes, el sujeto basará sus juicios en la info
representativa.

Como vemos, aunq los resultados sigan mostrando el valor de la


representatividad en los juicios probabilísticos, se descarta la utilización de
heurísticos, puesto q se integran ambos tipos de info (representativa y
probabilística) cuando estas son congruentes. Además, se ha comprobado q los
tiempos de solución son mayores cuando las 2 fuentes son incongruentes, lo q
contradice el enfoq de los heurísticos, según el cual son una estrategia rápida q
se aplica o no (x lo q se esperarían tiempos más cortos). Como ya hemos dicho,
según la teoría de los modelos mentales, ante info incongruente, prima la
representativa, xo aun así se ralentiza la construcción de los modelos.

4. La facilidad con la q se pueden construir algunos modelos mentales o la


rapidez con la q se pueden evocar, hacen q las personas se centren mas en ellos,
lo cual estaría muy cercano al heurístico de accesibilidad. Esta tendencia
explicaría algunos de los sesgos antes vistos, como la insensibilidad a la
probabilidad a priori o la insensibilidad a la capacidad predictiva del dato. Como
ejemplo, podemos ver el de la pag 353 q nos viene a decir q los sujetos tienden a
utilizar un solo modelo q viene determinado x la info explicita de las premisas.

Por ultimo, veremos la teoría de los modelos mentales probabilísticos, de Gigerenzer


y coleguitas, quienes opinan q las teorías estadísticas no pueden utilizarse como
modelos normativos en los estudios sobre heurísticos, puesto q esas teorías estadísticas
se aplican sobre frecuencias o poblaciones, mientras los problemas concretos de las
personas tratan de un solo caso. X esto, defienden la no irracionalidad de las personas
en su actuación. Además, se ha comprobado q cuando el problema se presenta como
frecuencias, los sesgos de razonamiento desaparecen o se atenúan significativamente.
Aunq la desarrollaremos en el ss apartado, esta teoría de los modelos mentales
probabilísticos viene a decir q:
- Cuando las situaciones pueden ser resueltas a partir del conocimiento de una
persona, esta construye un modelo mental local q asociaría la estructura de la
tarea presentada con el conocimiento disponible.
- Cuando el conocimiento de la persona no es suficiente para emitir una
respuesta, y hay q realizar inferencias, la persona construirá un marco de
inferencia llamado modelo mental probabilístico, q veremos más adelante.

RAZONAMIENTO Y CALIBRACION

Aquí vamos a estudiar cual es la confianza q tiene el sujeto en los juicios q ha emitido,
es decir, como evalúa el propio sujeto la certeza o ignorancia de la respuesta q ha
emitido. Este puede considerarse un juicio de segundo orden: si es acertado, diremos q
el juicio de segundo orden está calibrado, sino, diremos q no lo está.

Las tareas experimentales para estudiar la calibración consisten en suministrar a los


sujetos una serie de preguntas con 2 alternativas y, posteriormente, pedirles q asignen
un porcentaje de confianza a su respuesta. Los resultados muestran:
- Q las personas responden correctamente el 80% de las veces q asignan a su
respuesta una certeza del 100%
- Este sesgo de sobreconfianza va aumentando a medida q la dificultad de las
preguntas aumenta, y disminuye (mostrando incluso subconfianza) cuando se
hacen preguntas mas fáciles.

Las interpretaciones de este sesgo de sobreconfianza pueden ser:


- Q los sujetos generan mas evidencia a favor de la propia hipótesis q en
contra de ella.
- Q los sujetos creen q la memoria es completamente fiable, lo q, si bien es
cierto en las tareas de reconocimiento (donde interviene la memoria a corto
plazo) no lo es en las tareas en las q hay q reconstruir la info.
- La falta de retroalimentación en la vida diaria (los errores de juicio a menudo
no se aprecian).
- Debida a factores motivacionales, como la ilusión de control
- Al tipo de tarea  los sujetos parecen mejor calibrados cuando tienen q
señalar un rango de resultados a los q respondería con certeza, q cuando se le
pide asignar confianza a un solo evento.

Gigerenzer, como siempre, crítica q se compare el grado de confianza de un suceso


único, ya q el error no podría considerarse como un error estadístico, puesto q este
enfoq no puede aplicarse a casos únicos. Además, se ha visto como el sesgo desaparece
cuando la pregunta q se hace a los sujetos trata sobre frecuencias (ej.: “¿cuantas de estas
preguntas consideras q has respondido correctamente?”) y no sobre un solo caso. En el
caso de frecuencias, los resultados mostraban una subconfianza del 2, 4%

Con el fin de explicar los resultados obtenidos sobre calibración, Gigerenzer y


coleguitas proponen la teoría de los modelos mentales probabilísticos q continuamos
viendo ahora.
Supongamos q se le pregunta a un sujeto q ciudad tiene mas habitantes, Heidelberg o
Bonn. Como señalábamos anteriormente, cuando el sujeto tiene el conocimiento
suficiente para resolver el problema, apelará a su conocimiento previo y asociará la
estructura de la tarea con este conocimiento.

Sin embargo, en muchas ocasiones el sujeto no tiene el conocimiento suficiente para


emitir una respuesta con certeza, x lo q tendrá q construir un marco de inferencia (un
modelo mental probabilístico), q consta de:
o La población sobre la q se plantea el problema (ej.: ciudades de
Alemania)
o Una variable sobre la q se emite el juicio (ej.: nº de habitantes)
o Una red de claves de probabilidad q generalmente covarían con la
variable (ej.: ser capital de provincia, tener un equipo en 1ª, ser familiar
para el sujeto, estar situada en una zona industrial…)

Cada una de esas claves de probabilidad tendrá una validez, x ej., si una ciudad tiene un
equipo de fútbol en 1ª y la otra no, en el 91% de los casos la primera tendrá mas
habitantes q la 2ª, x lo q la clave de probabilidad tiene una validez alta. La teoría asume
q las personas basan su respuesta en una de las claves de probabilidad, la de mas
validez, y q la confianza asignada a esta respuesta iguala la validez de la clave.

Pero tb puede suceder q la validez q asigne el sujeto a la clave no se corresponda con la


q realmente tiene. En la medida en q la validez asignada x la persona se acerq a la
objetiva, el modelo mental probabilístico estará mejor adaptado.

Esta teoría de los modelos mentales, parece q funciona bien, ya q:

- Es capaz de explicar los errores observados en preguntas de conocimiento


general q tienen trampa (ej. pag 359 del libro)

- Explica tb la mejora q se produce cuando a los sujetos se les hace estimar la


probabilidad de una frecuencia de casos (y no de casos únicos). Cuando se
le hace estimar la probabilidad de un caso único, los sujetos construyen un
modelo sobre la situación concreta (en nuestro ejemplo seria las 2 ciudades
y la validez de las claves utilizadas). X el contrario, cuando se pregunta
sobre la proporción de respuestas correctas q la persona cree q ha emitido, el
modelo estaría referido al total de preguntas respondidas y las claves q se
utilizarían, serian, x ej., el propio rendimiento en tareas similares.

Sin embargo, esta teoría no explica q la sobreconfianza sea mayor en tareas difíciles o q
se mantenga tb en aquellos casos en los q las preguntas se han tomado al azar, sin
introducir ningún elemento engañoso.

La teoría de los modelos mentales explica el sesgo de sobreconfianza sin aludir a la


calibración. Para este enfoq la sobreconfianza podría deberse a q las personas tendrían
una necesidad de satisfacción y seleccionarían los modelos q conducen a conclusiones
mas creíbles o deseables, sin buscar contraejemplos, tendiendo x tanto a pensar q la
conclusión es fiable. Con las tareas difíciles lo q ocurre es q aumentan el nº de modelos
q se ignoran, lo q aumenta la probabilidad de llegar a una respuesta incorrecta.

You might also like