Professional Documents
Culture Documents
A. MICHAEL HUBERMAN
MATTHEW B. MILES
Original: Huberman, A.M. y Miles, M.B. 1994. Data management and analysis
methods. En Denzin, N.K. y Lincon, Y.S., Handbook of Qualitative Research.
Thousand Oaks, CA: Sage. Pp. 428-444.
Definiciones y Asunciones
Definiciones operativas
1
En este capítulo definimos manejo de datos pragmáticamente como las operaciones
necesarias para un proceso sistemático y coherente de recogida, almacenamiento y
recuperación de datos. Estas operaciones tienen el propósito de asegurar:
a) datos accesibles de alta calidad
b) documentación de los tipos de análisis que se han llevado a cabo
c) conservación de los datos y análisis asociados después de completar el estudio.
2
Algunas Asunciones Epistemológicas
Una buena práctica para los investigadores es dejar claras sus preferencias.
Saber cómo los investigadores construyen la forma del mundo social y cómo intentan
darnos una descripción creíble de ello es conocer a quién tenemos al otro lado de la
mesa. Cuando, por ejemplo, un realista, un teorista crítico, y un fenomenalista social
están compitiendo por nuestra atención, es importante saber de dónde provienen.
Tendrán puntos de vista diferentes de lo que es real, lo que podemos saber y de cómo
estos hechos sociales pueden ser descritos con exactitud (Guba, 1990; Phillips, 1990;
Ratcliffe,1983).
En nuestro caso, nos hemos descrito como “realistas” (Huberman & Miles,
1985), pero más exactamente como “realistas transcendentales” (Bhaskar, 1978, 1989;
Harré & Secord, 1973; Manicas & Secord, 1982). Fundamentalmente, pensamos que los
fenómenos sociales existen no sólo en la mente, sino también en el mundo objetivo, y
que hay algunas relaciones/leyes razonables estables entre ellos. Estas leyes provienen
de las secuencias y las reglas que unen los fenómenos; es de estos fenómenos de los que
obtenemos los constructos para la vida social e individual.
Esta postura reconoce la naturaleza histórica y social del conocimiento, junto
con la producción de significado en el centro de la experiencia fenomenológica (Parker
& Addison, 1989; Polkinghorne, 1988). Nuestro objetivo es “transcender” estos
procesos, construyendo cuidadosamente explicaciones que puedan describirlos de
maneras plausibles. Así, el realismo transcendental necesita tanto las explicaciones
causales como las evidencias para mostrar que cada entidad o hecho histórico es una
instancia de dicha explicación. Por lo tanto, hay una necesidad no sólo para una
estructura explicatoria, sino también para un relato descriptivo cuidadoso de cada
configuración particular. Ésta es una razón por la que nosotros y otros nos hayamos
inclinado hacia el método de estudio más descriptivo, pero al mismo tiempo, también
más inductivo.
3
Las palabras incluídas están típicamente basadas en observaciones, entrevistas o
documentos (como apunta Wolcott, 1992, "ver, preguntar o examinar") y se llevan a
cabo dentro de una escenario concreto durante un período de tiempo sostenido. Estos
modos de recogida de datos pueden ser en su mayoría abiertos, sin estructura, producto
de un evento, o estrechamente definidos, estructurados o dirigidos por el investigador.
Normalmente, la información recogida no está inmediatamente disponible para
el análisis, sino que requiere algún tipo de procesamiento; las notas de campo puras
pueden ser garabatos indescifrables para alguien que no sea el mismo investigador y
deben ser corregidas, elaboradas, editadas y escritas/pasadas a máquina. Las cintas de
vídeo requieren un procesamiento similar.
Además de la "calidad" de los datos cualitativos, la cantidad es otro aspecto a
tener en cuenta, pues puede ser desalentadora e incluso arrolladora. Dependiendo del
nivel de detalle, un día de la notas de campo de unas seis entrevistas podría convertirse
fácilmente en 50-100 páginas a un espacio. Y, como al visitar un lugar concreto, se le
van amontonando y, además, es posible que tenga que visitar muchos lugares para
llevar a cabo su investigación, el investigador se verá pronto enfrentado a mucho más
de las "mil páginas" mencionadas por Kvale.
Finalmente, tenemos que añadir que, a no ser que haya un sistema coherente y
razonable para recoger información de un rango de informantes, a lo largo de un
potencial rango de lugares y en un formato más o menos comparable, el investigador se
hallará pronto en el limbo del manejo de datos. Esto nos conduce a los asuntos de
almacenamiento y recuperación de los datos.
Almacenamiento y recuperación
La clave para el manejo de los datos es cómo los datos son almacenados y
recuperados; sin un esquema claro de trabajo, es fácil que los datos puedan ser "mal
codificados, mal etiquetados, mal relacionados, y perdidos" (Wolfe, 1992, p. 293). Un
buen sistema de almacenamiento y recuperación es vital para mantenerse al día sobre
los datos disponibles; para permitir el fácil, fiable y flexible uso de datos --a menudo
por varios miembros del equipo de investigación-- en puntos diferentes de un período
de tiempo de la vida de un proyecto; y para documentar los análisis realizados,
permitiendo así que, en principio, el estudio pueda ser verificado o replicado.
Actualmente ha habido pocas discusiones detalladas sobre el sistema de
almacenamiento y recuperación de datos cualitativos. Una de ellas es la propuesta por
Werner y Schoepfle (1987b), quienes mostraron correctamente que un sistema necesita
ser diseñado mucho antes de la recogida de datos. Distinguen entre notas de campo sin
procesar (diarios), transcripciones, documentos y materiales interpretativo/analíticos
producidos por el investigador y subrayan la importancia de un claro sistema de
indexación.
Levine (1985) propuso cinco funciones generales del almacenamiento y
recuperación de datos: formateo (cómo los materiales están distribuidos, físicamente
encarnados y estructurados en tipos de fichero), referencias cruzadas (unión a través de
ficheros diferentes), indexación (definir códigos y organizarlos en una estructura,
relacionando los códigos con partes específicas de una base de datos), resumir (hacer
resúmenes condensados de materias más largas, como documentos o notas de campo
extensas), y numeración de páginas (números y letras localizando materias específicas
en notas de campo --por ejemplo, B J K 1 22 localiza para el Hospital de Brookside la
primera entrevista con el Dr. Jameson, realizada por el investigador Kennedy, página
22).
4
Estas funciones, tradicionalmente conseguidas a través del libro de notas, las
tarjetas de índice, las carpetas..., se pueden llevar a cabo mucho más rápida y fácilmente
mediante el empleo de software (para sugerencias específicas, ver Weitzman & Miles,
1993; ver también Richards & Richards, Capítulo 28 de este volumen). Aún así,
también es necesario un sistema de fichas físico para las notas de campo sin procesar,
copias de transcripciones, cintas de audio, memos y similares. Hemos propuesto una
lista sobre qué información necesita ser almacenada, recuperada y normalmente
retenida durante un número de años posteriores para un estudio cualitativo (Miles &
Hubeman, 1994; ver la tabla 27.1).
Una última observación: un sistema de manejo de datos, su revisión efectiva y su
uso a lo largo del tiempo no ocurren en un vacío social, sino en el contexto real del
personal de la plantilla del proyecto, trabajando sobre un número de persona-días (que
típicamente suman 5-10 veces más tiempo que el tiempo en el campo), y conectado por
un acuerdo de grupo de trabajo con la gente que participa en el estudio (informantes y
respondentes) sobre el tiempo, energía, flujo de información y productos que serán
incluidos. (En Miles & Hubeman, 1994, aparecen sugerencias específicas sobre estos
tópicos.)
5
Análisis
Seremos breves ya que esta materia queda ya cubierta en este volumen (ver
Janeesick, Capítulo 12). En primer lugar, el diseño de los estudios cualitativos puede ser
considerado, en un sentido real, como analítico. La elección de un marco teórico, de las
preguntyas a investigar, de las muestras, de la definición de "casos" en sí y de la
instrumentación influye de manera anticipada sobre la reducción de datos --la cual,
como hemos indicado, es un aspecto esencial del análisis de los datos. Estas elecciones
tienen una función de unión y focalización, descartando ciertas variables, relaciones y
asociaciones de datos y seleccionando otras para nuestra atención. Éstas también llaman
a un trabajo creativo. En efecto, los diseños cualitativos no son copiables, fuera de sus
propios patrones, pero normalmente tienen que ser construidos por encargo, revisados y
"coreografiados" (Preissle, 1991).
Segundo, existe un mérito en ambos diseños, los "relajados", dirigidos
inductivamente y los "rigurosos", con un acercamiento más deductivo. Los primeros
funcionan bien cuando el terreno no es familiar y/o excesivamente complejo, si incluye
un caso único, y si el intento es exploratorio y descriptivo. Los diseños más rigurosos
están indicados cuando el investigador tiene un buen conocimiento previo del terreno,
una buena fuente de conceptos bien estructurados y aplicables, y toma una postura más
explicativa y/o confirmatoria incluyendo casos múltiples y comparables.
Los estudios cualitativos pretenden definir o explicar (a cualquier nivel) un
patrón de relaciones, lo cual sólo podemos hacerlo con un grupo de categorías analíticas
conceptualmente especificadas (Mishler, 1990). Empezando con ellos (deductivamente)
o llegando gradualmente a ellos (inductivamente), ambos caminos son legítimos y
útiles. Los componentes de tales diseños están descritos en el apéndice de este capítulo.
6
Investigación Iterativa
7
(10); y encontrar variables intermedias (11). Finalmente, para construir una
comprensión coherente de un grupo de datos podemos ayudarnos construyendo una
cadena lógica de evidencias (12) y haciendo coherencias conceptuales/teóricas,
normalmente a través de la comparación con constructos de referencia en la literatura
(13).
Descripción y Explicación
8
"agrupaciones" o "hechos claves" selectivamente extraídos. La analogía es el output de
paquetes estadísticos, los cuales (a) permiten llevar a cabo análisis conjuntamente con
los datos expuestos, (b) permiten al analista ver qué otros análisis necesita, (c) facilitan
la comparabilidad a través de grupos de datos, (d) incrementan la credibilidad en los
informes de investigación donde las presentaciones de datos normalmente acompañan a
las conclusiones.
Aquí también el análisis es secuencial e interactivo. Los datos presentados y el
texto escrito que emerge de las conclusiones de un investigador se influencian
mutuamente. La exposición ayuda al escritor a observar patrones; el primer texto hace
que la exposición tenga sentido y sugiere nuevos movimientos analíticos en los datos
mostrados; una exposición revisada o extendida señala nuevas relaciones y
explicaciones, produciendo un
texto más diferenciado e integrado, y sucesivamente. Las presentaciones fomentan el
análisis y éste fomenta presentaciones más potentes y sugestivas.
9
clásico!). En la práctica la teoría tiene otro lado oscuro que surge durante el análisis.
Buena muestra de esto es la comparación entre los estudios de Everhart (1985a, 1985b)
y Cusick (1985a, 1985b) sobre el significado de aprendizaje y enseñanza, analizado por
Noblit (1988). Aunque ambos estudiaron escuelas secundarias americanas, Noblit
demuestra que sus interpretaciones variaron ampliamente. Los supuestos de la teoría
crítica de Everhart llevaron a éste a centrarse en los alumnos y en la escolarización
como una manera de "proletariezación" del alumnado y a reproducir las estructuras del
capitalismo a través de jerarquías y en la distribución de la información (como algo
material, "cosificada") dada a los alumnos, considerándolos como "recipientes vacíos".
Los supuestos estructuro-funcionalistas de Cusick le llevaron a enfocar la escuela como
algo creado por una plantilla de trabajadores (staff), y la escolarización como algo
conducido por un "ideal de igualdad", comprometido por la animosidad racial, con
"conocimientos poco atractivos", tomando un segundo lugar para las "relaciones
amistosas" con los alumnos. Cada investigador, de manera poco sorprendente, vieron
las formulaciones del otro como "ideológicas". La fidelidad al "marco teórico"
preexistente, llevó a cada uno a conclusiones dramáticamente diferentes sobre
fenómenos muy similares.
Aún más, la frontera entre teoría y datos es permeable. Como señala Van
Maanen (1979), actualmente sólo hay conceptos de primer orden -- los llamados
"hechos de estudio", que nunca "hablan por sí mismos"-- y conceptos de segundo orden
-- las "nociones usadas por el investigador para explicar los patrones de los conceptos
de primer orden" (pp. 39-40)--. Por lo tanto, los "hechos" que uno descubre ya son
producto de muchos niveles de interpretación (Van Maanen, 1988).
Los investigadores cualitativos, por lo menos, necesitan entender cómo están
comprendiendo la "teoría" mientras progresa el análisis, ya que esta comprensión
inevitablemente influenciará y limitará --conscientemente o no-- la recogida, reducción
y presentación de datos, así como la formulación y verificación de conclusiones.
Algunos constructos incluyen lo siguiente:
• "marco teórico", como se ha explicado anteriormente: congruencia de
algunos constructos mayores, bien articulados
• un "mapa" destinado a generalizar la historia (o historias) contada sobre un
caso (Rein & Schön, 1977)
• un patrón de eventos parecidos, para ser comparado con lo que realmente se
observa (Yin, 1991)
• un modelo, con una serie de proposiciones conectadas que especifican
relaciones, a menudo jerarquizadas, entre los componentes (Reed & Furman,
1992)
• una red de relaciones no jerárquicas, expresadas por declaraciones que
definan conexiones entre conceptos (Carley, 1991)
Ser claro sobre tales constructos es también importante para conseguir las
funciones clave descritas anteriormente debido al uso cada vez mayor de software de
análisis cualitativo. Éstos también tienen suposiciones incorporadas en sí mismo sobre
la "teoría" (ver Weitzman & Miles, 1993). Por ejemplo, programas como Ethnograph
(Qualis Research Associates, 1990) y NUD IST (Richards & Richards, 1989) ayudan al
usuario a desarrollar teorías a través de códigos relacionados jerárquicamente (A es un
ejemplo de un concepto de más alto nivel que B, que a su vez es un concepto general de
C), mientras otros, como ATLAS/ti (Mühr,1991), HiperRESEARCH (Hesse-Biber,
Dupuis; & Kinder, 1990), y MECA (Carley, 1991), se centran en la teoría como una red
10
de uniones entre entidades (A promociona a B, es parte de C que "tapona" D, que
precede a E [el cial también es parte de B], y así sucesivamente).
11
mecanismo plausible conecta A y B) tenemos que añadir otros, como los propuestos por
Hill (1965) en Epidemiología: fuerza de asociación (mucho más B con A que con
cualquier otra causa posible), gradiente biológico (si más A, entonces más B),
coherencia (la relación A-B encaja con lo que más sabemos sobre A y B) y analogía (A
y B son similares a patrones bien establecidos, notados sobre C y D).
Cuarto, siempre existen múltiples factores causales: las causas siempre son
múltiples y "conjuntares", combinándose y afectándose unas a otras tanto como
afectando a sus supuestos efectos (Ragin, 1987). Causas y efectos deben ser
considerados como configurados en redes --ellos mismos profundamente afectados por
el contexto local.
Finalmente, analizar la causalidad es, por la naturaleza de la materia, un asunto
retrospectivo, que requiere que indiquemos cómo "algún evento ha ocurrido en un caso
particular" (House, 1991). Por lo tanto, necesitamos el método de los historiadores de
"habilidad de seguimiento" (Abbot, 1992) y típicamente estaremos haciendo "una
recogida retrospectiva de eventos en una acción que hace que el final sea razonable y
creíble... configurando los eventos de tal manera que sus partes en la historia completa
queden claras" (Polkinghorne, 1988, p. 171; compara la discusión de Scriven [1974]
sobre el enfoque del "modus operandi").
Las cuestiones causales de sentido común aquí extraídas son, en su mayoría,
aqéllas propuestas por Lofland & Lofland (1984): ¿Cuáles son las condiciones bajo las
cuales aparece [X]? ¿Qué facilita su aparición? ¿Cuáles son las circunstancias en que
posiblemente va a ocurrir? ¿En la presencia de qué condiciones es probable que sea un
resultado? ¿De qué factores depende la variación en sí misma? ¿Bajo qué condiciones
está presente? ¿Bajo qué condiciones está ausente?
Por supuesto, una explicación causal útil debería aplicarse necesariamente a más
de un caso. Mediante inducción analítica (Manning, 1982; Miler, 1982) una descripción
causal se obtiene en un caso y puede ser probada en cualquier otro sitio, pudiendo ser
apoyada, calificada o sujeta a revisión. Ahora nos enfrentaremos a la cuestión del
enfoque en el análisis de casos cruzados.
12
configuraciones diferentes. Y cada configuración puede ser considerada una réplica de
los procesos o preguntas bajo estudio. Los casos múltiples también identifican
configuraciones (de actores, de reglas funcionales, de influencias causales) que pueden
ser ciertas en algunos ambientes, pero no en otros. Por lo tanto salimos con distintas
"agrupaciones" o "familias" de casos.
Pero el trabajo analítico de ambientes cruzados no es tan simple. Denzin (1989)
ha señalado que cuando aparece el alcohólico A, con un perfil muy diferente del
alcohólico B, los dos no pueden ser directamente comparados a no ser que elijamos un
enfoque sobre las características comunes más abstractas. Así, existe un peligro de que
los casos múltiples sean analizados a altos niveles de inferencia, uniendo las redes
locales de causalidad y terminando con un grupo aproximado de generalizaciones que
puede ser que no se ajuste a ningún caso individual. Esto ocurre con más frecuencia de
la que desearíamos recordar.
La tensión producida aquí es la de reconciliar lo particular con lo universal:
reconciliar la exclusividad de un casos individual con la necesidad de entender los
procesos genéricos en juego a través de los casos (Silverstein, 1988). Silverstein plantea
que cada individuo tiene una historia específica --corriendo el riesgo de descartarla--
pero es una historia contenida dentro de los principios generales que influyen en su
desarrollo. De manera similar, Noblit & Hare (1983) proponen un caso sólido para
preservar la exclusividad, aunque también realizando comparaciones. Más
recientemente, también nos han advertido contra la realización de promedios en los
resultados a través de los casos, para evitar malinterpretaciones y superficialidad (Noblit
& Hare, 1988).
13
decisión de Nynke quedarían claros. También ayudaría a "encarnar" cómo los cinco
predictores se asemejan individualmente y cómo interaccionan colectivamente. Ello, a
su vez, sacaría a la superficie patrones recurrentes, "familias" o "grupos" de casos
configuraciones características.
Como muestra Ragin (1987), tal metodología de casos orientados examina cada
entidad, entonces saca a la luz configuraciones dentro de cada caso y los somete a
análisis comparativo. En estas comparaciones (de un menor número de casos), las
similitudes sumergidas y asociaciones sistemáticas han sido buscadas con referencia a
una variable principal de resultado. Desde aquí, podría explicarse un modelo más
aclaratorio, al menos para los casos bajo estudio.
Cada enfoque tiene sus más y sus menos. El análisis Variable-orientado es
bueno para encontrar relaciones probabilísticas entre variables en una población grande,
pro tiene dificultades con complejidades causales, o al tratar con submuestras. El
análisis de casos orientados es bueno para encontrar patrones específicos, concretos,
patrones históricamente fundados comunes a pequeños grupos de casos, pero sus
conclusiones resultan particularísticas, aunque algunos autores argumentan que poseen
especialmente un mayor grado de generalización. 1
Existen muchas maneras de proceder con los datos de casos múltiples, o datos
que provienen de varias fuentes. A continuación tenemos una breve descripción de
estrategia, que viene del debate de casos versus variables de orientación que acabamos
de revisar.
1
Ésta es una distinción crucial y ha sido tratada de varias maneras. Para tratamientos recientes, ver Maxwell & Miler (1992) y
Runkel (1990).
14
enfoque de casos orientados, organizando a los profesores en seis tipos basados en la
configuración inicial de los temas.)
A menudo una variable clave se presenta sola durante el análisis de ambientes
cruzados. La estrategia aquí puede ser llamada clarificación de patrones. Por ejemplo,
Eisenhardt (1989a) encontró evidencias para el constructo de "centralización de poder"
observando datos sobre el comportamiento de CEO en 10 compañías de ordenadores.
Su matriz de presentación incluyó adjetivos describiendo estilos de decisiones, medidas
cuantitativas, funciones organizativas llevadas a cabo por el CEO y algunos descriptores
"camafeo" (por ejemplo, "[Él] se basa en elegir buenos trabajadores y dejarlos
trabajar").
Estrategias Mezcladas
15
La secuencia está estructurada cuidadosamente. En particular, incluye una
mezcla analítica que combina metodologías, en vez de basarse en una y añadir otras
esencialmente como apéndices. Otros ejemplos de estrategias combinadas se pueden
encontrar en el trabajo de Abbot (1992), Gladwin (1989) y Huberman (1991).
Técnicamente, los análisis de casos cruzados se realizan más fácilmente con
"presentaciones": en matriz u otras muestras de datos que permitan al investigador
analizar, de manera condensada, el grupo de datos completo, para ver literalmente lo
que hay ahí. A partir de aquí, pueden ocurrir varias cosas: El investigador puede volver
al campo para obtener los datos que le faltan; se puede realizar otra muestra para
observarla mejor; se pueden reconfigurar las columnas, filas o todas las entradas.
Habitualmente, el investigador comienza con una metamatriz parcialmente
ordenada, la cual muestra la información básica de varios casos en un gran diagrama. A
continuación vienen las presentaciones descriptivas o conceptualmente ordenadas,
matrices temporoordenadas, matrices de efectos y análisis secuenciales compuestos,
mostrando el movimiento de casos diferentes a través de un flujo generalmente
estructurado de acontecimientos y condiciones.
Miremos a la matriz de estructura dispersa presentada para 12 casos (distritos
escolares) mostrada en la Figura 27.3. Nos muestra que esto es simplemente una tabla
de contingencia, cruzando dos variables ("implementación temprana" y "estabilidad
práctica") con una tercera ("nivel de asistencia"). Además cada una de las variables en
juego es puesta en escala para que los casos puedan ser organizados y examinados de
una manera bastante comparable.
Típicamente, estos tipos de diagramas, que provienen del cuidadoso trabajo de
los casos orientados, constituyen una salida analítica variable-orientada. Con esta
presentación a mano, el investigador usualmente vuelve a los datos del nivel de casos.
¿A qué corresponde esta bastante temprana implementación en Masepa & Plumet, y son
éstos dos casos comparables? ¿Parecía que la "asistencia" tenía poco efecto en la
"implementación temprana", y si así era, por qué? ¿Y qué pasa con los casos
compensatorios del grupo B? ¿Qué era el patrón de asistencia, el flujo a lo largo del
tiempo, la relación entre la asistencia y la estabilidad percibida por los informantes? De
esta manera, este examen se dirige a otra presentación, usualmente en una forma
diferente, que organiza los casos según la forma en que estas preguntas han sido
propuestas. En otras palabras, las presentaciones aparecen típicamente en secuencia: no
ordenadas, ordenadas por casos en una o varias dimensiones de interés, reagrupadas por
familias de casos que comparten algunas características, y presentadas de nuevo como
un grupo interconectado de variables más explicatorias, que den apoyo a los grupos de
casos que han sido identificados.
Verificación de Conclusiones y
Amenazas para la Validez Analítica
16
investigaciones cualitativas. Esto no es tanto un problema de dasarrollo como una
ausencia de consenso en decidir la base sobre la cual los descubrimientos estén
considerados plausibles o convincentes y qué procedimientos sean considerados
legítimos.
Sin embargo, aparecen algunos rasgos comunes de procedimiento, en el proceso
secuencial de analizar, concluir y confirmar descubrimientos en el formato del campo
de estudio. En ambos casos, el investigador se mueve desde ciclos inductivos en la
recolección y análisis de los datos a ciclos deductivos de experimentación y
verificación. Como hemos señalado, el proceso de muestreo explicatorio y
confirmatorio conduce a decisiones sobre qué datos hay que recoger después.
Gradualmente, estas construcciones de datos se hacen más "conclusivas". Más o menos,
la mayoría de los investigadores "naturalistas" se suscriben a este ciclo analítico básico.
Verificación
17
En el desordenado mundo de la investigación empírica, sin embargo, las
medidas independientes nunca convergen totalmente. Las observaciones no encajan
completamente con los datos de la entrevista, ni las inspecciones con la información
escrita. En otras palabras, las fuentes pueden ser inconsistentes o incluso chocantes, sin
ninguna manera fácil de solución. En tales casos, de hecho, necesitaremos empezar por
una nueva manera de pensar sobre los datos disponibles (Rossman & Wilson, 1985).
Más allá de eso, la triangulación es más un modo de inquirir que una táctica.
Por muy conscientemente que haya intentado coleccionar y doble-comprobar los
descubrimientos, usando múltiples fuentes y modos de evidencia, el investigador
convertirá el proceso de triangulación en un seguimiento de la recogida de datos. Será la
manera en que él o ella llegaron al descubrimiento en primer lugar, viendo o
escuchando múltiples instancias de ello en fuentes diferentes y encajando los
descubrimientos con otros con los que deberían coincidir.
Con esta lógica en mente, hemos desarrollado una lista de "tácticas" para
comprobar o confirmar conclusiones (Miles & Huberman, 1984, 1994). Las tácticas
para evitar las inclinaciones más obvias son las siguientes: comprobar la
representatividad, comprobar el efecto del investigador (reactividad), y triangular y
pesar la evidencia (dependiendo de medidas más robustas). Las tácticas para comprobar
la viabilidad de los patrones cambian de sentido hacia la búsqueda activa de contrastes,
comparaciones, grupos de datos fuera del límite y casos extremos. Las pruebas más
elaboradas para las conclusiones requieren intentos para tachar o suprimir conclusiones
espúreas, replicar descubrimientos clave, comprobar explicaciones rivales y buscar
evidencias negativas. Por último, en cualquier momento de este ciclo se puede usar la
retroalimentación (feedback) con los informantes.
Un enfoque más general y comprensivo para la verificación de descubrimientos
y conclusiones es la "auditoría" (ver la sección siguiente; ver también Schwandt &
Halpern, 1988). Aplicada a la investigación empírica, la auditoría es una metáfora de la
contabilidad para el repaso sistemático, por un examinador externo, de un estudio dado.
Su interés principal puede ser menos la calidad de un repaso externo que la posibilidad
de los investigadores cualitativos de tener una lista de bases analíticas donde agarrarse,
de manera que los colegas rigurosos e interesados puedan determinar si el muestreo, las
mediciones y el análisis que llevaron alas conclusiones y explicaciones principales son
sólidas frente a las fuentes más comunes de inclinación y error.
18
Tenemos la inatractiva doble atadura donde los estudios cualitativos no pueden
ser verificados porque los investigadores no informan sobre su metodología, y
no informan sobre su metodología porque no hay cánones o convenciones
establecidas para hacerlo. (Miles & Huberman, 1984, p. 244)
Soluciones
19
• ¿Podemos justificar las decisiones de inquirir y los cambios de la metodología?
(¿Están conectadas las decisiones del muestreo con la hipótesis de trabajo?)
• ¿Cuál es el grado de inclinación (cierre prematuro, datos de las notas de campo no
explorados, falta de búsqueda para casos negativos, sentimientos de empatía) del
investigador?
• ¿Qué estrategias se usaron para incrementar la credibilidad (segundos lectores,
feedback con los informantes, repaso por colegas, tiempo en el campo adecuado)?
Parece que tales auditorías no se usan extensivamente, pero cuando sí lo hacen (ej.
Merryfield, 1990), parecen tener efectos decididamente saludables, especialmente en la
promoción del mantenimiento sistemático de la documentación y la reflexividad.
Algunos Problemas
20
diferentes para asegurar la validez y la dependencia de los descubrimientos del estudio,
podría haber un grupo de convenciones compartidas junto con reglas específicas para
los investigadores que trabajan en áreas diferentes. Estamos acercándonos a ello.
Todavía la transparencia no es fácil cuando trae un peso añadido y una mayor
posibilidad de exponerse a los juicios de colegas profesionales.
Marco conceptual. Esto ilustra los factores, constructos o variables clave y las
relaciones supuestas entre ellos. Hemos argumentado que las presentaciones gráficas de
"bins" (variables principales) conectadas por flechas direccionales especificando
relaciones intravariables son útiles para hacer que los marcos de los investigadores
queden claros (Miles & Huberman, 1984). Los marcos conceptuales, incluso en diseños
"sólidos", son normalmente reiterados a lo largo de la vida del estudio.
Muestreo. Las elecciones de muestreo dentro o a través de los casos son poderosamente
determinantes en justo qué datos serán considerados y usados en el análisis. Los
investigadores cuantitativos a menudo piensan randomizadamente, estadísticamente y
en términos de selección de casos fuera del contexto (abstractamente). Los
investigadores cualitativos característicamente tienen que pensar sobre el propósito y
conceptualmente en el muestreo (ver para sugerencias específicas Miles & Huberman,
1984).
21
Además, dentro de cada caso (incluso cuando el caso es un individuo), el
investigador necesita hacer muestreos en un intrincado rango de actividades anidadas,
procesos eventos, situaciones y tiempos (Bogdan & Biklen, 1982; Lofland, 1984;
Schwartzman & Werner, 1990; Woods, 1979); tales elecciones están dirigidas por
teorías (Glaser & Strauss, 1967), y no por preocupaciones con la "representatividad".
Las elecciones de muestreo también evolucionan típicamente a través de olas sucesivas
de colecciones de datos. Esto también es válido para muestreos a través de casos. Otra
vez aquí, el asunto no es tanto la búsqueda para la generalización convencional, sino
más bien un entendimiento de las condiciones bajo las cuales un descubrimiento
particular aparece y funciona: cómo, dónde, cuándo, y por qué actúa como lo hace. Los
casos múltiples son especialmente importantes como "grupos de comparación" (Glaser
& Strauss, 1970); También permiten una estrategia de "replicación" (Yin, 1991), donde
los descubrimientos de casos individuales están sucesivamente comprobados en una
siguiente serie de casos. Cuando los casos múltiples están cuidadosamente ordenados a
lo largo de una dimensión clave, las explicaciones poderosas son más probables (ver
Eisenhardt, 1989b).
*Referencias
22