You are on page 1of 8

UNIVERSIDAD DE BUENOS AIRES 2º CUATRIMESTRE 2010

FACULTAD DE CIENCIAS SOCIALES


CARRERA DE SOCIOLOGIA
Cátedra: Sautu

METODOLOGIA Y TECNICAS DE LA INVESTIGACION SOCIAL II

Punteo de Clase 5:
Primeras etapas del procesamiento de datos en las investigaciones cuantitativas

Objetivo del documento:


Sintetizar los principales contenidos de la clase teórica 5 del cronograma original de la materia y
guiar a los alumnos su tratamiento; recuperando textos de la bibliografía obligatoria, de otros
autores y ejemplos extraídos de investigaciones anteriores.

Primeras etapas del procesamiento de datos en las investigaciones cuantitativas

Si bien todo investigador en formación aspira a poder realizar los tabulados principales
cuánto antes, una primera y básica recomendación de quienes están más entrenados en
hacer investigación cuantitativa es ir paso a paso y con cautela hacia el testeo de las
hipótesis centrales que se postularon al escribir el proyecto de investigación. Esto es:
existe una serie de recaudos y decisiones de diseño anteriores al momento de análisis
propiamente dicho que no pueden pasarse por alto. Los manuales hablan de los
“preliminares del análisis” para recuperar esas actividades posteriores al trabajo de campo
y anteriores al análisis estadístico. Estas tareas a veces se invisibilizan y/o se desestima
su relevancia, pero son absolutamente necesarias para lograr construir datos de buena
calidad.

El primer peldaño en la preparación de los datos para el análisis es la recepción y edición


de cuestionarios y su codificación (tema de clases previas). Las instancias siguientes que
aquí se abordan son: 1) la definición de matriz; 2) su conversión en una base o archivos de
datos; y 3) la depuración de la base y la evaluación de la calidad de los datos.

Específicamente, esta clase explicitará una serie de criterios que contribuyen a tomar
decisiones respecto del diseño de la base de datos; la consistencia de la información y la
elección del programa informático más apropiado para el trabajo con datos estadísticos.
Antes de ello, vale la pena revisar la noción y componentes de una matriz de datos,
sustento de cualquier análisis estadístico.

1. El concepto de matriz de datos.

El punto de partida de la mayoría de los textos metodológicos es la necesidad de


deconstrucción de la noción de dato. La bibliografía insiste una y otra vez que el dato no es
un espejo de la realidad (si por ésta entendemos a aquellas situaciones o fenómenos
sociales que están por fuera y son independientes del sujeto que investiga), sino una
construcción del investigador, impregnada de teoría y que es registrada o documentada en
algún soporte físico (papel, grabador, filmación, cámara fotográfica) para su posterior
codificación y análisis.

Cualquier “dato” de una investigación cuantitativa tendrá que poder expresarse en valores
de variables que caractericen a las unidades de análisis en estudio. Por eso es que se
habla de la estructura tripartita del dato (Galtung 1966) aludiendo a sus tres componentes
ineludibles: valores, variables y unidades de análisis (conceptos que ya han sido materia
de aprendizajes previos en Metodología I).

1
Pero, ¿qué hacer con los datos una vez que han sido recabados? Allí es donde aparece en
escena la matriz de datos. Si aplicamos algún tipo de cuestionario estructurado será
necesario plasmar y registrar las respuestas de cada encuestado de modo tal de tenerlas
físicamente juntas y en un formato similar que permita su análisis. Para ello, ya hemos
visto la importancia de contar con un buen cifrado o codificación de las respuestas
cerradas, el cual puede anticiparse ya a la hora de diseñar el cuestionario y en el manual
de códigos. Cuando el diseño gráfico también incluye columnas de codificación, se
minimizan las posibilidades de errores de cargas (Figura 1).

Figura 1: Pregunta con valores de respuesta precodificados y columnas de codificación


14. ¿Quién eligió el tema de tu beca: vos o tu director/a? (marcar con una X una sola opción)
(1) Yo (2) Mi director/a (3) Conjuntamente p14

En caso de preguntas abiertas, habrá que tomarse el trabajo de cerrar las respuestas
formulando un sistema de categorías lo más ajustado posible a las respuestas obtenidas, a
posteriori de la recolección de la información (tema abordado en la segunda clase del
cuatrimestre). En cualquier caso, toda la información recolectada deberá estar codificada
antes de iniciar la carga de las encuestas, preferentemente mediante números (pues los
programas informáticos ofrecen mayores posibilidades de análisis con la conversión de los
formatos de variable alfanuméricos a numéricos).

La sistematicidad de los criterios de codificación es central. Por ejemplo, si en la encuesta


algunos ítems no fueron respondidos (“NS-NC”) y otros, directamente no se preguntaron
(“No corresponde”), estas diferentes situaciones debieran distinguirse en los códigos la
base, cuestión que muchas veces desatendida por los investigadores. Por ejemplo, es
habitual que los NS-NC sean codificados con el número 9 (9, 99 o 999 según la cantidad
de dígitos de la clasificación). Los “No corresponde”, en cambio, se aplican cuando la
pregunta no se debe realizar a un encuestado con ciertos atributos (por ejemplo, si se trata
de un niño o niña, no se le va a realizar la serie de preguntas referida a su historia
reproductiva); y muchas veces se dejan como blancos o vacíos en la matriz (información
sin codificar que aparece como “casos perdidos” al procesar los datos).

Es evidente que en la matriz los datos están desplegados al máximo. Cortés y Rubalcava
(2000) sugieren una buena definición de una matriz de datos:
“Las unidades de registro1 y las variables se ordenan en la matriz de datos, que no es
más que un arreglo rectangular con tantos renglones como unidades hay y con una
columna para cada variable. Las casillas de la matriz, definidas por la intersección de
renglones y columnas, contienen “los valores” de las variables” (6).

La relevancia de la matriz de datos queda clarificada por los autores al concebirla tanto
como un punto de partida para el posterior análisis estadístico como “un punto de llegada
que enlaza la esfera de la conceptuación con la del registro empírico” (2000: 6). Para
Cortés y Rubalcava (2000) los temas que involucra la definición de la matriz como punto
de llegada son, a saber:
i) Análisis de correspondencia entre indicadores y conceptos teóricos
ii) Análisis de validez y confiabilidad de indicadores: certidumbre que miden lo que
se proponen medir y estabilidad de la medición.
iii) Definición de columnas adicionales para los índices que sintetizan la
información de varios indicadores de una misma variable abstracta.
1
Los autores prefieren este término al de unidad de observación, “a fin de enfatizar que los datos no
surgen de una percepción casi inmediata sino de operaciones que se apoyan en consideras teóricas
y técnicas!” (Cortés y Rubalcava, 1990: 6).

2
iv) Asumir que la matriz es independiente de las fuentes y métodos de recolección
de datos. La información podrá haber sido recadaba a través de encuestas,
observaciones, textos o filmaciones o provendrá de fuentes secundarias, pero
la matriz que despliega toda esa información y reúne a los casos estudiados
tiene una misma forma y estructura.
v) Asumir que la matriz tampoco cambia de forma si la cobertura del estudio es
censal o muestral.
vi) Definición de la unidad de registro más apropiada al problema de investigación
(en la jerga más conocida por Uds., los autores refieren a la unidad de
observación o recolección).
Ejemplo 1: en la primera beca de CONICET que obtuve al recibirme había
comenzado a estudiar la informalidad en la fuerza de trabajo. Per más tarde,
mi tesis de maestría se centró en la informalidad al nivel de los hogares; por
eso, si en un primer momento mi universo de estudio era la Población
Económicamente Activa del Area Metropolitana de Buenos Aires;
posteriormente, trabajé con la población de hogares del AMBA; lo que
implicó pasar de trabajar con unidades de análisis individuales a colectivas.

vii) Definir si la unidad de análisis es o no la unidad de registro. En ocasiones


ambas no coinciden y habrá que generar una nueva matriz acorde a la unidad
de análisis.
Ejemplo 2: la unidad de registro de las variables ocupacionales (entre otras:
la categoria ocupacional o el nivel de ingresos laborales) de la Encuesta
Permanente de Hogares necesarias para establecer quiénes eran los
trabajadores informales del hogar era individual (pues esas variables se
relevan para cada una de las personas económicamente activas de cada
hogar). Como uno de los objetivos de la tesis de maestría era cuantificar y
caracterizar a los hogares con fuerza de trabajo informal se debió construir
una base de datos agregada con unidades de análisis colectivas: cada uno
de los hogares del AMBA. Es decir, a partir de los datos recabados para las
unidades individuales pudimos construir variables colectivas y contabilizar
hogares (en vez de personas).

Pero el máximo despliegue de los datos en una matriz impediría cualquier tipo de análisis
si no mediara algún procedimiento que permitiera su simplificación, es decir, el
agrupamiento de los casos en función de determinadas variables (solas o puestas en
relación). Es en tal sentido que Rose y Sullivan señalan que la simplificación de la
complejidad inicial de los datos implica “una pérdida de alguna información a cambio de
ganar en habilidad para comprender procesos sociales” (2000: 82).

Por último, clarifiquemos para esta y las siguientes clases que el análisis de datos refiere a
“la explicación de la varianza, de por qué hay variabilidad en una población o muestra con
respecto a una característica particular de alguna importancia teórica.” (Rose y Sullivan,
2006: 81).
Ejemplo 3: podría postularse que los estudiantes de escuelas técnicas tienen una
valoración más alta de su educación frente a los que asisten a escuelas medias
comunes, basándonos en estudios previos que sostienen que los estudiantes
ingresan a este tipo de establecimientos por elección intencionada de una
orientación determinada del plan de estudios, favoreciendo el gusto por los
aprendizajes allí adquiridos. A tal fin, habría que establecer cómo la variación en la
valoración de la educación (variable dependiente) está influenciada por el tipo de
escuela técnica o no técnica (variable independiente).
En términos algo más formales diríamos que se trata de explicar cómo un cambio en la
variable Y está asociado con un cambio en la variable X.

3
Con estos elementos presentes, estamos ya en condiciones de pasar a los siguientes
puntos de la clase.

2. El diseño de la base de datos o diseño de registro.

Para diseñar o crear una base de datos hay que definir su estructura, su unidad de
análisis, el software de carga y procesamiento, armar y aplicar el manual de códigos y
planificar qué consistencias se harán en el primer momento del ingreso de los datos (Tabla
2).

Tabla 2. Decisiones para “crear” una base de datos:


a) Definir la/s unidad/es de análisis de la base
b) Elegir el software para la carga y procesamiento de datos estadísticos
c) Construcción de estructura de la base
d) Cargar y Acondicionar la base de datos

a) Definir unidad de análisis de la/s base/s

La decisión principal es si voy a crear una o varias bases de datos, en función de si el


estudio trabaja con una o varias unidades de análisis, y si se las planifica analizar
conjuntamente o no. La cuestión es sencilla cuando se trabaja exclusivamente con una
unidad de análisis que coincide con la unidad de observación.
Ejemplo 4: Si estoy realizando un estudio sobre opiniones y usos de los servicios
de salud públicos entre la población atendida recientemente en aquellos y para ello,
relevo una encuesta a cada paciente adulto atendido en hospitales del conurbano
bonaerense durante una semana calendario de agosto de 2010, la unidad de
análisis coincidirá con la de observación.

En cambio, en los dos ejemplos siguientes de fuentes de datos secundarios hay varias
unidades de análisis (cuyo uso exclusivo o combinado dependerá en cada caso, de los
objetivos de investigación):

Ejemplo 5: La Encuesta de Hogares de Argentina recaba datos sobre hogares y


sobre personas, que se plasman en dos bases de datos diferentes: en una se
cuentan hogares (es decir: cada fila de la matriz es un hogar) y en la otra, la unidad
de registro es la persona (cada fila corresponde a un individuo).

Ejemplo 6: Las estadísticas educativas recabadas por el Ministerio de Educación


anualmente en las escuelas públicas y privadas recolectan información con
distintos niveles de agregación (o sea: variables que clasifican diferentes unidades
de análisis individuales y colectivas) tales como: datos que caracterizan al
establecimiento (como el total de cargos docentes) y otros que caracterizan a cada
división (las mujeres y varones matriculada/os en la división de 1º Bº del turno
tarde).

En ambos ejemplos la fuente capta información para más de una unidad de análisis y en
consecuencia, provee más de una base de datos. En estos dos casos expuestos, es muy
importante que ambas bases contengan al menos un campo (variable) en común para
vincular la información entre bases. De acuerdo al ejemplo 5: deberá coincidir el número
de hogar de la base Hogares y de la de Personas; en el ejemplo 6: el “Código Unico del

4
Establecimiento” educativo tendrá que coincidir y estar configurado del mismo modo en las
bases de establecimientos y en las de divisiones2.

b) Elegir el software para la carga y procesamiento de datos estadísticos

“El paso más importante antes de comenzar a diseñar un proceso de entrada de datos
es determinar qué programas se utilizarán para analizar los datos y convenciones
concretas respecto a los formatos de ficheros y de missing data, que pueden
manejarse para esos programas” (Fowler, 1988; 128 en Cea D`Ancona, 1996).

Ya al momento de definir las unidades de análisis de mi o mis base/s de datos estaré


pensando en qué software utilizaré para cargar y procesar la información.

El pasaje desde la matriz a una base de datos requiere definir los programas informáticos
de carga y procesamiento de los datos. A veces se carga y procesa con el mismo software
y en otras ocasiones, ambas operaciones se realizan con diferentes aplicaciones.

Centrándonos en el momento de la carga, ésta puede hacerse en aplicaciones sencillas de


uso difundido (tales como las planillas de cálculo) o en programas de carga especiales,
hechos “a la carta” del operativo o encuesta en cuestión. En el primer caso, la limitación es
que las planillas de cálculo de uso corriente (entre otras, el Excel del Paquete Microsoft
Office) solo habilitan sencillos controles de los errores de carga (validaciones) y su ventaja,
el costo, la rapidez y el manejo conocido del software. En el segundo, la principal ventaja
es que puede incluir controles de errores (consistencias) más avanzados durante la carga,
y su limitación: el mayor tiempo y costo de producción del aplicativo (un programador debe
programar el software, el cual deberá ser probado y ajustado; los data entry deberán
entrenarse en su uso, etc.). La elección dependerá entonces de los recursos económicos y
humanos y tiempos disponibles.

Como se anticipó en el punto (a) acerca de las unidades de análisis, la cantidad de bases
haya que crear y procesar condicionará el tipo de software. Cuando el estudio requiere
trabajar con múltiples bases (como en ejemplos 5 y 6 anteriores), tendré que definir, una
vez terminado el ingreso de los datos (sea cual fuere la modalidad de carga utilizada), si
las bases podrán procesarse de forma separada o relacional. En el primer caso, uno de los
programas más difundidos entre sociólogos y otros cientistas sociales es el SPSS
(Statistical Package for Social Sciences) que, en rigor, es un paquete de programas con
diferentes funciones y tipos de análisis estadísticos. En el segundo caso, hay que
considerar que no todos los softwares logran trabajar con bases relacionales (sí lo hacen
los sistemas de consulta SQL: structured query language). Retrotrayéndonos al momento
de la carga, hay que agregar que si se van a procesar datos relacionales, todas las bases
deberán contar al menos con una variable en común definida del mismo modo y con igual
formato.

También en la instancia del procesamiento se deberán considerar los recursos humanos


disponibles y el tipo de análisis planificado. Si se trabaja en equipo, es necesario definir
qué tipo de capacitación amerita (o no) su uso y qué duración demandará; si se
procesarán varias bases de similar estructura correspondientes a diferentes años sería

2
Una situación menos frecuente que interviene en la definición de cuántas bases de datos crear se
presenta cuando la unidad de análisis de mi investigación no coincide con la unidad de observación
de la fuentes secundaria utilizada (tal es el caso del ejemplo 2 del punto vii de la sección anterior: la
base contaba personas pero yo necesitaba contar hogares, para luego clasificarlos con variables
medidas a nivel personal pero agregadas a nivel de los hogares). En este caso tendré que generar
una base de datos acorde a mi unidad de análisis.

5
conveniente optar por un programa que genere la sintaxis o programación de las funciones
realizadas para poder replicarlas rápida y fácilmente.

Ejemplo 7: Para calcular los niveles de pobreza con las bases de hogares del Area
Metropolitana de Buenos Aires para analizar su evolución entre 2002 y 2005 de la
EPH, resulta conveniente un software de sencilla programación como es el SPSS,
pues tendré que construir exactamente del mismo modo esta nueva variables
“Condición de pobreza del hogar” (Pobre-No Pobre) en los 4 años analizados.

En caso que planifique realizar modelos estadísticos avanzados (esto es: no solo cuadros
bi o trivariados sino medidas que vinculen muchas variables a la vez), tendré que optar por
un programa de procesamiento que disponga de estas funciones y modelos y cuyo cálculo
resulte lo más sencillo posible para un usuario no especializado en programación.

Otro criterio de elección del software para el procesamiento estadístico es el tipo y


complejidad del diseño de la muestra. Si bien Uds. aún no han visto “Muestreo” en
profundidad, ya saben desde Metodología I las diferencias entre muestras probabilísticas y
no probabilísticas. Cuando analizo datos provenientes de una muestra probabilística tendré
que contar con algún tipo de medida estadística que me permita definir si la relación que
yo observo entre dos variables cualesquiera medidas en los casos muestrales podría
sostenerse para la población total. Un software tan difundido como el SPSS, por ejemplo,
no permite realizar estas mediciones con ciertos diseños muestrales complejos (sí permite
hacerlo cuando se trabaja con muestras probabilísticas sencillas, como las de azar simple).
Ejemplo 8 (a modo de anécdota): una tesista que se encontró ante esta limitación
del SPSS, programa con el cual pensaba procesar sus datos, resolvió la situación
gracias al desarrollo de un software libre en Internet: el programa R, herramienta
usada especialmente por matemáticos y estadísticos3. Este programa le permitió
analizar datos teniendo en cuenta diseños muestrales más complejos. Así, sorteó el
obstáculo de trabajar con una muestra compleja aun cuando debió invertir una
cantidad importante de tiempo en buscar y explorar este programa, capacitarse en
su uso4 y hasta consultar a los creadores acerca de algunas funciones específicas.
En síntesis, al elegir el software para el procesamiento hay que evaluar:
- ¿Cuáles son los recursos económicos y humanos y los tiempos de los que
disponemos?
- ¿Qué grado de difusión tiene en mi comunidad académica?
- ¿Qué tipo y cuántas bases de datos (planas o relacionales; de un año o de varios)
necesitaré trabajar?
- ¿Qué operaciones estadísticas necesito realizar?
- En caso de muestras probabilísticas, ¿qué tipo de diseño muestral utilicé?

c) Definir la estructura de la base:

Ya elegido el software, podré construir la estructura de la base de datos. Esto implica:

Traducir ítems de respuesta a un formato de variable.


Definir las características de las variables que la componen: cantidad y nombre,
etiquetas, formato (numérico o alfanumérico), campos asignados a cada una (amplitud
o cantidad de dígitos), asignar -vía software- su nivel de medición.

3
Agradecemos a la Lic. Rosario Austral la información provista acerca del programa R.
4
El “R” tiene un lenguaje de "programación"; por tanto, para usarlo hay que aprender a escribir
sentencias sin que disponga de una interfaz amigable con menúes, como en el caso del SPSS.

6
Elegir una pauta común de codificación para clasificar las “no respuestas” y los “No
Corresponde” (tal cual se dijo ya en el punto sobre la matriz de datos).

En este momento es crucial el uso del manual de códigos (MC). El MC permite transferir
los códigos del cuestionario hacia la computadora. Así, el MC conecta los números de la
matriz con las respuestas obtenidas al aplicar el instrumento (Rose y Sullivan, 2006). En
otras palabras, la matriz de datos cobra sentido con el MC en mano. El MC facilita la carga
mediante criterios claros, comunes y explícitos. Así también, posteriormente, permite
comprender el contenido de base (sin el MC, resulta imposible, esto es más evidente aún
en caso de usar fuentes secundarias).

d) Carga y acondicionamiento de base

El momento en que se cargan los datos no debe descuidarse. Se recomienda ir realizando


supervisiones de la carga, principalmente apuntando a detectar los tipos de errores más
recurrentes. En ocasiones algunos errores de carga pueden corregirse antes de que
aquella finalice, y así se ahorra tiempo y recursos (por ejemplo, a veces un data entry
puede cometer el mismo error en sucesivas encuestas).

Respecto del acondicionamiento, es una actividad que se realiza una vez que ya se ha
cargado la base.

 Entendemos por “Acondicionamiento de base” su puesta a punto para el


procesamiento que incluye asignar etiquetas a variables y categorías; renombrar o
recodificar variables

Si el MC y la definición de la estructura de la base fuesen absolutamente exhaustivos


(punto c), el acondicionamiento se tornaría innecesario. No obstante, es habitual que
algunas definiciones de la estructura de la base a veces sean posteriores a la carga
(nombrar o renombrar variables). Y cuando trabajo con fuentes secundarias tendré que
emprender en esta instancia el etiquetamiento de variables y categorías; su recodificación
según objetivos de estudio; el pasaje de valores alfanuméricos a numéricos, etc.

3. El análisis de consistencia de la información: la depuración de la base

Por último, una vez que tenemos la base lista, resta analizar la calidad de los datos uno
por uno: errores de carga y recolección y niveles de respuesta de encuestas (rechazos a
responder todo el cuestionario o encuesta con bajo nivel de respuesta general) y de
variables (falta de respuesta de cada variable en particular)5.

Para depurar hay que identificar diferentes errores, a saber:

 Errores de grabación de los datos: registros duplicados, pasar por alto algunos
registros, corrimientos entre columnas o filas (por confusión en la visualización de
renglones y columnas); aparición de valores de variables que no existen, falta de
valores de variables que deberían existir (un ejemplo muy rudimentario: si la
encuesta contempló ambos sexos deberían aparecer los códigos de varones y
mujeres).

 Errores de diseño del cuestionario: categorías mal armadas, pases poco claros,
falta de inclusión de categoría “otros”.

5
No se repiten aquí los contenidos de la Clase 2 sobre los tipos de errores comunes al utilizar el
método de encuesta.

7
 Errores en momento de recolección: ejemplo errores del encuestador en el registro
de la información. Incluye desde pases de preguntas mal realizados, hasta
reinterpretaciones o lectura parcial de las preguntas.

Los errores del primer tipo pueden resolverse con el chequeo con el cuestionario impreso,
pero los demás errores pocas veces pueden resolverse después del campo (si el
encuestador comete un error, a veces la supervisión lo identifica a tiempo o a veces se
puede salvar con una pregunta de control o con otra vinculada a la pregunta en cuestión).

Recomendaciones prácticas para detectar y saldar inconsistencias (internas):

Chequear coincidencia entre cantidad de cuestionarios y cantidad de registros en la


base.

Solicitar frecuencias de todas las variables para identificar valores inexistentes (por
carga errónea o “corrimientos” de campos).

Cruzar variables interrelacionadas en la base (según filtros y pases entre preguntas).

Para detectar estas inconsistencias, el investigador debe elaborar un plan de tabulados a


tales fines. Esto sin desconocer que las inconsistencias podrían haberse detectado
previamente con un buen programa de carga que las contemplara.
Ejemplo 9: si la persona no trabajó en la semana de referencia de la encuesta, no podría
tener datos en “cantidad de horas trabajadas en la última semana”. El programa de carga
podría “avisar” a quien ingresa datos de la duración de la jornada laboral que esa persona
no había declarado ser trabajadora en ese lapso.

Analizar el nivel de respuesta de cada variable y detectar casos con escaso nivel de
respuesta general. Se debe definir en cada caso si utilizar o descartar para el análisis.

Por último, también hay que evaluar la Consistencia Externa de mis datos: comparando
las propias mediciones con otras fuentes, con otras estimaciones.
Ejemplo 10: si estoy midiendo los niveles de desocupación en noviembre de 2001 con
una encuesta probabilística podría comparar estos valores con los datos de la EPH o
con el Censo analizando previamente siempre y cuando sea admisible la
comparabilidad con estas fuentes según las definiciones de cada una.

Así, luego de transitar estos recorridos el investigador estará en condiciones de CERRAR


la base de datos en pos del procesamiento de la información. Las clases siguientes (desde
la Clase 8 en adelante), abordarán distintos tipos de análisis de datos estadísticos.

Referencias bibliográficas (más allá de los textos obligatorios)


Galtung, J. (1966). Teoría y método de la investigación social. Buenos Aires: EUDEBA.
Cortés, F. y R. Rubalcava (1990). Consideraciones sobre el uso de la estadística en las ciencias
sociales: ¿estar a la moda o pensar un poco?, México D. F., El Colegio de México, mimeo,
Introducción y Cap. 1 (“La matriz de datos”).
Rose, D. y O. Sullivan (1996), Introducing Data Analysis for Social Scientists, second edition,
Philadelphia, Open University Press, Cap. 3 (Preparing the data) y 4 (Getting to know the computer:
DOS, WINDOWS and SPSS), pp. 35-77.