You are on page 1of 96

Unidad 3.

Práctica de la ciencia
Notas recopiladas por Dr. Angel Eladio Caballero Torres

El problema de investigación y planteamiento del problema

El problema científico forma parte de la relación problema-investigación-solución. Esto


significa que el problema se concibe porque estamos seguros de que mediante una
investigación llegaremos a su solución o que llegarán a la solución otros investigadores.

El tiempo que media entre la concepción del problema y la solución puede ser más o
menos larga, pero concebir un problema es como abstraerlo del resto de los problemas
y comenzar el camino en busca de su solución.

El vocablo Problema designa una dificultad que no puede ser resuelta de forma
automática, sino que requiere de un grupo de acciones encaminadas hacia ese fin. En
todo problema se distinguen los siguientes aspectos:

1. El problema mismo, considerado como un objeto conceptual diferente de sus


manifestaciones.
2. Acto de preguntar
3. La expresión del problema mediante un conjunto de sentencias interrogativas o
imperativas

En el lenguaje común el término problema se refiere a algo que nos resulta desconocido,
cualquier tipo de dificultad u obstáculo, pero cualquier problema no necesita de la
investigación científica.

¿Cómo surgen los problemas científicos?

a) Son aquellos problemas acerca de los cuales tomamos conciencia.


b) Los conocimientos existentes en tal esfera del saber resultan insuficientes para
darles solución.
c) La solución tiene una relación directa o indirecta con alguna necesidad social de
relativa prioridad.

¿Qué podemos considerar como un problema científico?

Aquellos problemas caracterizados por las siguientes determinantes:

I. Una situación con rasgos bien definidos pero que no pueden ser exhaustivamente
explicados. (estado inicial).
II. Técnicas o procedimientos que aplicados sistemáticamente pueden modificar los
rasgos del estado inicial.
III. Nuevo estado con rasgos derivados directamente de los del estado inicial pero
que pueden ser exhaustivamente explicados. (estado final)
Algunos autores dividen a los problemas en descriptivos y causales según estos
comprendan aspectos que requieren simplemente explicar cómo se manifiesta un
fenómeno o si tratan de explicar sus causas. Dicho de otra manera, unos problemas
requieren que se indique cómo transcurre un fenómeno y otros por qué transcurre de esa
manera.

En la formulación del problema, su más preciso enunciado, se requiere de una manera


inevitable porque solo así se puede asegurar su unicidad, es decir, cada problema es
único e inconfundible.

Es necesario saber identificar y definir un problema en términos sencillos y claros,


básicamente a través de preguntas e hipótesis, estando todo esto determinado dentro
de un específico cuerpo de conocimientos definido en la introducción o en el marco
teórico. Incluye dos aspectos fundamentales:

 La exposición y análisis de teorías científicamente fundadas y de resultados de


investigaciones que se consideren válidos para un mejor enfoque del problema,
lo cual solo se logrará a través de una amplia y profunda revisión bibliográfica.

 La descripción del conjunto de conceptos que intervienen en el problema,


estableciendo una definición operacional de los mismos, es decir, deberá revelar
el significado de los conceptos implicados, indicando qué resultados de las
acciones experimentales (empíricas, factibles de observación y medición)
conformarán un estado final considerado como solución del problema.

Para la completa formulación del problema, además de estar correctamente fundado y


bien expresado, se requiere su justificación.

Los atributos de tipo objetivo del problema son los siguientes:

– La magnitud, entendida como el tamaño del problema en relación con el


desconocimiento y la población afectada por el problema;

– La trascendencia, que es la ponderación que se hace al problema de acuerdo con su


gravedad y consecuencias;

– La vulnerabilidad, que es el grado en que un problema puede ser atacado o resuelto;

– La factibilidad, entendida como la existencia de recursos y la organización suficiente


para solucionar o mitigar el problema.

Ejemplo:

En el Análisis de la Situación de Salud de un consultorio y, como consecuencia de éste,


ha emergido el siguiente problema: se desconocen las causas del incremento del
índice de bajo peso al nacer en el área objeto de investigación.
Al analizar los atributos de referencia, se aprecia lo siguiente:

– No existe ningún antecedente investigativo en este contexto que haya evidenciado la


presencia de ciertos factores sobre el bajo peso al nacer.
– El bajo peso al nacer produce un alto riesgo de mortalidad y lamentables
consecuencias para el individuo, la familia y la comunidad en general.
– Hay antecedentes de otros estudios en otras áreas de salud y en la literatura que
propician su realización.
– Existen los recursos y la organización necesaria para el desarrollo de estudios.

Si usted está motivado por conocer los factores que influyen sobre la aparición del bajo
peso al nacer, a partir de lo cual pudiera reorganizar sus actividades de salud, con vistas
a mejorar este indicador se puede pensar que usted está en condiciones de abordar el
problema planteado.

En el planteamiento del problema es necesario considerar:

Determinación del problema: ubicación del problema en un contexto histórico-real, es


decir su delimitación. Se pueden plantear preguntas de investigación: situación conflicto,
causas y efectos, formulación. Señalar la justificación y viabilidad de ser estudiado.

Un problema de investigación puede ser definido como una laguna en el conocimiento


del investigador —que, dicho sea de paso, es el sujeto de la investigación— la cual
provoca en éste la necesidad de resolverla mediante el desarrollo de una actividad que
le permita transformar la situación existente, solucionando así el problema.

Una situación problémica constituye un problema científico cuando:

– La formulación del problema debe basarse en un conocimiento científico previo del


mismo.
– La solución que se alcance del problema estudiado debe contribuir al desarrollo del
conocimiento científico, o sea, al desarrollo de la ciencia.
– Debe resolverse aplicando los conceptos, categorías y leyes de la rama del saber que
se investigue, algunos de los cuales los aporta el investigador durante su trabajo.

La delimitación del problema halla sus bases en los siguientes aspectos:

– Su expresión nítida a través de preguntas e hipótesis.


– La expresión del marco teórico-práctico en que se inserta.
– Su justificación, o sea, la fundamentación de la necesidad de encarar el problema.

El problema científico, recuérdese, es una laguna cognitiva, la cual se concreta a través


de preguntas e hipótesis, donde las preguntas son expresión de lo desconocido, mientras
que las hipótesis son afirmaciones o conjeturas que se hacen para contestar dichas
preguntas.
Para resolver el problema de la investigación es necesario caracterizar su objeto y su
campo de acción en los que se manifiesta el problema.

La investigación científica tiene un carácter procesal. Este proceso comienza con la


existencia de un problema de naturaleza cognitiva.

La realización de la investigación está condicionada, en gran medida, por atributos de


índole objetiva y subjetiva, siendo los primeros aquellas características del medio que
rodean al objeto de estudio; en tanto los últimos comprenden las cualidades de la
personalidad del investigador o grupo de investigadores.

Bibliografía y citas bibliográficas

ESTILO DE VANCOUVER: como tal son conocidos los "Requerimientos Uniformes para
preparar los manuscritos enviados a revistas biomédicas", elaborados por el Comité
Internacional de Editores de Revistas Médicas, conocido como Grupo de Vancouver.

Las referencias se deben numerar consecutivamente en el mismo orden en que se


mencionan dentro del cuerpo del texto. Identifique las referencias dentro del cuerpo del
texto, los cuadros y las leyendas, con llamadas con números arábigos entre paréntesis.
Las referencias citadas sólo en los cuadros o en las leyendas, deben ser numeradas de
acuerdo con la secuencia establecida por la primera llamada dentro del texto de cada
cuadro o grabado particular. Utilice el estilo editorial de los ejemplos incluidos más
adelante, que se basan en los formatos empleados por la Biblioteca Nacional de
Medicina de los Estados Unidos (NLM) en el Index Medicus.

Los nombres de las revistas se deben abreviar de acuerdo con el estilo editorial utilizado
en el Index Medicus. Consulte la List of Journals Indexed in Index Medicus (lista de
revistas indizadas en el Index Medicus) que se publica anualmente como separata de
dicha revista de la Biblioteca o en forma de lista en cada edición de enero del Index.

Evite utilizar resúmenes como fuentes de referencia. Las referencias a trabajos


aceptados, pero aún inéditos, se deben designar como "en imprenta" (in press) o "de
próxima aparición" (forthcoming). Los autores deben obtener autorización escrita para
citar dichos trabajos, así como una comprobación de que realmente han sido aceptados
para su publicación. La información extraída de los manuscritos sometidos a arbitraje,
pero aún no aceptados, debe ser citada en el texto como observaciones inéditas con la
autorización escrita de la fuente.

Evite citar una "comunicación personal" a menos que suministre información esencial no
disponible en fuentes públicas, en cuyo caso el nombre de la persona y la fecha de la
comunicación deben citarse entre paréntesis en el texto. Para artículos científicos, los
autores deben obtener autorización escrita y confirmación de confiabilidad, de la fuente
de la comunicación personal. Las referencias deben ser verificadas por el (los) autor (es)
contra los documentos originales.
El estilo de los RU (estilo de Vancouver) se basa en gran medida en el estilo estándar
del ANSI adaptado del NLM para sus bases de datos. Se han añadido notas cuando el
estilo de Vancouver difiere del estilo que usa actualmente el NLM.

Artículos de revistas

(1) Artículo estándar de revista

Liste los primeros seis autores seguidos por et al. (Nota: NLM actualmente lista
hasta 25 autores; si hay más de 25, lista los primeros 24, el último autor, y et al.
Vega KJ, Pina I, Krevsky B. Heart transplantation is associated with an increased
risk for pancreatobiliary disease. Ann Intern Med 1996 Jun 1; 124 (11): 980-3.

Como opción, si una revista sigue la paginación continua a lo largo de un volumen


(como hace la mayoría de las revistas), el mes y el número de la edición pueden
omitirse. (Nota: Para ser consistentes, esta opción es la que se emplea a lo largo
de los RU. La NLM no usa esta opción).

Vega KJ, Pina I, Krevsky B. Heart transplantation is associated with an increases


risk for pancreatobiliary disease. Ann Intern Med 1996; 124: 980-3.
Más de seis autores:

Parkin DM, Clayton D, Black RJ, Masuyer E, Freidl HP, Ivanov E, et al. Childhood
leukaemia in Europe after Chernobil: 5 year follow-up. Br J Cancer 1996; 73: 1006-
12.

(2) Una organización como autor

The Cardiac Society of Australia and New Zealand. Clinical excercise stress testing.
Safety and performan guidelines. Med J Aust 1996; 164: 282-4.

(3) Anónimo

Cancer in South Africa [editorial]. S Afr Med J 1994; 84: 15.

(4) Artículo en otro idioma distinto del inglés

(Nota: La NLM traduce el título al inglés, adjunta la traducción en corchetes y añade


una clave que indica el idioma original)
Ryder TE, Haukeland EA, Solhaug JH. Bilateral infrapatellar seneruptur hos
tidligere frisk kvinne. Tidsskr Nor Laegeforen 1996; 116: 41-2.

(5) Volumen con suplemento

Shen HM, Zhang QF. Risk assessment of nickel carcinogenicity and occupational
lung cancer. Environ Health Perspect 1994; 102 Suppl 1: 275-82.
(6) Número con suplemento

Payne DK, Sullivan MD, Massie MJ. Women's psychological reactions to breast
cancer. Semin Oncol 1996; 23 (I Suppl 2): 89-97.

(7) Volumen con partes

Ozben T, Nacitarhan S, Tuncer N. Plasma and urine sialic acid in non-insulin


dependent diabetes mellitus. Ann Clin Biochem 1995; 32 (Pt 3): 303-6.

(8) Número con partes

Poole GH, Mills SM. One hundred consecutive cases of flap lacerations of the leg
in ageing patients. N Z Med J 1994; 107 (986 Pt 1): 377-8.

(9) Número sin volumen

Turan I, Wredmark T, Fellander-Tsai L, Arthroscopic ankle arthrodesis in


rheumatoid arthritis. Clin Orthop 1995; (320): 110-4.

(10) Sin número ni volumen

Browell DA, Lennard TW. Inmunologic status of the cancer patient and the effects
of blood transfusion on antitumor responses. Curr Opin Gen Surg 1993: 325-33.

(11) Paginación en números romanos

Fisher GA, Sikie BI. Drug resistance in clinical oncology and hematology.
Introduction. Hematol Oncol Clin North Am 1995 Apr; 9(2): xi-xii.

(12) Tipo de artículo indicado cuando se necesita

Enzensberger W, Fischer PA. Metronome in Parkinson's disease [letter]. Lancet


1996; 347: 1337.

(13) Artículo que contiene una retractación

Garey CE, Schwarzman AL, Rise ML, Seyfried TN. Ceeruloplasmin gene defect
associated with epilepsy in EL mice [retraction of Garey CE. Schwarzman AL, Rise
ML, Seyfried TN. In: Nat Genet 1994; 6: 426-31] Nat Genet 1995; 11: 104.

(14) Artículo retractado

Liou GI, Wang M, Matragoon S. Precocious IRBP gene expression during mouse
development [retracted in Invest Ophthalmol Vis Sci 1994; 35: 3127]. Invest
Ophthalmol Vis Sci; 35: 1083-8.
(15) Artículo con una errata publicada

Hamlin JA, Kahn AM. Herniography in symptomatic patients following inguinal


hernia repair [published erratum appears in West J Med 1995; 162: 278]. West J
Med 1995; 162: 28-31.

Libros y otras monografías

(Nota: El estilo de Vancouver anterior tenía incorrectamente una coma en


lugar de un punto y coma entre el editor y la fecha)

(1) Autor (es) personal (es)

Ringsven MK, Bond D. Gerontology and leadership skills for nurses. 2nd ed. Albany
(NY): Delmar Publishers; 1996.

(2) Editor o compilador como autor

Norman IJ, Redfern SJ, editors. Mental health care for elderly people. New York:
Churchill Livingstone; 1996.

(3) Organización como autor o editor

Institute of Medicine (US). Looking at the future of the Medicaid program.


Washington DC: The Institute, 1992.

(4) Capítulo de un libro

Phillips SJ, Whisnant JP. Hypertension and stroke. In: Laragh JH, Brenner BM,
editors. Hypertension: pathophysiology, diagnosis, and management. 2nd ed. New
York: Raven Press; 1995. p.465-78.

(5) Memorias de eventos

Klimura J, Shibasaki H, editors. Recent advances in clinical neurophysiology.


Proceedings of the 10th Internaciional Congress of EMG and Clinical
Neurophysiology; 1995 Oct 15-19; Kyoto, Japan. Amsterdam: Elsevier; 1996.

(6) Trabajos presentados en eventos

Bengtsson S, Solgeim BG. Enforcement of data protection, privacy and security in


medical informatics. In: Lun KC, Degoulet P, Piemme TE, Rienhoff O, editors.
MEDINFO 92. Proceedings of the 7th World Congress of Medical Informatics; 1992
Sep 6-10; Geneva, Switzerland. Amsterdam: North-Holland; 1992. p. 1561-5.
(7) Reporte científico o técnico

Publicado por una agencia financiadora o patrocinadora


Smith P, Golladay K. Payment for durable medical equipment billed during skilled
nursing facility stays. Final report. Dallas (TX): Dept. of Health and Human Services
(US), Office of Evaluation and Inspections: 1994 Oct. Report No.:
HHSIGOEI69200860.

Publicado por una agencia ejecutora

Field MJ, Tranquada RE, Feasley JC, editors. Health Services Research: work force
and educational issues. Washington: National Academy Press: 1995. Contract No.:
AHCPR282942008. Sponsored by the Agency for Health Care Policy and
Research.

(8) Tesis de grado

Kaplan SJ. Post-hospital home health care: the elderly's access and utilization
[dissertation]. St. Louis (MO): Washington Univ.; 1995.

(9) Patente

Larsen CE, Trip R, Johnson CR, inventors; Novoste Corporation, assignee.


Methods for procedures related to the electrophysiology of the heart US patent
5,559,067. 1995 Jun 25.
Confección de un documento científico: titulo, introducción, objetivos,
marco teórico. hipótesis. método. variables. resultados. discusión.
conclusiones.

La investigación científica tiene dos etapas: planificación y ejecución. Al finalizar la


primera es posible la confección del proyecto de investigación y al finalizar la segunda
se puede producir el informe de investigación.

Este informe puede originar varios tipos de publicaciones científicas donde se expresan
los dominios de las definiciones, conceptos y explicaciones que se exponen asociadas a
componentes de esas publicaciones a continuación.

TÍTULO

El título deberá ser: conciso, específico y claro, con una redacción que corresponda con
la idea de lo que se quiere investigar. No debe presentar una palabra que pueda ser
omitida sin dañar su identificación y tampoco omitir palabras requeridas para identificarlo.

Ejemplos de títulos:

Modelo teórico para la evaluación de salud del grupo familiar en la atención primaria

Estrategia didáctica lúdica para estimular el desarrollo de la competencia comunicativa


sobre alimentación de estudiantes de especialidades biomédicas

Evaluación del Programa de Introducción de Tecnologías de Información y comunicación


en la Atención Primaria de Salud. Ciudad de La Habana. 2003.

Definición de funciones del nutricionista: propuesta para el Sistema de Salud.

Identificación de factores vinculados a la práctica de la lactancia materna exclusiva.

Estrategia para evaluar competencias profesionales en alimentación y nutrición.

AUTORES

Se identifican según los requisitos del tipo de documento que se presenta. En el caso de
ser estudiantes autores de un trabajo orientado por un profesor se debe indicar apellidos
y nombres, además de la identificación del equipo o grupo de trabajo, así como el
paralelo y semestre en el que se encuentran.

RESUMEN

El Resumen puede considerarse como una versión en miniatura del artículo. “Un
resumen bien preparado permite a los lectores identificar rápida y exactamente el
contenido de un documento, determinar su pertinencia para sus intereses y decidir así si
tienen que leer el trabajo en su totalidad”. El Resumen no debe exceder de 250 palabras
y ha de orientarse a definir claramente lo que el artículo trata. El Resumen debe ser de
un solo párrafo. (Algunas revistas médicas publican ahora resúmenes “estructurados”,
compuestos por varios párrafos breves.)

El Resumen deberá contener en uno o dos reglones la introducción con la


justificación/importancia del tema y a continuacion, objetivos, métodos, resultados y
conclusiones.

El Resumen debe escribirse en pretérito, porque se refiere a un trabajo ya realizado.

El Resumen no debe presentar ninguna información ni conclusión que no figuren en el


artículo. Las referencias bibliográficas no deben citarse en el Resumen (excepto en
casos raros, como cuando se describe la modificación de algún método anteriormente
publicado).

INTRODUCCIÓN

Su propósito es motivar al lector para que lea todo el trabajo y su confección solo se
puede hacer sobre la base de la consulta de otras publicaciones sobre el tema. Debe
presentar la justificación y fundamentación de forma breve y clara, con la indicación del
propósito del documento.

Una gran parte de la Introducción deberá escribirse en tiempo presente porque se referirá
principalmente al problema planteado y los conocimientos admitidos en la materia en el
momento de iniciar el trabajo. Se sugiere que para confeccionarla se cumplan las tareas
siguientes:

1) Determinar naturaleza y alcance del problema investigado.

2) Revisar las publicaciones pertinentes.

3) Identificar el método de investigación

La finalidad de la Introducción es introducir el artículo o documento por lo cual, definir el


problema de investigación es fundamental. Si no se expone el problema de una forma
razonable y comprensible, los lectores no se interesarán por la solución.

El examen de la bibliografía y la elección del método deben presentarse de forma que el


lector comprenda cuál era el problema y cómo se trató de resolver.

Es conveniente señalar la utilidad del trabajo, por ejemplo: los resultados aportados por
este estudio podrán ser utilizados por los profesionales que se ocupan de este tipo de
problema de salud para …

El final de la introducción debe contener o dar paso a los objetivos.


HIPÓTESIS

Hipótesis es una suposición, conjetura o predicción que se base en conocimientos


existentes, en nuevos hechos o en ambos, y que propone una respuesta anticipada del
problema, por lo que será aceptada o rechazada como resultado de la investigación.

Sobre la base del enunciado del problema se originan conjeturas o supuestos (hipótesis)
los cuales serán entonces contrastados, examinando sus consecuencias observables
por lo que se requiere reunir cierto número de datos para poder averiguar cuál de las
conjeturas es verdadera, si es que alguna lo es, entonces ésta pasará a formar parte de
un nuevo cuerpo de conocimientos; la solución del problema inicial hará surgir un nuevo
conjunto de otros problemas.

Requisitos para la formulación de hipótesis:

 No puede contradecir hechos conocidos y comprobados con anterioridad.


 Debe ser factible de comprobación.
 Tiene que ofrecer una explicación suficiente de los hechos o condiciones que
pretende abarcar.
 Tiene que estar relacionada con el sistema de conocimientos correspondiente a
los hechos que plantea el problema.

Las hipótesis pueden ser de diferentes tipos, así encontramos que pueden ser:

 Descriptivas: plantean supuestos sobre la estructura, las manifestaciones y las


funciones del objeto estudiado y las características de clasificación del mismo.
 Causales o explicativas: plantean supuestos acerca de los vínculos de causa y
efecto en el objeto estudiado que requieren de comprobación experimental.
 Alternativa y nula: son utilizadas en pruebas de hipótesis, tema correspondiente
a la estadística inferencial, corresponden a grados de especialización estadística.
Tienen que ser opuestas en su valor de veracidad. Las pruebas estadísticas están
diseñadas de manera que al probar o rechazar la hipótesis nula la probabilidad de
error sea mínimo.
 Generales: plantean supuestos que poseen un carácter generalizado del objeto
de investigación.
 De trabajo: plantean supuestos que en el desarrollo de la investigación tendrán
carácter provisional hasta que se demuestra lo contrario.

Las hipótesis poseen una estructura donde se respetan los siguientes aspectos:

1. Constituyen una unidad: la hipótesis mantiene una estrecha relación con la


característica que se estudia y con cada uno de los elementos sometidos a
investigación mediante la observación.
2. Consideran a las variables que intervienen: tienen en cuenta que las unidades
de observación toman distintos valores en cada individuo observado.
3. Se orienta hacia los elementos lógicos: forma de relacionar la unidad de
análisis vinculada al objeto de estudio con cada una de las variables estudiadas
entre sí.

Una hipótesis puede definirse como una solución provisional (tentativa) para un problema
dado. El nivel de verdad que se le asigne a tal hipótesis dependerá de la medida en que
los datos empíricos recogidos apoyen lo afirmado en la hipótesis. Esto es lo que se
conoce como contrastación empírica de la hipótesis o bien proceso de validación de la
hipótesis. Este proceso puede realizarse de uno o dos modos: mediante confirmación
(para las hipótesis universales) o mediante verificación (para las hipótesis existenciales).

En general, en un trabajo de investigación se plantean dos hipótesis mutuamente


excluyentes: la hipótesis nula o hipótesis de nulidad ( ) y la hipótesis de investigación
( ). Además, es posible plantear hipótesis alternas o hipótesis alternativas.

El análisis estadístico de los datos servirá para determinar si se puede o no aceptar Ho.
Cuando se rechaza Ho, significa que el factor estudiado ha influido significativamente en
los resultados y es información relevante para apoyar la hipótesis de investigación
planteada.

Es muy importante tener presente que la hipótesis de investigación debe coincidir con la
hipótesis alternativa. Plantear hipótesis de investigación que coincidan con Ho supondría
una aplicación incorrecta del razonamiento estadístico.

Las hipótesis son proposiciones provisionales y exploratorias y, por tanto, su valor de


veracidad o falsedad depende críticamente de las pruebas empíricas. En este sentido, la
replicabilidad de los resultados es fundamental para confirmar una hipótesis como
solución de un problema.

La hipótesis de investigación es el elemento que condiciona el diseño de la investigación


y responde provisionalmente al problema, verdadero motor de la investigación. Como se
ha dicho esta hipótesis es una aseveración que puede validarse estadísticamente.

Una hipótesis explícita es la guía de la investigación, puesto que establece los límites,
enfoca el problema y ayuda a organizar el pensamiento. Se establece una hipótesis
cuando el conocimiento existente en el área permite formular predicciones razonables
acerca de la relación de dos o más elementos o variables.

Una hipótesis indica el tipo de relación que se espera encontrar; o sea: "existe relación
entre a y b"; "el primer elemento es la causa del segundo"; "cuando se presenta esto,
entonces sucede aquello", o bien, "cuando esto sí, aquello no". Debe existir una
cuantificación determinada o una proporción matemática que permita su verificación
estadística.
Algunos ejemplos de las diferentes tipologías de hipótesis que pueden hacerse:

 Hipótesis de investigación: La computadora con regulador trabaja 100% del


tiempo sin fallar. La computadora que se utiliza sin regulador solamente trabaja
80% del tiempo sin fallar.

 Hipótesis no direccional: Existe una diferencia entre en el nivel de ansiedad de los


niños con un coeficiente intelectual alto y aquellos que no tienen uno bajo.

 Hipótesis direccional: Los niños con coeficientes intelectuales altos tendrán un


nivel de ansiedad mayor que los niños con coeficientes intelectuales bajos.

 Hipótesis nula: No existe diferencia en los niveles de ansiedad entre niños con
coeficientes intelectuales altos y aquellos que tienen coeficientes intelectuales
bajos.

Las hipótesis deben poseer algunos atributos que posibiliten abordarlas en un trabajo de
investigación. De ellos los fundamentales son la especificidad, que sean
empíricamente contrastables y la fundamentación científica.

De la especificidad con que se hayan declarado las hipótesis depende en gran medida
el éxito de la investigación. De hecho, si una investigación es un intento concreto de
resolver cierto problema científico, entonces la misma debe estar en función de una
hipótesis lo suficientemente específica como para permitir abordarla.

Decir que las hipótesis sean contrastables empíricamente equivale a diseñar una
investigación científica que las resuelva utilizando datos de la práctica, lo que se logra
planteándolas de tal suerte que se puedan realizar observaciones que corroboren las
consecuencias obtenidas.

Al mismo tiempo, la formulación de las hipótesis halla sustrato en el conocimiento


científico existente, puesto que el problema científico emerge del análisis de ese
conocimiento, y el investigador se limita a formularlo correctamente y a buscar las vías
para solucionarlo.

Enunciar una hipótesis sin un basamento científico es, ante todo, violar la ética de la
investigación, a la vez que puede conducirnos al desarrollo de un proceso de
improductivos resultados.

Una hipótesis es una conjetura o suposición que explica tentativamente las causas,
características, efectos, propiedades y leyes de determinado fenómeno en una ciencia
dada, basándose en un mínimo de hechos observados.

Esta suposición debe ser comprobada por los hechos, ya sea en la experimentación o
en la práctica; el no comprobarla significa que es falsa, conllevando esto a que los
fenómenos que pretende explicar deben ser observados nuevamente con miras a
reformular la conjetura.

Ejemplo de hipótesis:

La presencia de discapacidad física en los ancianos de C y T es una función de un


conjunto de variables biológicas, psicológicas y sociales, que constituyen factores de
riesgo de ésta, de variada intensidad en su aparición, entre los cuales se incluyen: la
edad avanzada, el sexo femenino, la baja escolaridad, la desocupación, las
enfermedades crónicas, la secuela post fractura de cadera, la presencia de pérdidas, los
sentimientos de soledad, la ausencia de confidentes, la sensación de inactividad, la
inadaptación a la jubilación, la pérdida de roles sociales, la insatisfacción con actividades
cotidianas y las condiciones materiales de vida inadecuadas.

Ejemplo de hipótesis:

Los estilos de vida inadecuados en niñas y niños, como la mala alimentación y el


sedentarismo, facilitan el desarrollo del sobrepeso y la obesidad infantil, los que pueden
ser enfrentados mediante procedimientos que determinen el establecimiento y
mantenimiento de un balance energético negativo para lo cual es necesario la
participación consciente de la sociedad, a través de un programa de intervención
holístico y sistémico en correspondencia con las características de la población infantil.

Ejemplo de hipótesis:

La desnutrición energético nutrimental y la anemia, asociadas a problemas económico,


sociales, educativos e higiénicos, constituyen un importante problema de salud en los
preescolares atendidos en la consulta ambulatoria del hospital M...

OBJETIVOS

La definición de los objetivos de un trabajo es una tarea que se debe abordar desde el
principio de la investigación. Los objetivos del trabajo de investigación están contenidos
en el Protocolo o Proyecto y deben permanecer inalterables hasta el informe final de la
investigación, pues constituyen la guía general de todos los pasos de la investigación.

En función de los objetivos se plantean los métodos de recolección de datos, las pruebas
estadísticas, las formas de presentar la información y el resto de los elementos que
conforman la investigación. Los objetivos son el punto de partida y la base orientadora
de todas las acciones que se ejecutarán en la investigación.

Los objetivos expresan los fines o propósitos que se esperan alcanzar con el estudio del
problema planteado. Ellos responden a la pregunta ¿para qué se lleva a cabo la
investigación?, por ello es habitual que su redacción comience con un verbo en infinitivo:
determinar, identificar, establecer, distinguir, medir, cuantificar y otros.
La formulación de los objetivos debe ser de forma clara, concisa y bien orientada hacia
el fin o propósito del estudio.

Deben ser redactados en la forma más específica posible, evitando unir dos o más
objetivos en uno, lo cual no significa que no se pueda plantear un objetivo general,
siempre y cuando sean precisados a continuación los objetivos específicos.

Estos deben enunciar un resultado unívoco, preciso, factible y medible que será obtenido
mediante la investigación, definiendo un estado o situación cuantificable en un tiempo y
lugar determinado, que se intenta alcanzar como resultado del estudio.

De forma precisa podemos asegurar que los objetivos tienen que determinar el tipo de
estudio que se realizará y estarán vinculados a la base de su diseño.

Un objetivo ayuda a establecer qué pretende la investigación. Ayuda en el proceso de


investigación, guiando y aterrizando todo aquello que pueda aparecer carente de sentido.

Los objetivos son aquellas metas específicas que debemos alcanzar para poder
responder nuestra pregunta de investigación y orientan el desarrollo de la investigación
para evitar que nos perdamos en un ‘mar de conocimientos’. Por todo lo anterior, los
objetivos deben plantearse con claridad y pueden ser más de uno, uno general y otros
más específicos, o por tareas que queramos alcanzar, etapas, etc.

Verbos para confeccionar objetivos, según proceso cognitivo y significados:

PROCESOS COGNITIVOS VERBOS DE ACCIÓN:


algunos ejemplos
Conocimiento: Describir, definir, identificar, reconocer,
Corresponde al nivel intelectual más etiquetar, listar ...
simple e indica la capacidad para
reproducir y recibir una información
dada
Comprensión: Interpretar, ilustrar, predecir, extrapolar
Integración significativa
Aplicación: Aplicar, mostrar, utilizar, relacionar,
Utilización en una situación nueva explicar, inferir, construir ...
Análisis: Analizar, identificar, distinguir, detectar,
Segmentar en componentes Categorizar
Síntesis: Combinar, generalizar, organizar, sacar
Combinación en un todo coherente conclusiones, derivar, deducir..
Evaluación: Decidir, elegir, seleccionar, criticar,
Expresar juicios de valor defender, comparar, contrastar...

Analizar. (de análisis): Distinción y separación de las partes de un todo hasta llegar a
conocer sus principios o elementos. Método estadístico usado para cuantificar la
importancia de cada uno de los factores actuantes en un fenómeno.
Caracterizar: Determinar los atributos peculiares de alguien o de algo, de modo que
claramente se distinga de los demás.

Comparar: Fijar la atención en dos o más objetos para descubrir sus relaciones o estimar
sus diferencias.

Comprender: Entender, alcanzar, penetrar.

Comprobar: Verificar, confirmar la veracidad o exactitud de algo.

Confirmar: Corroborar la verdad, certeza o el grado de probabilidad de algo.

Conocer: Averiguar por el ejercicio de las facultades intelectuales la naturaleza,


cualidades y relaciones de las cosas. Entender, advertir, saber, echar de ver.

Deducir: Sacar consecuencias de un principio, proposición o supuesto

Definir: Fijar con claridad, exactitud y precisión la significación de una palabra o


naturaleza de una persona o cosa. Decidir, determinar, resolver algo dudoso.

Delimitar: Determinar o fijar con precisión los límites de algo.

Demostrar. Determinar o fijar con precisión los límites de algo

Describir: Representar a alguien o algo por medio del lenguaje, refiriendo o explicando
sus distintas partes, cualidades o circunstancias

Determinar: Señalar, fijar algo para algún efecto.

Diseñar: Hacer un diseño.

Especificar: Explicar, declarar con individualidad algo. Fijar o determinar de modo


preciso.

Establecer: Dejar demostrado y firme un principio, una teoría, una idea.

Estimar: Apreciar, poner precio, evaluar algo

Estudiar: Ejercitar el entendimiento para alcanzar o comprender algo.

Evaluar: Estimar, apreciar, calcular el valor de algo. Estimar los conocimientos, aptitudes
y rendimiento de las personas.

Explicar Llegar a comprender la razón de algo, darse cuenta de ello. Dar a conocer la
causa o motivo de algo.
Fabricar: Producir objetos en serie, generalmente por medios mecánicos. Hacer
disponer o inventar algo no material.

Identificar: Dicho de dos o más cosas que pueden parecer o considerarse diferentes.
Ser una misma realidad.

Inferir: Sacar una consecuencia o deducir algo de otra cosa.

Interpretar: Explicar acciones, dichos o sucesos que pueden ser entendidos de


diferentes modos. Concebir, ordenar o expresar de un modo personal la realidad.

Mapear: Trasladar a un mapa sistemas o estructuras conceptuales. Hacer mapas.

Medir: Comparar una cantidad con sus respectiva unidad, con el fin de averiguar cuántas
veces la segunda está contenida en la primera.

Modelar: Configurar o conformar algo no material, ajustarse a un modelo.

Observar: Examinar atentamente. Mirar con atención y recato, atisbar.

Presentar: hacer manifestación de algo, ponerlo en la presencia de alguien.

Producir: engendrar., procrear, criar. Se usa hablando más propiamente de las obras
de la naturaleza, y, por extensión, de las del entendimiento.

Proyectar: Idear, trazar, proponer el plan y los medios para la ejecución de algo.

Reconocer: Examinar con cuidado algo o a alguien para enterarse de su identidad,


naturaleza y circunstancias

Redefinir: Volver a definir algo cuyas características o circunstancias han cambiado.

Relacionar: establecer relación entre personas, cosas, ideas o hechos.

Simular: representar algo, fingiendo o imitando lo que no es.

Tipificar: Dicho de una persona o de una cosa. Representar el tipo de la especie o clase
a que pertenece.

Verificar: Comprobar o examinar la verdad de algo

Definición de las habilidades del pensamiento lógico.

1. Analizar: Descomposición mental del todo en sus partes o elementos más


simples, así como la reproducción las relaciones de dichas partes, elementos y
propiedades
2. Sintetizar: Es la integridad mental, la reproducción del todo por la unión de sus
partes y conexiones, o sea la combinación mental de sus cualidades,
características, propiedades y otras, lo que trae como resultado la reunificación
del todo.
3. Comparar: Establecimiento mental de analogías y diferencias entre los objetos y
fenómenos de la realidad objetiva que sirve para descubrir lo principal y lo
secundario en los objetos.
4. Determinar lo esencial: Determinar las facetas que son inherentes a cada objeto
de la realidad, precisar sus propiedades más estables, que lo diferencian del resto,
lo que si cambia da lugar a la aparición de un objeto distinto.
5. Abstraer: Separar mentalmente determinadas propiedades y cualidades de un
objeto o fenómeno para ser examinadas sin tener en consideración sus restantes
relaciones y propiedades.
6. Caracterizar: Es una operación en la que se establece una comparación con otros
objetos de su clase y de otras para así seleccionar los elementos que lo tipifican
y distinguen de los demás objetos.
7. Definir: Operación por medio de la cual se distinguen las características
esenciales de objeto o fenómeno y se enuncian en formas de un concepto.
8. Identificar: Operación mediante la cual se determinan los rasgos que caracterizan
a un objeto o fenómeno y sobre esa base se descubre su pertenencia a la
extensión de un concepto o ley de las conocidas.
9. Clasificar: Distribución de los objetos o fenómenos individuales en el
correspondiente género o clase, es decir presentar las características, nexos y
relaciones esenciales y generales de los objetos y fenómenos según un criterio
adoptado para la clasificación.
10. Ordenar: Se organiza el objeto de estudio a partir de un criterio lógico o
cronológico.
11. Generalizar: Es una operación lógica en la que se unifican mentalmente las
características, cualidades y propiedades que son comunes a un grupo de objetos
y fenómenos, lo cual sirve de base para la formulación de conceptos, leyes y
principios.
12. Observar: Percepción sistémica, premeditada y planificada que se realiza en
determinado período de tiempo, tiene como objetivo estudiar minuciosamente el
curso de los objetos y fenómenos según un plan previamente elaborado, permite
determinar las particularidades esenciales del fenómeno de estudio.
13. Describir: Operación lógica en la que se enumeran y relacionan las
características o elementos que se aprecian en el objeto de descripción, es decir,
es la verbalización de lo percibido.
14. Relatar: Exposición lógica y coherente de un argumento que sirve de hilo
conductor, enriquecido con un contenido concreto acerca de hechos, personajes,
épocas y otros, debiendo caracterizarse por su veracidad, colorido y concreción.
15. Ilustrar: Revelar, a través de las características y propiedades concretas de un
objeto, fenómeno o proceso, los principios, conceptos o leyes teóricas de una
ciencias dada.
16. Valorar: Implica determinar la trascendencia de un objeto o proceso a partir del
conocimiento de sus cualidades, y de la confrontación posterior de estas con
ciertos criterios o puntos de vista del sujeto.
17. Criticar: Forma lógica de organización de hechos, razonamientos y argumentos
que se contrapongan a un juicio y teoría de partida, objeto de crítica.
18. Relacionar: Operación lógica mediante la cual se descubre los nexos de
determinación, dependencia, coexistencia u oposición existente entre dos o más
objetos, fenómenos o procesos.
19. Razonar: Forma de pensar que permite deducir nuevos conocimientos a partir de
otros establecidos anteriormente, es un proceso de mediatización y deducción de
juicios, integrado por un sistema de conocimientos.
20. Interpretar: Proceso mediante el cual se descubren los elementos, relaciones o
razonamientos que existen en un estudio como vía para obtener el significado de
la información que el aporta.
21. Argumentar: Operación lógica en la que se determina la fundamentación de un
juicio o razonamiento de partida, mediante el establecimiento de relaciones entre
otros conceptos y juicios conocidos anteriormente.
22. Explicar: Ordenamiento lógico de conocimientos (hechos, conceptos, leyes,
experiencias y otros) acerca de un objeto, fenómeno o proceso determinado, de
modo que exprese las relaciones entre todas sus características conocidas.
23. Demostrar: Proceso mental de búsqueda e interrelación lógica de hechos,
conocimientos, argumentos y valoraciones que permita fundamentar la veracidad
o falsedad de un juicio de partida
24. .Aplicar: Operación lógica de gran complejidad que exige el dominio previo de un
amplio sistema de conocimientos para poder enriquecerlo durante su utilización
en la explicación de situaciones nuevas.

Sistemas de acciones para las habilidades del pensamiento lógico.

Analizar:
a) Delimitar las partes del objeto a analizar ( todo ).
b) Determinar los criterios de descomposición del todo.
c) Delimitar las partes del todo.
d) Estudiar cada parte delimitada.
Sintetizar:
a. Comparar las partes entre sí (rasgos comunes y diferencias).
b. Descubrir los nexos entre las partes (causales de condicionalidad).
c. Elaborar conclusiones acerca de la integridad del todo.
Comparar:
a. Determinar los objetos de comparación.
b. Determinar las líneas o parámetros de comparación.
c. Determinar las diferencias y semejanzas entre los objetos para cada línea de
comparación.
d. Elaborar conclusiones acerca de cada línea de comparación ( síntesis parcial ).
e. Elaborar conclusión de cada objeto de comparación ( síntesis parcial ).
f. Elaborar conclusiones generales.
Determinar lo esencial:
a) Analizar el objeto de estudio.
b) Comparar entre sí las partes del todo.
c) Descubrir lo determinante, fundamental, lo estable del todo.
d) Revelar los nexos entre los rasgos esenciales.
Abstraer:
a. Analizar el objeto de abstracción.
b. Determinar lo esencial.
c. Despreciar los rasgos y nexos secundarios, no determinantes del objeto.
Caracterizar:
a) Analizar el objeto.
b) Determinar lo esencial en el objeto.
c) Comparar con otros objetos de su clase y de otras clases.
d) Seleccionar los elementos que lo tipifiquen y distinguen de los demás objetos.
Definir:
a. Determinar las características esenciales que distinguen y determinan el objeto
de definición.
b. Enunciar de forma sintética y precisa los rasgos esenciales del objeto.
Identificar:
a. Analizar el objeto.
b. Caracterizar el objeto.
c. establecer la relación del objeto con un hecho, concepto o ley de los conocidos.
Clasificar:
a) Identificar el objeto de estudio.
b) Seleccionar los criterios o fundamentos de clasificación.
c) Agrupar los elementos en diferentes clases o tipos.
Ordenar:
a) Identificar el objeto de estudio.
b) Seleccionar el o los criterios de ordenamiento (lógicos, cronológicos, etc).
c) Clasificar los elementos según el criterio de ordenamiento.
d) Ordenar los elementos.
Generalizar:
a) Determinar la esencia de cada elemento del grupo a generalizar.
b) Comparar los elementos.
c) Seleccionar los rasgos, propiedades o nexos esenciales y comunes a todos los
elementos.
d) Clasificar y ordenar estos rasgos.
e) Definir los rasgos generales del grupo.
Observar:
a) Determinar el objeto de observación.
b) Determinar los objetivos de la observación.
c) Fijar los rasgos y características del objeto observado con relación a los objetivos.
Describir:
a) Determinar el objeto a describir.
b) Observar el objeto.
c) Elaborar el plan de descripción.
d) Reproducir las características del objeto siguiendo el plan de descripción
elaborado.
Relatar o narrar:
a. Delimitar el período temporal del acontecimiento a narrar.
b. seleccionar el argumento de relato (acciones que acontecen como hilo conductor
de la narración en el tiempo).
c. Caracterizar los demás elementos que den vida y condiciones concretas el
argumento (personajes, situación histórica, relaciones espacio-temporales).
d. Exponer ordenadamente el argumento y el contenido.
Ilustrar:
a) Determinar el concepto, regularidad o ley que se quieren ilustrar.
b) Seleccionar los elementos factuales (a partir de criterios lógicos y de la
observación, descripción, relato u otras fuentes ).
c) Establecer las relaciones de correspondencia de lo factual con lo lógico.
d) Exponer ordenadamente las relaciones encontradas.
Valorar:
a) Caracterizar el objeto de la valoración.
b) Establecer los criterios de valoración ( valores ).
c) Comparar el objeto con los criterios de valor establecidos.
d) Elaborar los juicios de valor acerca del objeto.
Criticar:
a. Caracterizar el objeto de crítica.
b. Valorar el objeto de crítica.
c. Argumentar los juicios de valor elaborados.
d. Refutar las tesis de partida del objeto de crítica con los argumentos encontrados.
Relacionar:
a. Analizar de manera independiente los objetos a relacionar.
b. Determinar los criterios de relación entre los objetos.
c. Determinar los nexos de un objeto hacia otro a partir de los criterios
seleccionados.
d. Determinar los nexos inversos.
e. Elaborar las conclusiones generales.
Razonar:
a. Determinar las premisas (juicios o criterios de partida).
b. Encontrar la relación de inferencia entre las premisas a través del término medio.
c. Elaborar la conclusión (nuevo juicio obtenido).
Interpretar:
a. Analizar el objeto o información.
b. Relacionar las partes del objeto.
c. Encontrar la lógica de las relaciones establecidas.
d. Elaborar las conclusiones acerca de los elementos, relación y razonamiento que
aparecen en el objeto o información interpretada.
Argumentar:
a. Interpretar el juicio de partida.
b. Encontrar de otras fuentes los juicios que corroboran el juicio inicial.
c. Seleccionar las reglas lógicas que se sirven de base al razonamiento.
Explicar:
a. Interpretar el objeto de información.
b. Argumentar los juicios de partida.
c. Establecer las interrelaciones de los argumentos.
d. Ordenar lógicamente las interrelaciones encontradas.
e. Exponer ordenadamente los juicios y razonamientos.
Demostrar:
a. Caracterizar el objeto de demostración.
b. Seleccionar los argumentos y hechos que corroboran el objeto de demostración.
c. Elaborar los razonamientos que relacionen los argumentos que demuestren la
veracidad del objeto de demostración.
Aplicar:
a. Determinar el objeto de aplicación.
b. Confirmar el dominio de los conocimientos que se pretenden aplicar el objeto.
c. Caracterizar la situación u objeto concreto en que se pretende aplicar los
conocimientos.
d. Interrelacionar los conocimientos con las características del objeto de aplicación.
e. Elaborar conclusiones de los nuevos conocimientos que explican el objeto y que
enriquecen los conocimientos anteriores.

Verbos que se pueden utilizar para expresar objetivos cognitivos


Conocimiento Comprensión Aplicación Análisis Síntesis Evaluación
Recordar Usar Proponer juicios
Descomposición de un Unir distintos
hechos, abstracciones acerca del valor de
Relacionar el contenido en sus elementos elementos
eventos, (teorías, leyes, las materias, los
material nuevo constitutivos de tal manera que para formar
símbolos, fórmulas) en métodos y las
con el previo se vea clara la jerarquía de ideas un patrón
fórmulas y situaciones actividades
e interrelaciones entre ellas nuevo
teorías concretas desarrolladas
Adquirir Completar Aplicar Analizar Concluir Apreciar
Definir Demostrar Demostrar Calcular Construir Argumentar
Describir Descubrir Dibujar Catalogar Crear Clasificar
Identificar Determinar Dramatizar Comparar Derivar Calificar
Memorizar Diferenciar Emplear Contrastar Dirigir Corregir
Mencionar Discutir Emplear Criticar Diseñar Decidir
Narrar Distinguir Enlazar Debatir Establecer Defender
Nombrar Explicar Esbozar Deducir Exponer Escoger
Reconocer Expresar Experimentar Deducir Formular Estimar
Recordar Informar Ilustrar Diagramar Modificar Evaluar
Registrar Interpretar Operar Diferenciar Organizar Justificar
Relatar Parafrasear Organizar Diferenciar Pensar Juzgar
Repetir Predecir Practicar Discutir Planear Medir
Señalar Reafirmar Programar Discriminar Predecir Revisar
Subrayar Reconocer Transferir Distinguir Proponer Seleccionar
Reorganizar Utilizar Examinar Proyectar Valorar
Redefinir Usar Experimentar Preparar
Revisar Inferir Reordenar
Ubicar Inspeccionar Reunir
Traducir Ordenar Sintetizar
Probar
Relacionar
Separar
Verificar
El objetivo es la aspiración, el propósito, el resultado a alcanzar con la investigación y
debe cumplir ciertas condiciones:

– El objetivo es orientador, puesto que resulta ser el punto a partir del cual se desarrolla
la investigación, a su logro se dirigen todos los esfuerzos del personal investigador.

– Debe ser declarado de forma clara y precisa: no puede dar cabida a dudas con
respecto al resultado esperado de la investigación.

– Al formularlo debes dejar explícito, de forma sintética y totalizadora a la vez, el


resultado concreto y objetivo del proceso.

– Está supeditado a los recursos humanos y materiales disponibles.

– Debe ser mensurable o evaluable, ya que la evaluación de toda investigación debe


estar encaminada a la solución o no del problema formulado.

– Debe ser alcanzable, o sea, que todo objetivo debe tener una salida concreta en la
investigación, no se puede plantear un objetivo que no se lleve a vías de hecho.

Ejemplos de objetivos:

Estimar la prevalencia de las discapacidades física y mental en los adultos mayores de


las provincias C y T en el período comprendido entre el 1ro de enero y el 30 de junio del
2020.

Estimar la prevalencia de la discapacidad física y mental en relación con variables


biopsicosociales investigadas en adultos mayores de las provincias C y T en el período
comprendido entre el 1ro de enero y el 30 de junio del 2020.

Identificar dentro de un conjunto de factores biológicos, psicológicos y sociales, cuáles


influyen sobre la discapacidad física de los adultos mayores de las provincias C y T.

Caracterizar las enfermedades de alto costo, incluidas en el Listado Oficial del Consejo
de Salubridad General (CSG).

Establecer el perfil de la demanda total y la oferta potencial de servicios de salud,


disponible para las enfermedades de alto costo.

Aplicar la metodología prospectiva, para construir los escenarios del Fondo de Protección
contra Gastos Catastróficos (FPGC) y evaluar su nivel de sustentabilidad

Diseñar una estrategia metodológica para evaluar las competencias profesionales de los
especialistas de Nutrición.

Definir las competencias profesionales para los especialistas de Nutrición y Dietética.


Determinar los criterios de desempeño como referentes para la evaluación de
competencias profesionales de especialistas en Nutrición.

Describir los fundamentos teóricos y metodológicos que caracterizan la introducción de


la evaluación económica en salud en el contexto c.

Realizar un diagnóstico para precisar la situación de la evaluación económica en salud


en C.

Caracterizar el desarrollo histórico y los procesos de cambio en la atención primaria de


salud, la medicina familiar y la educación médica en el contexto internacional, nacional y
local.

Ejemplo de objetivo general y objetivos específicos:

Objetivo general:

Evaluar la mala nutrición por exceso y los factores asociados en escolares de 6 a 11


años y la aplicación de un programa de intervención que contribuya a su disminución.

Objetivos específicos:

1. Identificar la mala nutrición por exceso en escolares de 6 a 11 años de edad.

2. Identificar afectaciones de la salud que puedan estar asociados con la mala nutrición
por exceso en la población de este estudio.

3. Determinar factores que puedan estar asociados con la mala nutrición por exceso en
los escolares estudiados.

4. Aplicar un programa dirigido a la disminución de la mala nutrición por exceso en los


escolares estudiados.

5. Valorar efectos del programa de intervención, a corto plazo, en una submuestra de la


población investigada.

Los objetivos deben ser respondidos en las conclusiones, por lo cual se recomienda
imaginar la redacción de estas en el acto de la formulación de los objetivos con lo cual
se puede identificar si éstos verdaderamente podrán ser respondidos correctamente.
MARCO TEÓRICO

Con respecto a la construcción del marco teórico y conceptual, la misma se caracteriza,


ante todo, porque no termina en un momento determinado de la investigación, sino que
implica una revisión constante a lo largo de todo el proceso con el fin de perfeccionarlo
continuamente.

Esto significa un continuo ir y venir dentro de las líneas generales que encuadran al
marco teórico y conceptual, persiguiendo la finalidad de revisarlo a la luz de nuevas
elaboraciones teóricas y descubrimientos empíricos. De esto dependerá la ocurrencia o
no de ajustes considerables en las hipótesis planteadas a priori.

La elaboración del marco teórico y conceptual incluye una exhaustiva revisión de la


literatura existente, de la cual se obtendrá el bagaje teórico sobre el problema y la
información empírica procedente de documentos publicados, así como del aporte que
expertos en la materia pudieran hacer en aras de esclarecer si una situación problémica
deviene o no en problema de investigación.

Este momento demanda del investigador una revisión crítica de todo lo existente,
publicado o no, en torno a la problemática abordada.

Señalamos a continuación, un marco teórico a modo de ejemplo:

Uno de los factores más importantes en la determinación del estado de salud de una
población es su estado nutricional, el cual está en correspondencia directa con el grado
de seguridad alimentaria que poseen sus integrantes55.

El estado nutricional de una población no sólo depende de la disponibilidad de alimentos


que posibiliten cubrir sus necesidades energético-nutrimentales, de manera regular, sino
también de factores económicos, geográficos, sociales y culturales que puedan afectar
de forma negativa el acceso físico a los alimentos y la capacidad de las familias para
comprarlos o producirlos56

Uno de los aspectos más importantes del estilo de vida sano de una población es el
desarrollo de costumbres, hábitos y conductas alimentarías que posibiliten lograr y
mantener un estado nutricional normal de los individuos57.

Los factores que intervienen en la elección e ingestión de los alimentos constitutivos de


la dieta son múltiples y tienen un origen fisiológico y psicológico. El sustrato material y
funcional de tales procesos es el cerebro quien se comporta como un gran integrador de
señales de distintas naturaleza y que equilibra el gasto y almacenamiento de energía con
la ingesta de alimentos58.

Desde el punto de vista metodológico y conceptual los términos hambre y apetito deben
ser debidamente diferenciados. Si bien el primero no es más que la conciencia de la
necesidad de ingerir alimentos (sensación prepotente) el segundo se corresponde con el
“deseo de comer”, se asocia a los aspectos más placenteros de la elección e ingestión
de los alimentos al tiempo que puede verse muy acentuado por el hambre en sí 58.

A partir del momento en que aparecen las señales de saciedad derivadas de los factores
cognoscitivos y sensoriales, las diferentes categorías químicas alimentario-nutrimentales
comienzan a generar sus propias señales postingestivas y postabsortivas de saciedad.

En definitiva, el volumen, la composición, la velocidad de absorción y las consiguientes


respuestas metabólicas que se desencadenan, influyen en el intervalo que marca el
comienzo de la aparición de la sensación de saciedad, mientras que la duración de la
misma y el tiempo transcurrido hasta la próxima ingestión de alimentos dependen, en su
esencia, del complejo sistema de respuestas neuronales integrado en el subsistema
nervioso central58, 59, 60, 61, 62, 63. En este sentido se acepta que la mala nutrición influye,
de manera desfavorable, en el desarrollo mental y físico, en la productividad y los años
de vida 64, 65, 66, 67, 68, 69, 70, 71, 72.

Las características organolépticas de los diferentes componentes de la dieta o patrón


alimentario, es decir, las referidas al color, sabor, olor y textura de los mismos, que los
identifican según su palatabilidad e influyen en su aceptación, intervienen en el desarrollo
y consolidación de costumbres, conductas y de los llamados hábitos alimentarios 73, 74, 75.
Los hábitos alimentarios también se relacionan con las variaciones de los recursos
económicos de cada persona o de las colectividades76,77.

En la práctica no resulta nada fácil lograr que el ser humano adecue su dieta a sus
requerimientos de energía y nutrimentos para mantener una estructura y función
normales de las células de sus distintos tejidos y órganos del cuerpo y desarrollar así, la
capacidad para integrar una función corporal total normal.

Desde el punto de vista alimentario y nutricional, la necesidad más importante que debe
ser satisfecha con la dieta es la energética, condicionada la misma por el gasto
energético del individuo el cual, a su vez, está determinado en lo fundamental por el valor
de la tasa metabólica de reposo y la actividad física que éste realiza. La necesidad
energética del individuo se satisface correctamente mediante la ingestión de alimentos
energéticos: los carbohidratos o azúcares (de un 55 a un 60%), las grasas neutras (de
un 25 a un 30%) y las proteínas (de un 10 a un 15%) y, según ésta, así será el resto de
la composición nutrimental de la dieta ingerida, en correspondencia con el concepto de
densidad nutrimental o cantidad requerida de un nutrimento en particular por cada 1000
kcal de necesidad energética.

Una dieta balanceada es aquella que provee al individuo con la energía alimentaria y las
cantidades de nutrimentos necesarias para la realización de los diferentes tipos de
trabajos biológicos. Ello se logra cuando la misma resulta adecuada, suficiente, variada
y equilibrada y proporciona determinadas cantidades y tipos de fibra dietética y
fitoquímicos, además de ser consumida con una frecuencia nunca menor de seis
ingestas. Cada una de las cuales ha de representar, en términos energéticos, la
satisfacción de un cierto valor en porcentaje respecto a la necesidad total de energía del
sujeto (desayuno 20%, merienda matutina 10%, almuerzo 30%, merienda vespertina
10%, comida 20% y cena 10%). Siempre y cuando los hábitos alimentarios del ser
humano sean correctos, éste podrá lograr, en su práctica alimentaria y nutricional, una
dieta saludable, sana, normal o balanceada, objetivo supremo de la Alimentación,
Nutrición y Dietética como ciencias particulares que realmente son.

En nuestra Región, una gran parte de la población sufre las consecuencias biológico-
funcionales negativas de la mala nutrición por defecto y otra parte está sobrealimentada,
expuesta a las enfermedades debidas al exceso de alimentación, observándose en
ambos casos un sobredimensionamiento de los factores culturales, míticos, simbólicos y
educacionales alimentarios en la determinación de la comida de cada día, con una
intervención tan fuerte en las preferencias y aversiones que manifiestan los individuos
por los alimentos que han llegado a constituirse en los elementos primordiales
definitorios de las formas de preparación, distribución y de los servicios alimentarios en
general, sobre bases genéticas particulares 72, 73, 74, 78, 79, 80, 81, 82, 83.

Algo semejante ocurre con las denominadas preferencias alimentarias que identifican e
integran a los individuos en diferentes grupos: los de la comida basura o “junk food”; el
de las comidas rápidas, integrado principalmente por adolescentes; el grupo tentempié
o “snack” de muchos adultos; el “self service” o sírvase usted mismo, el cual ha
transformado a las personas en camarero-comensales, por tan sólo mencionar algunos,
situación está reconocida por la Organización Mundial de la Salud84.

La obesidad se considera como un factor de riesgo importante de las llamadas


enfermedades crónicas no transmisibles85, 86, 87. Es una enfermedad que ha acompañado
al ser humano a través de toda su historia y durante siglos fue considerada sinónimo de
poder, belleza y bienestar físico, según las influencias de factores culturales, políticos,
económicos y religiosos en las diferentes épocas 87.

El sobrepeso y la obesidad se han incrementado notablemente en los últimos años, tanto


en la población infantil como adulta de países desarrollados y de los llamados en vías de
desarrollo, llegándose a constituir en un verdadero problema de salud pública a escala
mundial 88,89.

Desde el punto de vista termodinámico, la obesidad es una enfermedad de etiología


simple, consecuencia de un balance energético positivo prolongado. Esto puede ocurrir
debido a múltiples factores: inadecuada educación alimentaria, hábitos y conductas de
alimentación incorrectos, un genotipo propiciador de la utilización de la energía
metabolizable con una alta eficiencia a través de una determinada estructura metabólica,
enfermedades neuroendocrinas y factores económicos, sociales, culturales y de un estilo
de vida con un nivel de sedentarismo elevado90.

Asimismo, la existencia de factores genéticos como predisponentes al desarrollo de la


obesidad, se pone de manifiesto en la coexistencia de ésta en varios miembros de una
misma familia, observándose que cuando uno de los padres es obeso la probabilidad de
que los hijos lo sean, alcanza un 50% mientras que la misma se eleva al 80% si ambos
padres presentan la enfermedad. Se ha tratado de explicar tales influencias sobre la
base de la transferencia a la descendencia de una menor capacidad termogenética y de
un tono simpático disminuido, factores estos que indudablemente contribuyen al
desarrollo de un balance energético positivo79, 81.

Según planteamientos recientes relacionados con el desarrollo de la Nutrigenómica, el


cúmulo de grasas neutras en el tejido adiposo de la persona, depende de la
susceptibilidad individual, de la cantidad ingerida de sustratos energéticos y de la
distribución de éstos, ya que los procesos de “utilización oxidativa y oxidación de los
hidratos de carbono, lípidos y proteínas, están sujetos a diferentes mecanismos
reguladores independientes, comandados desde el núcleo celular por influencias en la
expresión de la bio información determinante de la disponibilidad y actividad de las
enzimas involucradas en las distintas rutas metabólicas anabólicas y catabólicas” 81, 82.

El número de comidas por día, la cantidad y los ritmos de alimentación pueden variar
ampliamente según la disponibilidad y tipo de comida, oportunidad, situación social, estilo
de vida u otras condiciones y, sin embargo, la mayoría de las personas mantienen
estable, a largo plazo, su peso corporal. Probablemente el control de la ingesta se puede
describir mejor considerando, separadamente, dos sistemas de regulación: a corto y
largo plazo. Si bien las señales de adiposidad, proporcionales al tamaño de las reservas
grasas (control a largo plazo) funcionan, al menos en parte, modulando la efectividad de
las señales de saciedad y hambre (que regulan el tamaño y la duración de las comidas
individuales a corto plazo), la integración de ambos tipos de señales conecta la
regulación a corto y a largo plazo de la ingesta, mecanismo éste de particular importancia
en la génesis y desarrollo de la obesidad 84, 87.

La insulina y la leptina se han propuesto como “señales de adiposidad” para el control


central y a largo plazo del peso corporal62. La grelina, por su parte, podría ejercer un
papel estimulando el inicio de la ingesta61. Asimismo, la hormona neuroendocrina
amilina, la adiponectina y otras adipocitoquinas se plantea que intervienen en una
adecuada integración de la ingesta y utilización en el metabolismo de los
macronutrimentos energéticos de la dieta, lo que pone en evidencia la extrema
complejidad de los mecanismos reguladores y moduladores de la ingesta total de energía
alimentaria y su utilización a través del metabolismo celular 63.

Últimamente se ha venido insistiendo en que además del factor genotípico y de los


comportamientos individuales ante la ingesta de energía alimentaria y su movilización y
utilización a través de la función metabólica celular, existen otros tres factores que
podrían tener una importancia significativa en el favorecimiento del desarrollo de la
obesidad y del sobrepeso corporal a expensas del componente graso del organismo.
Uno de los referidos tres factores es el llamado entorno prenatal que involucra tanto al
alto peso al nacer como la exposición del nuevo ser al ambiente intrauterino propio de
la mujer portadora de una diabetes mellitus tipo I. Ambas situaciones se asocian con
una mayor prevalencia de obesidad y se piensa que los mecanismos responsables del
desarrollo del cúmulo excesivo de grasa neutra en el tejido adiposo pudieran ser
genéticos o ser el reflejo de alteraciones surgidas como consecuencia de la exposición
del feto a sustratos metabólicos específicos. Los otros dos factores estarían en relación
con determinadas enfermedades de la madre y la ingestión de ciertos medicamentos 79,
81.

En todo afrontamiento de la obesidad, la actividad física representa un factor importante


pues facilita el establecimiento y mantenimiento de un balance energético negativo 26, 29.

Es necesario investigar más sobre las formas de mejorar el resultado de las acciones
dirigidas a lograr el adelgazamiento en personas obesas o sobrepeso, mediante el
incremento del desarrollo de programas idóneos para cambiar hábitos y desarrollar
conductas adecuadas en el contexto del llamado estilo de vida saludable11, 21. Se ha
comprobado que diferentes estrategias conductistas, útiles para tratar la obesidad como
el control de estímulos, la prevención de recaídas y el autocontrol, resultan beneficiosas
en el desarrollo de un estilo de vida promotor de salud física, psíquica, mental y
espiritual22, 33, 70, 71.

Estos señalamientos se expresan de una u otra forma en actividades de enfrentamiento


a la mala nutrición por exceso en varios países, aunque los resultados alcanzados fueron
poco beneficiosos por lo cual aún es necesario diseñar y aplicar programas más efectivos
sobre bases científicas y de acuerdo con las condiciones de cada país o región.

En el diagnóstico de la mala nutrición por exceso se utiliza la clasificación nutricional


antropométrica, aunque se debe señalar que, desde el punto de vista de su significación
estadística, esta presenta continuos cambios hacia su mejoramiento, en consecuencia,
con las particularidades de los individuos o las poblaciones objeto de estudio y de lo que
se pretende poner en evidencia.

Se plantea que ninguna clasificación debe hacerse solamente sobre la base de


informaciones estadísticas aplicables a consideraciones dependientes de la distribución
normal o no normal de las variables objeto de estudio pues se acepta que la estatura se
distribuye normalmente mientras que el peso, el grosor de los pliegues tricipital y
subescapular y el área de la superficie grasa del brazo presentan una distribución
francamente desplazada hacia la derecha.

Así mismo, para un mismo tipo de mensuración, el significado de los puntos de corte no
es igual debido a que el intervalo de la variabilidad es diferente a través de las distintas
edades y se viene proponiendo con mucha fuerza la clasificación antropométrica basada
no solo en los puntos de corte percentilares, sino también, y simultaneamente, sobre la
base del valor del Z score.

También se señala que estos diagnósticos deben ser complementados, por datos
obtenidos de estudios clínicos y bioquímicos. En correspondencia con estos
señalamientos, se debe destacar que los valores de referencia utilizados en este trabajo
se encuentran entre los más utilizados en la literatura científica; pero también son objeto
de críticas en relación con su menor especificidad que los de International Obesity Task
Force76 aunque se destaca su mayor sensibilidad en comparación con este.
MÉTODOS o METODOLOGÍA o MATERIALES Y MÉTODOS

En esta sección se tiene que informar al lector lo que se necesita para repetir el estudio,
en caso de que así se desee y obtener sus mismos resultados.

Esta definición incluye señalar: ¿qué? ¿con qué? ¿cómo? Para explicar el diseño;
población y muestra, instrumentos, técnicas y procedimientos, entre otros elementos del
estudio que responden al cumplimiento de los objetivos de la investigación.

Hay que dar toda clase de detalles. La mayor parte de esta sección debe escribirse en
pasado. La finalidad principal es describir (y, en caso necesario, defender) el diseño
experimental, y dar luego detalles suficientes para que un investigador competente
pueda repetir los experimentos.

La redacción cuidadosa de esta sección es de importancia crítica porque la piedra


angular del método científico exige que los resultados obtenidos, para tener valor
científico, sean reproducibles; y, a fin de que los resultados se consideren reproducibles,
es necesario suministrar la base para que otros puedan repetir los experimentos.

El que sea poco probable que alguien decida reproducirlos carece realmente de
importancia; tiene que existir la posibilidad de producir resultados iguales o semejantes
porque si no, el artículo no representará un buen trabajo científico. Cuando el artículo se
someta al arbitraje, un buen árbitro leerá los Materiales y métodos detenidamente. Si hay
serias dudas sobre la posibilidad de repetir los experimentos, el árbitro recomendará que
el manuscrito sea rechazado, por asombrosos que sean sus resultados.

Con respecto a los materiales, hay que incluir las especificaciones técnicas y las
cantidades exactas, así como la procedencia o el método de preparación. A veces es
necesario incluso enumerar las propiedades químicas y físicas pertinentes de los
reactivos utilizados. Hay que abstenerse de utilizar nombres comerciales: normalmente
se prefiere emplear los nombres genéricos o químicos.

Los animales, plantas y microorganismos experimentales deberán identificarse


exactamente, utilizando por lo común las designaciones de género, especie y cepa. Se
indicará la procedencia y se enumerarán las características especiales (edad, sexo y
condición genética y fisiológica). Si se utilizan seres humanos, se describirán los criterios
de selección y se añadirá una declaración de que los interesados han dado su
“consentimiento con conocimiento de causa”.

Como la utilidad del artículo (y la reputación del autor) pueden resultar perjudicadas si
los resultados no son reproducibles, se deben describir con gran cuidado los materiales
de investigación.

En el caso de los métodos, el orden de presentación ordinario es el cronológico.


Evidentemente, sin embargo, los métodos relacionados deberán describirse juntos, y no
siempre se podrá seguir una secuencia cronológica estricta.
Al describir los métodos de las investigaciones, como queda dicho, debe usted dar
suficientes detalles para que un investigador competente pueda repetir los experimentos.
Si su método es nuevo (inédito), proporcione todos los detalles necesarios. Sin embargo,
si el método se ha publicado anteriormente en una revista ordinaria, solo debe indicar la
referencia bibliográfica.

Tipo de estudio

Después de formular la hipótesis y de definir los objetivos del estudio, todo lo cual debe
quedar reflejado de forma explícita tanto en el Proyecto como en el Informe Final de la
investigación, el investigador debe entonces seleccionar el tipo de estudio idóneo para
responder a la interrogante que motiva la investigación, teniendo en consideración que
generalmente existen más de un tipo de diseño apropiado para ello.

La clasificación de los diferentes tipos de investigación se relaciona con el problema que


pretende resolver. Los objetivos que nos planteamos en la investigación ejercen una
influencia capital en la determinación del tipo de estudio que realizaremos.

Las investigaciones pueden clasificarse con arreglo a varios criterios, pero, en lo


fundamental, éstos siguen la línea de considerar el estado de los conocimientos y el
alcance de los resultados.

Tipos de estudios según el estado de conocimientos y el alcance de los resultados.

Estudios exploratorios.

Los estudios exploratorios están dirigidos a lograr el esclarecimiento y delimitación de


problemas no bien definidos.

Es a partir de los resultados de estos estudios que podrán proyectarse investigaciones


que aporten conocimientos más sólidos sobre el problema en cuestión.

Este tipo de estudios se sustenta en una profunda revisión de la bibliografía y en los


criterios de expertos.

Estudios descriptivos.

Como su nombre lo indica, estos estudios se limitan a describir determinadas


características del grupo de elementos estudiados, sin realizar comparaciones con otros
grupos.

Se circunscriben a examinar una población definida, describiéndola a través de la


medición de diversas características.

Son el tipo de estudios que se utiliza para mostrar una serie de casos de una enfermedad
determinada, así como también para obtener o estimar valores de una población
específica, tales como tasa de incidencia, tasa de mortalidad, tasa de prevalencia y otras.
Por la forma en que transcurren los estudios descriptivos se clasifican en:

1. Transversales.- Estudian las variables de forma simultánea en un momento dado.

Son ejemplos característicos de estudios transversales los dirigidos a obtener tasas de


prevalencia, las cuales representan la probabilidad de tener una enfermedad
determinada. Esta se obtiene de dividir el número de individuos que tienen una
enfermedad dada, en un momento determinado, entre el número de individuos que
componen la población objeto de estudio.

Por ejemplo, un oncólogo necesita conocer cuál es la variedad histológica y el lóbulo


pulmonar afectado, más frecuente en los pacientes con cáncer de pulmón atendidos en
su hospital. Para ello revisa los expedientes clínicos de los pacientes con ese diagnóstico
y de ellos toma los datos correspondientes. Como vemos, en este caso las variables
variedad histológica y localización son estudiadas en forma simultánea con respecto al
diagnóstico.

2. Longitudinales.- Estudian las variables a lo largo de un tiempo que puede ser


continuo ó periódico. Los estudios longitudinales a su vez se clasifican en:

a) Retrospectivos.- Estas investigaciones se orientan al estudio de sucesos ya


acaecidos.

Ejemplo: Un investigador diseña un estudio en el cual se propone determinar, en un


grupo de pacientes que han sufrido infarto del miocardio agudo (IMA), cuales eran los
hábitos dietéticos, la actividad física sistemática que desarrollaban y si fumaban, antes
de sufrir el ataque cardíaco.

En este caso el estudio hace referencia a sucesos (hábitos higiénico dietéticos, actividad
física y hábitos tóxicos) que ocurrieron en el transcurso del tiempo hacia atrás, antes de
un momento determinado (la ocurrencia del IMA)

b) Prospectivos.- Estas investigaciones se orientan al estudio de sucesos que están por


acontecer. En este caso son típicos los estudios dirigidos a obtener tasas de incidencias,
las cuales muestran el número de casos nuevos de una enfermedad determinada que se
producen, por unidad de tiempo, en una población dada.

Ejemplos:

1) Se quiere determinar la tasa de incidencia de leptospirosis en una provincia durante


el año 2009, el investigador tendría que cuantificar los casos nuevos de esa enfermedad
que se presenten en residentes en dicha provincia durante ese año y dividirlos por el total
de habitantes de la provincia.
2) A partir de la incorporación de un médico a un centro de trabajo, un investigador se
propone determinar las modificaciones que este hecho provoca sobre la incidencia de
accidentes de trabajo y las ausencias por enfermedad en dicho centro.

Note como las variables serán medidas en el transcurso del tiempo a partir de un
momento dado (incorporación del médico) en adelante, es decir, el estudio se refiere a
sucesos que están por ocurrir.

Estudios Explicativos.

Como la mayoría de los estudios explicativos en ciencias médicas tratan de algún tipo
de relación causa efecto, resulta importante antes de abordar estos estudios definir el
concepto de causalidad manejado por los investigadores y cuándo una posible causa
puede ser considerada causa contribuyente.

Criterio de causa contribuyente.

1. La causa está asociada con el efecto.


2. La causa precede al efecto
3. La modificación de la causa altera el efecto

No se exige que la causa sea necesaria o suficiente para producir el efecto.

También existen criterios auxiliares, accesorios o de apoyo como son:

 Fuerza de asociación.
 Consistencia
 Plausibilidad biológica
 Relación dosis - respuesta

Estudios no experimentales (observacionales o analíticos)

En un estudio no experimental u observacional no se intenta intervenir, ni alterar el curso


de la enfermedad. Los investigadores se limitan a observar el curso de la misma en los
grupos con y sin las características a estudiar.

Los sujetos elegidos pueden o no haber sido seleccionados de la población mediante un


proceso aleatorio (al azar). Por eso dichos grupos no son necesariamente
representativos de todos los de la población.

No obstante, el investigador define las características de los individuos elegibles para el


grupo de estudio y el de control, con el objetivo de que ambos grupos sean tan idénticos
como sea posible, excepto por la característica a estudiar. A esto se denomina
apareamiento. Las características y los desenlaces no se imponen, sino que se
observan.
Estos estudios no experimentales se dividen como sigue:

a) Estudio de casos y controles (retrospectivo).

Su característica específica es que se inician después de que los individuos hayan


desarrollado (o hayan dejado de hacerlo) la enfermedad investigada. Estos estudios se
dirigen hacia atrás en el tiempo para determinar las características que estos individuos
presentaban antes del inicio de la enfermedad. En estos estudios los casos son los
sujetos que ya han desarrollado la enfermedad y los controles los que no la han
desarrollado. Es decir, se trata de determinar en qué otras características, además de la
enfermedad, difieren ambos grupos. Se conoce el efecto y se investiga la causa.

Este tipo de estudio presenta la ventaja distintiva de que permite estudiar enfermedades
muy poco frecuentes ya que se pueden detectar diferencias entre los grupos empleando
muchos menos individuos de los que se necesitarían con otro diseño. Otro aspecto es
que el tiempo necesario para realizar el estudio es mucho menor porque la enfermedad
ya se ha manifestado y además permite examinar de forma simultánea asociaciones
entre varios factores y una enfermedad.

Es importante señalar en este tipo de estudio la tendencia a presentar errores


metodológicos y sesgos. El sesgo es un prejuicio, juicio u opinión formada antes de que
se conozcan los hechos y que puede desviar los resultados de una investigación.

Así podemos encontrar sesgo de selección cuando el grupo control y el de estudio


difieren entre sí en algún factor que pueda influir en la medición del desenlace estudiado,
es decir, cuando la forma en que se asignan los pacientes a dichos grupos origina una
diferencia en el desenlace. Ej: Cuando en un estudio retrospectivo se desea conocer la
posible relación entre la ingestión sistemática de anti - inflamatorios y el desarrollo de
úlcera péptica en el anciano y se toma como grupo control a los miembros de un círculo
de abuelos. En ellos la ingestión de anti-inflamatorios será mínima por la práctica de
ejercicios.

En los estudios retrospectivos es importante tener en cuenta el sesgo de recuerdo,


cuando un grupo se encuentra especialmente motivado para recordar determinados
datos del pasado.

Ejemplo: Puérperas que han perdido sus hijos se esforzarán más en recordar detalles de
su embarazo que aquellas con hijos sanos

También podemos encontrar sesgo de declaración cuando un grupo se encuentra mas


dispuesto a aportar datos íntimos o comprometedores.

Ejemplo: Confesarán más fácilmente el número de compañeros sexuales mujeres con


SIDA que las afectadas por fibroma uterino.

Desde luego otras etapas del proceso investigativo son también susceptibles a sesgo.
No obstante, su tendencia a presentar sesgos, los estudios de Casos y Controles pueden
ser el método adecuado para revelar la existencia de una asociación previa,
especialmente cuando no hay razones para creer que el conocimiento del investigador o
de los sujetos estudiados sobre la presencia de la enfermedad influye en la valoración
de los datos del pasado.

Ejemplo: Se desea determinar si existe relación entre la ingestión sistemática de


salicilatos y del hábito de fumar con respecto a la aparición de úlcera péptica. Para lo
anterior se selecciona un grupo de pacientes con diagnóstico de úlcera péptica (Grupo
de Estudio) y otro grupo de personas (Grupo Control) que no padezcan dicha
enfermedad. Se determina entonces si existen diferencias entre ambos grupos
(utilizando determinadas técnicas estadísticas) en cuanto a la frecuencia en cada uno de
ellos de los antecedentes planteados (ingestión de salicilatos y hábito de fumar).

b) Estudios de cohortes (Prospectivos).

Estos estudios se inician antes de que los individuos hayan desarrollado la enfermedad
investigada y se sigue a los mismos durante un periodo de tiempo para determinar
quiénes desarrollarán la misma, en esto se diferencian de los de casos y controles.

Una cohorte es un grupo de individuos que comparten una experiencia.

En ellos se sigue a una cohorte que posee la característica estudiada y a otra que no la
posee. Ambos grupos son similares entre sí, solo difieren en la presencia o no de la
característica estudiada. Se conoce la posible causa y se investiga su efecto en el
tiempo. Este tipo de estudio presenta la principal ventaja de que ofrece más garantías
de que la característica estudiada precede al desenlace.

Además, permiten delimitar diversas consecuencias que pueden estar asociadas con un
único factor de riesgo, ayudando también a comprender con más detalles el efecto de un
factor etiológico sobre varios desenlaces. Si bien, por otra parte, estos estudios son muy
costosos y requieren de mucho tiempo.

Ejemplo: A partir del ejemplo de estudio de Casos y Controles con respecto a la úlcera
péptica mostrado anteriormente, supongamos que efectivamente se determinó la
existencia de diferencias significativas entre ambos grupos con respecto a la ingestión
de salicilatos. Entonces el investigador decide realizar un estudio de cohorte. Para ello
selecciona un grupo de individuos que ingieren salicilatos de forma sistemática (Grupo
de Estudio), y otro grupo de personas que no posean dicha característica (Grupo
Control). Transcurrido determinado tiempo comparará ambos grupos, con respecto a la
aparición de úlcera péptica en cada uno de ellos, aplicando técnicas estadísticas en la
búsqueda de diferencias significativas.

Una variedad son los estudios de cohortes no concurrentes. Cuando existen datos
fiables de épocas anteriores sobre la presencia o ausencia de la característica estudiada,
estos pueden ser utilizados. La asignación de los individuos a los grupos se lleva a cabo
a partir de los datos del pasado.

Después se puede investigar si la enfermedad se desarrolló posteriormente.

Estudios experimentales.

Cuando se van a diseñar estudios experimentales en el ámbito de las Ciencias Médicas,


ante todo hay que tener especial cuidado en velar celosamente por los aspectos
éticos, por cuanto el objeto de estudio es el ser humano.

Uno de los ejemplos más representativo del Estudio Experimental en esta rama de la
ciencia lo constituye el Ensayo Clínico Controlado. En estos estudios, como en los de
Cohorte, los individuos se siguen durante un período de tiempo para determinar si
desarrollan (ó dejan de desarrollar) la enfermedad o trastorno investigado, pero a
diferencias de estos, el investigador interviene, por ejemplo, aplicando algún tipo de
proceder terapéutico al grupo de estudio, para después de transcurrido un tiempo
comparar los cambios de determinada característica con respecto al grupo control.

En condiciones ideales los individuos se eligen al azar y a ciegas. Al azar porque


cualquier individuo tiene una probabilidad conocida y para todos igual de ser asignado al
grupo control o al de estudio; y a ciegas porque el individuo estudiado desconoce a qué
grupo pertenece. En los estudios doble ciega ni los participantes ni los investigadores
tienen información acerca de a qué grupo pertenece un individuo en concreto.

El Ensayo Clínico Controlado se ha convertido paulatinamente en el criterio de


referencia mediante el cual se juzgan los beneficios de un tratamiento. Este tipo de
estudio es capaz de demostrar los tres criterios de causa contribuyente. Cuando se
aplican a un tratamiento se emplea el término eficacia en lugar de causa contribuyente.

Se quiere indicar con el término eficacia el grado en que un tratamiento produce un


efecto beneficioso cuando se valora bajo las condiciones ideales de una
investigación.

Es preciso distinguir entre eficacia y efectividad. Este último vocablo se aplica para
indicar el grado en que un tratamiento produce un efecto beneficioso cuando se
administra bajo las condiciones habituales de la práctica clínica.

Por ejemplo, en estudios clínicos controlados se ha demostrado que en pacientes


diabéticos que necesitan más de 40 Uds. diarias de insulina lenta para el control de su
glicemia, resulta más eficaz fraccionar la dosis diaria en dos o más subdosis. Sin
embargo, en la práctica clínica habitual dicho esquema no resulta igualmente efectivo
por cuanto muchos pacientes rechazan inyectarse dos o más veces al día y, violando las
indicaciones médicas, continúan administrándose la insulina en una sola dosis diaria.
Habitualmente los ensayos clínicos controlados se utilizan con el objetivo de determinar
si un tratamiento funciona de acuerdo con una dosis dada a través de una vía de
administración y para un tipo de paciente concreto. Cuando se utilizan como parte del
proceso de aprobación de un nuevo fármaco se conoce como Ensayos de Fase III.

Los ensayos de Fase I hacen referencias a los esfuerzos iniciales para administrar el
tratamiento a seres humanos con la finalidad de establecer la dosificación y evaluar sus
posibles efectos teóricos.

Los ensayos Fase II están destinados a establecer las indicaciones y el régimen de


administración del nuevo tratamiento. Estas dos fases se realizan con pequeños grupos
de individuos, en tanto la Fase III (Ensayo Clínico Controlado) se realiza con grupos
grandes. La Fase IV se inicia después que el nuevo fármaco ha salido al mercado, con
el objetivo de detectar efectos colaterales raros o tardíos.

Por la importancia y complejidad de este tema es oportuno destacar a manera de


resumen sus aspectos fundamentales.

Para determinar el diseño de un estudio el investigador debe cerciorarse que el mismo


responda adecuadamente a las preguntas planteadas, por lo que, en primer lugar, los
objetivos del estudio tienen que estar definidos con suficiente precisión y la hipótesis
formulada de forma clara, así como tener en cuenta las ventajas y desventajas de cada
tipo de estudio. Es útil examinar una posible secuencia de estudios para comprobar la
existencia de una causa contribuyente.

Se inicia la investigación con un estudio de casos y controles con objeto de indagar la


existencia de posibles causas. Estos estudios ofrecen la ventaja de la rapidez, el bajo
costo y la capacidad de investigar varias causas a la vez. Además, tiene por objeto
demostrar la existencia de asociaciones o relaciones entre factores. A veces, pueden ser
fiables para garantizar que la causa precede al efecto, si bien pueden dejar algunas
dudas sobre cual precede a cuál. Una vez que se ha comprobado la existencia de una
asociación en uno o más estudios de casos y controles se lleva a cabo un estudio de
cohorte, con el cual es posible comprobar que la causa precede al efecto.

Después de demostrar que la causa precede al efecto se puede utilizar un estudio


experimental (ensayo clínico controlado) para comprobar que la modificación de la
causa altera el efecto.

En este tipo de estudio los individuos se asignan al azar y a ciegas tanto al grupo de
estudio como al de control. Solo el grupo de estudio es expuesto a la posible causa o al
tratamiento propuesto.

El ensayo clínico controlado cumple idealmente con los tres criterios de causa
contribuyente y por ello es un instrumento potente para demostrar que una determinada
causa lo es.
VARIABLES

La variable es una determinada característica o propiedad del objeto de estudio, a la cual


se observa y/o cuantifica en la investigación y que puede variar de un elemento a otro
del Universo, o en el mismo elemento si este es comparado consigo mismo al transcurrir
un tiempo determinado. En unas situaciones se determina en qué cantidad está presente
la característica, en otras, solo se determina si está presente o no.

Existen características o propiedades que permanecen fijas, sin modificarse a lo largo de


un proceso o período. Ejemplo de ello serían el sexo, la raza, el color de los ojos, etc.
Pero aún estas características que resultan fijas para una persona pueden variar de un
individuo a otro de la población. Otras propiedades como la talla, el peso o la edad
además de variar de un individuo a otro, pueden modificarse en el mismo individuo en el
transcurso del tiempo.

También existen características que, aunque están presentes en la población, no las


poseen todos los individuos, como podría ser el alcoholismo o la obesidad.

Operacionalización de las variables.

Las propiedades del objeto de estudio consideradas en la hipótesis están formuladas en


términos abstractos, en conceptos, lo cual con mucha frecuencia impide que en la
práctica puedan ser observadas y medidas directamente.

Mediante el proceso de Operacionalización de las Variables, estas propiedades del


objeto de estudio que no son cuantificables directamente, son llevadas a expresiones
mas concretas y directamente medibles.

Ello se logra a través de la derivación de la variable en:

 Las dimensiones de la variable.- Son las diversas facetas en que puede ser
examinada la característica o propiedad del objeto de estudio.
 Indicadores de la Variable.- Son aquellas cualidades o propiedades del objeto
que pueden ser directamente observadas y cuantificadas en la práctica.

Por ejemplo: La calidad de un servicio de salud puede analizarse en varias dimensiones


como pueden ser:

 Nivel de satisfacción que genera en la población a quien está dirigida


 Nivel de salud de dicha población.

El nivel de salud de una población puede ser observado y medido a través de indicadores
de salud tales como tasas de incidencias, de prevalencia y de mortalidad entre otros.
Clasificación de las variables.

Con arreglo a las relaciones establecidas en el estudio.

 Variable dependiente.- Es la de interés principal. Representa al desenlace o


resultado que se pretende explicar o estimar en el estudio.
 Variable independiente.- Define la condición bajo la cual se examina a la variable
dependiente. Puede, en determinado estudio, no existir variable independiente.
 Variable de confusión.- Actúan como cofactores que modifican a la variable
independiente. De no considerarse adecuadamente pueden sesgar los
resultados. Estadísticamente suelen tratarse a través del ajuste de datos y de
métodos multivariantes.

Ejemplo: Un investigador quiere conocer si existe relación entre el sexo y la severidad


del daño renal en los pacientes diabéticos. Para ello toma dos grupos, uno de hombres
y otro de mujeres diabéticas, y evalúa en cada grupo la función renal.
En este caso la función renal es el desenlace que se pretende medir, por tanto, es la
variable dependiente, mientras que el sexo define las condiciones bajo las cuales se
examina, o sea, la variable independiente.
Sin embargo, como se sabe, el tipo de diabetes y el tiempo de evolución de la
enfermedad tienen importante influencia sobre el desarrollo del daño renal, (variables de
confusión), por lo que estos factores deben ser tomados en consideración al conformar
los grupos y al realizar el análisis estadístico, de lo contrario se podrían sesgar los
resultados.

Con arreglo al tipo de datos que constituyen la medición de la variable.

 Variable Cuantitativa.- Es la variable que representa a una característica o


propiedad del objeto de estudio que se refiere a cantidades, por lo que puede ser
medida directamente en la práctica.
 Variable cuantitativa continua.- Al tomar valores, estos pueden ser
representados con números enteros o fraccionarios, ya que entre dos valores
cualquiera pueden existir un número infinitos de valores intermedios. Los datos
que constituyen la cuantificación de este tipo de variable se generan al efectuar
operaciones de medición. Los mismos se miden en escalas constituidas por un
intervalo constante o uniforme entre mediciones consecutivas, denominadas
Escala de Razón y Escala de Intervalo.
Son ejemplos de este tipo de variable: la glicemia, el colesterol sérico y la estatura.
 Variable cuantitativa discreta.- Son las que al tomar valores, estos solamente
pueden ser representados con números enteros ya que los datos se generan al
efectuar operaciones de conteo. Al igual que en las variables continuas, aquí los
datos se miden en Escala de Razón o de Intervalo.
Ejemplos: el número de hijos, el leucograma.
 Variable Cualitativa.- Es la variable que representa a una propiedad que hace
referencia a cualidades del objeto de estudio, que no pueden ser cuantificadas
directamente en la práctica, como es el caso del sexo y la ocupación.
 Variable Cualitativa Ordinal Politómica.- La variable puede tomar tres o mas
valores posibles, los cuales pueden ser ordenados siguiendo un criterio
establecido por una Escala Ordinal, la cual se caracteriza porque no es preciso
que el intervalo entre mediciones consecutivas sea uniforme.
Un ejemplo característico de este tipo de variable es el Estadio de la Enfermedad, en el
cual se clasifica a una entidad nosológica determinada en estadios que generalmente
van del I al IV, donde cada uno representa un grado mas avanzado de la enfermedad
que el estadio precedente, pero no podemos afirmar que, digamos, la diferencia entre el
Estadio II y el III sea igual que la que existe entre el III y el IV.
 Variable Cualitativa Ordinal Dicotómica.- La variable solo puede tomar dos
valores posibles, pero entre estos se puede establecer un criterio de orden porque
uno representa ventaja o superioridad sobre el otro. Ejemplo: Vivo-Fallecido ;
Eutrófico-Distrófico.
 Variable Cualitativa Nominal.- Este tipo de variable se caracteriza porque los
valores que toma no pueden ser sometidos a un criterio de orden. Ejemplos la
raza y el sexo.

Los cuatro tipos de variables antes descritas: continuas, discretas, ordinales y nominales,
contienen una cantidad relativa de información que va decreciendo en el mismo orden
en que han sido mencionadas.

Un tipo de variable puede ser transformada en otra de menos nivel de información, es


decir, las mediciones de una variable determinada pueden ser clasificadas
posteriormente en una escala de nivel inferior. Desde luego que esto provoca pérdida de
información y reducción de la potencia estadística.
Ejemplo: El hábito de fumar puede ser medido inicialmente como una variable discreta
sobre la base del número específico de cigarrillos que el individuo fuma diariamente, pero
ello puede ser transformado en una variable ordinal politómica si se consideran a los
fumadores como: Ligeros.- los que fuman menos de 10 cigarrillos al día; Moderados.- los
que fuman entre 10 y 20 cigarrillos diarios, e Intensos.- aquellos que fuman mas de 20
cigarrillos al día.

Puede también transformarse en una variable ordinal dicotómica si se limita a


considerar a los individuos en Fumadores y No fumadores.

Lo que nunca podrá hacerse es transformar un tipo de variable en otro tipo que contiene
un nivel de información superior al nivel en que fue medida inicialmente.

Es importante destacar en este momento que cualquiera que sea la escala de


clasificación esta debe cumplir dos requisitos esenciales:

1. Exhaustiva: Debe permitir la clasificación de cualquier individuo que se estudie.


2. Excluyente: Debe constar de clases o subdivisiones mutuamente excluyentes,
en las que solo se cuente a cada individuo una vez.
Todo individuo que se presente en el estudio pertenecerá a una clase y solo a una, dicho
de otro modo, tiene que pertenecer a una clase en concreto y a ninguna otra.

Si por ejemplo se establece la siguiente escala de clasificación para la edad: 20-40; 40-
60; 60-80. Si un individuo tiene cuarenta años de edad podría ser incluido tanto en la
clase de 20-40 como en el de 40-60 por lo que esta escala no tiene carácter excluyente
además a los mayores de 80 años no sería posible clasificarlos. Para satisfacer estos
requerimientos la escala debió diseñarse como sigue: 20-39 ; 40-59 ; 60-79 ; 80 y más.

Finalmente queremos señalar que las pruebas estadísticas se seleccionan con arreglo
al papel que desempeñan las variables en el estudio y al valor o cualidad que
representan.

Ejemplos:

El grupo sanguíneo. {A, B, AB, O}  Var. Cualitativa


Su nivel de felicidad “declarado”. {Deprimido, Ni fu ni fa, Muy Feliz}  Var. Ordinal
El número de hijos. {0,1,2,3,...}  Var. Numérica discreta
La altura. {1’62 ; 1’74; ...}  Var. Numérica continua

Ejemplo de operacionalización de variables

Variable Escala Descripción operacional


operacional
Edad Edad expresada El valor numérico que se obtiene por la diferencia entre la fecha
en años y de nacimiento y la fecha de la evaluación nutricional.
meses
Sexo Masculino Según sexo biológico de pertenencia
Femenino
Peso Expresado en El valor numérico que se obtiene por el registro de la medición
Kilogramos directa de la pesada en balanza marca “SECA”, con una
sensibilidad de 0,1 kg
Talla Expresado en El valor numérico que se obtiene por la medición directa de la
Centímetros estatura mediante tallimetro “SECA” con una sensibilidad de 0,1
cm. (para la obtención del IMC los valores en cm se convierten
en metros)
Circunferencia de la Expresado en El valor numérico que se obtiene por la medición directa de la
cintura Centímetros circunferencia de la cintura con cinta métrica de fibra de vidrio.
Circunferencia de la Expresado en El valor numérico que se obtiene por la medición directa de la
cadera Centímetros circunferencia de la cadera con cinta métrica de fibra de vidrio
Circunferencia del Expresado en El valor numérico que se obtiene por la medición directa de la
brazo Centímetros circunferencia del brazo con cinta métrica de fibra de vidrio.
Pliegue tricipital Expresado en El valor numérico que se obtiene de la medición directa del
Milímetros pliegue tricipital con plicómetro digital “Fat Trac II”, con una
sensibilidad de 0,01 mm
Pliegue Expresado en El valor numérico que se obtiene por la medición directa del
subescapular Milímetros pliegue subescapular con plicómetro digital “Fat Trac II” , con una
sensibilidad de 0,01 mm
Estado nutricional Desnutrido Expresado en percentiles del Indice de Masa Corporal para la
Eutrófico Edad (IMC/E):
Sobrepeso Desnutrido: igual o menor de 5
Obeso Eutrófico: mayor de 5 y menor que 85
Sobrepeso: igual o mayor de 85 y menor que 95
Obeso: igual o mayor de 95
UNIVERSO y MUESTRA

En matemática los conceptos de elemento y conjunto no se definen. Se les consideran


conceptos primarios reconocidos desde la infancia. En estadística ocasionalmente se
trabaja con todos los elementos de un conjunto y otras veces se trabaja con solo una
parte del mismo. En muchas ocasiones cuando se va a realizar un estudio o investigación
resulta imposible, difícil o costoso trabajar con todos los elementos involucrados en el
mismo, así se forman los conceptos de Universo o Población (identificado con conjunto)
y Muestra como solo una parte de los elementos del conjunto que se quiere estudiar.

Ejemplos.

1) En una fábrica se quiere realizar un estudio sobre la duración de los bombillos


incandescentes para lo cual se procedió de la siguiente manera, se seleccionaron al azar
el 5% de los bombillos producidos cada día durante una semana, posteriormente se
iluminaron todos y se procedió a anotar la duración de cada uno, después se
promediaron los tiempos para hallar el tiempo promedio de vida de todo el lote.

2) Se quiere determinar la estatura promedio de los niños de 5 años de edad. Para lo


anterior se selecciona un grupo de niños mediante un procedimiento que garantice se
encuentren bien representados los niños por sexo, razas y lugares de residencia (urbano
y rural).

En el primer ejemplo se ve que es imposible probar todos los elementos de la población


porque de ser así no quedarían bombillos para comercializar, en el segundo ejemplo se
aprecia que es muy difícil y costoso trabajar con todos los niños de cinco años por lo
tanto es necesario tomar una muestra de ellos, en la misma todos los niños de cinco
años, deben estar bien representados.

El hecho de que todos los elementos de la población estén bien representados en la


muestra es una condición necesaria para poder realizar un buen trabajo estadístico. En
efecto, la estadística se divide para dar solución a los problemas en dos partes. Por una
parte encontramos a los procedimientos descriptivos y por otra a los inferenciales.

Con los procedimientos descriptivos solo se describe al conjunto. Estos procedimientos


no se aplican al trabajo con muestras. Las conclusiones a las que se llega son aplicadas
al propio conjunto de elementos que se estudió, en consecuencia es válido para todo él.
A los valores así determinados se les llaman parámetros.

Un procedimiento estadístico descriptivo no hace referencia a muestra ni a población.


Los conceptos de población y muestra están íntimamente ligados y tiene sentido
determinarlos cuando se va a proceder a realizar lo que se conoce como inferencia
estadística.
La inferencia estadística realiza un estudio sobre una o varias muestras extraídas de
una población o universo y las conclusiones a las que se arriban son aplicables a todos
los elementos de dicha población.

Estas conclusiones se aplican a todos los elementos de la población, pero ello no quiere
decir que todos (absolutamente todos) tienen que cumplir con las características
determinadas. Para ello se utiliza la teoría de probabilidades, en el trabajo estadístico de
un estudio las pruebas se diseñan de modo que se puede determinar con qué grado de
probabilidad se encontrarán las características determinadas en la muestra, entre los
elementos que componen la población.

Los estadígrafos muestrales son los valores de la característica estudiada en la


muestra y que se pueden considerar coinciden con los de la población con una
determinada probabilidad de error.

Existe un concepto mucho más refinado para el trabajo con poblaciones y es lo que se
conoce como población objetivo. Desde el punto de vista de la metodología de la
investigación la población objetivo podemos considerarla como aquella población que
está limitada por los objetivos de la investigación que queremos realizar.

Ejemplos.

1. Objetivo: Determinar el peso promedio al nacer de los niños, hijos de madres


aparentemente sanas.
2. Objetivo: Determinar en el municipio Daule el peso promedio al nacer de los
niños, hijos de madres aparentemente sanas.

En el primer objetivo para conducir con propiedad las acciones tendríamos que
considerar a todas las madres del mundo y si se selecciona una muestra para que
realmente sea representativa el esfuerzo sería titánico. En el segundo objetivo la
población de madres se acota solo al municipio Daule.

Lo anterior puede servir para darnos cuenta de lo que significa población objetivo y de
la relatividad de los conceptos de muestra y población.

El uso de muestras tiene el objetivo de extraer conclusiones que sean válidas para el
universo del cual se obtuvo dicha muestra.

Estas conclusiones tienen dos propósitos fundamentales:

1. Estimar el valor de determinada característica de la población (problema de


estimación).
2. Verificación de hipótesis en relación con las características (problemas de
pruebas de hipótesis).
Condiciones de una buena muestra:

 Tamaño (cantidad de elementos de la población incluidos en la muestra)


 Calidad (forma en que fueron seleccionados los elementos que la integran)

Mientras mayor sea el tamaño de una muestra menor es el error de muestreo que se
comete, aunque esto depende de muchos factores como recursos, tiempo disponible,
etc. Se considera como error de muestreo a las diferencias que existen entre los valores
parámetros y los estadígrafos.

Muestra representativa es aquella que posee calidad y tamaño apropiado para hacer
mínimos los errores de muestreo. Si la inferencia estadística realiza generalizaciones
sobre el comportamiento de una población estudiando solo una parte limitada de ella
(muestra) entonces si la muestra (o las muestras) no es representativa la inferencia
carecerá de valor científico.

En virtud de que la selección de la muestra resulta de interés fundamental para que la


inferencia sea válida debemos pasar a estudiar los métodos de muestreo.

Métodos de muestreo.

Los métodos de muestreo se conforman en correspondencia con los tipos de muestras


que se necesitan seleccionar. Es evidente que el tipo de muestra está en relación directa
con los objetivos del trabajo y el tipo de estudio que se necesita hacer.

En general se plantea que existen dos grandes tipos de muestreo que son el muestreo
probabilístico, cuando todos los elementos de la población tienen la misma probabilidad
de ser seleccionados y el no probabilístico, cuando no se cumple lo anterior.

Las métodos de muestreo pueden ser de conveniencia, opinático, aleatorio simple,


sistemático, estratificado, de conglomerado y combinado.

 Muestreo de conveniencia. Cuando se toman los elementos de los que podemos


disponer de forma más fácil.
Ejemplo: Se pretende conocer el estado de opinión de la comunidad con respecto
a la calidad de la atención que le brinda un centro hospitalario. Para ello se decide
encuestar a todas las personas de dicha población que acudan al mismo en el
horario de visita un día determinado.
 Muestreo opinático. La selección de los elementos de la muestra se basa en la
experiencia y juicio del seleccionador.
Ejemplo: Se desea determinar cuáles son, a criterio de los profesores de una
escuela, las cualidades que debe reunir un buen alumno. Para ello se decide
entrevistar a aquellos profesores que, según la opinión del investigador, tienen el
más alto nivel pedagógico dentro del claustro.
 Muestreo aleatorio simple. Es el método de muestreo más importante porque
además se utiliza como procedimiento en otros métodos de muestreo. Consiste
en seleccionar los elementos que integrarán la muestra mediante un
procedimiento aleatorio (al azar).
Ejemplo: Se asigna un número diferente a cada elemento del Universo y se
seleccionan los que integrarán la muestra por medio de una Tabla de números
aleatorios o por fichas numeradas que se extraen de un bombo.
 Muestreo sistemático. Se establece una forma de selección que se repite
siguiendo un intervalo prefijado, el cual responde a la fórmula k =N/n donde:
k: número entero que representa al intervalo de selección
N: tamaño del Universo o Población
n: tamaño que se fijó para la Muestra
Se toma como punto de arranque cualquier punto situado entre 1 y k, a partir del
cual se va adicionando el valor k.
Ejemplo: Para controlar la calidad de los exámenes complementarios realizados
en un laboratorio clínico, el jefe de laboratorio decide repetir personalmente la
prueba a 10 de las 250 extracciones de sangre realizadas ese día.
N = 250 n =10 k =250/10 =25
Se escoge como punto de arranque cualquier número entero entre 1 y 25 para
inicial la selección. Supongamos que se escoge el 8, la muestra quedará entonces
integrada por las extracciones número: 8 ; 33 ; 58 ; 83 ; 108 ; 133 ; 158 ; 183 ; 208
y 233.
 Muestreo Estratificado. Los elementos son seleccionados atendiendo a su
pertenencia a determinada clase o estrato, de manera que en la muestra estén
representados los elementos de cada clase en la misma proporción en que lo
están en la Población objeto de estudio.
Ejemplo: Se quiere determinar la proporción de fumadores entre los pobladores
de una comunidad, según el sexo. Se fijó que el tamaño de la muestra debe ser
de 300 individuos. Si las mujeres representan el 55% de los habitantes y por tanto
los hombres el 45% restante, se escogerían al azar para integrar la muestra un
total de 165 mujeres y 135 hombres. Ellos representan el 55% y el 45%
respectivamente de 300.
Queda así constituida la muestra con una representación de cada sexo en la
misma proporción en que lo está en la población.
También pudo haberse operado de la manera siguiente: si el tamaño de la
muestra representa, por ejemplo, el 20% del tamaño del Universo, se seleccionan
el 20% del total de mujeres y de hombres respectivamente.
 Muestreo por Conglomerado. Los elementos son seleccionados en forma
agrupada del Universo, siguiendo algún criterio determinado de grupo de
pertenencia.
Ejemplo: Para identificar los factores de riesgo vulnerables de la enfermedad
ateroesclerótica en los trabajadores agrícolas de una provincia, se seleccionan
aleatoriamente un número de cooperativas de producción agropecuaria y se
estudian a todos los trabajadores de dichos centros.
 Muestreo combinado. Es la forma de muestreo que resulta de combinar en
varias etapas dos o más de los métodos antes descritos.
Ejemplo: Para un estudio sobre Enfermedades de Transmisión Sexual en un
municipio, se selecciona una tercera parte de los consultorios del Médico de la
Familia del área urbana y del área rural respectivamente (Estratificado). La
muestra quedará integrada por todos los adultos de los consultorios seleccionados
(por Conglomerados).

Recolección de los datos

La recolección de datos es un momento importante en el desarrollo de una investigación.


Debemos considerar que un dato constituye una unidad de información sobre una
determinada característica que queremos estudiar.

El método de recolección de datos.

El método de recolección de datos está constituido por la secuencia de pasos o etapas


que se realizan en función de la búsqueda, adquisición y recopilación de los datos
necesarios para alcanzar los objetivos planteados en el estudio y que podemos describir
de la siguiente manera:

Etapa de planificación. En esta etapa se define y planifica el conjunto de acciones que


serán ejecutadas en las etapas siguientes. Sus objetivos fundamentales son:

 Precisar los datos que se requieren, según la definición y operacionalización de


las variables, para alcanzar los objetivos del estudio.
 Seleccionar la forma de observación o medición.
 Indicar la escala de medición de cada variable.
 Seleccionar las técnicas e instrumentos para la recolección de datos.
 Definir las formas y etapas del trabajo en el terreno.
 Precisar el flujo de la información.
 Determinar el nivel de competencia necesario para el personal que va a intervenir,
y su entrenamiento.
 Determinar las técnicas y equipos de medición que se utilizarán, así como el
cumplimiento de las normas de calibrado, ajuste, mantenimiento y reparación de
estos últimos.
 Forma y tiempo que deberá conservarse la información.

Etapa de ejecución. En la misma se llevan a la práctica las acciones planificadas en la


etapa anterior.

Etapa de verificación. En esta etapa se comprueba la validez y confiabilidad de la


información recogida, garantizando así que esta sea lo más objetiva y precisa posible, o
sea, que se corresponde con los hechos reales.
Por ejemplo: Si se recogen datos a través de una encuesta sobre los cuidados que tienen
las madres de niños menores de un año para evitar las enfermedades diarreicas, y en
tal actividad participan varias personas, es necesario que alguien vuelva a encuestar a
una parte de las madres con el propósito de verificar si en las informaciones recogidas
no se omitió o modificó inconscientemente algún dato.

La cantidad de datos que requieren ser verificados depende de varios factores como son
el tamaño de la muestra y el grado de confiabilidad esperado. Generalmente esto es
determinado con el auxilio del estadístico.

Técnicas para la obtención de datos.

En las diferentes ramas de la ciencia existen numerosas técnicas para la obtención de


datos. En las ciencias médicas en particular podemos distinguir una extensa variedad de
técnicas dirigidas a obtener información por medios de análisis bioquímicos, de trazados
eléctricos y de imágenes procedentes de emisiones varias, para lo cual se emplean
diversos, y a veces muy complejos instrumentos, que son del dominio de las diferentes
especialidades.

Pero además existen otras técnicas más generales y de amplio uso en las ciencias
sociales, destinadas a recopilar información referida de forma oral o escrita, por los
individuos estudiados.

Entre estas podemos destacar:

 El censo. Esta técnica consiste en la obtención de datos procedentes de todos


los elementos de la población u objeto de estudio, en un tiempo determinado y
siguiendo un cuestionario previamente elaborado.
 La encuesta. Se diferencia del censo en que la encuesta se aplica solo a una
muestra de la población u objeto de estudio.
 La entrevista. Es la técnica de obtención de información a través del diálogo, por
lo que requiere de ciertas habilidades por parte del entrevistador. La entrevista
puede o no, estar estructurada a partir de un cuestionario.
 El registro. Consiste en recoger información sobre determinadas variables en
forma sistemática y continua o periódica.

Instrumentos para la recolección de datos.

 Cuestionario. Es un instrumento imprescindible para el censo y la encuesta, y


como se dijo antes, su uso es opcional en la entrevista. Consiste en una serie de
preguntas específicas, que permiten evaluar una o varias de las variables
definidas en el estudio.
 Planilla de recolección de datos. Es un instrumento muy utilizado con la
finalidad de facilitar la recopilación referente a cada elemento de la muestra o
población. La información obtenida, como resultado de las mediciones de las
variables, es recogida en una planilla específicamente diseñada al efecto.
 Base de Datos. Es la forma organizada y estructurada de recopilar la información
obtenida de todos los elementos estudiados. Las "Sabanas de Datos" utilizadas
hasta hace un tiempo han sido sustituidas progresivamente por diversos
programas de aplicación de la computación (Dbase III, Epinfo, Oracle, Access)
por cuanto facilitan y agilizan espectacularmente el procesamiento de la
información.

Procesamiento de los datos

Una vez recolectados los datos es necesario organizarlos, clasificarlos y resumirlos


adecuadamente, de manera tal que posibilite un mejor análisis de la información
obtenida. Un recurso muy útil para este fin lo constituye las medidas resumen las cuales
describimos a continuación:

Medidas resumen de variables cualitativas (Medidas de cociente)

 Razón o índice. Sean los datos A y B para los cuales se establece la relación A /
B donde A no está contenido en B (no tienen elementos comunes)
Ejemplo: En un grupo de pacientes hipertensos hay 100 hombres y 50 mujeres.
Podemos plantear que A=100 y B=50 , entonces la Razón de Hombre-Mujer
=100/50=2
Las notaciones más utilizadas son A : B ó A / B.

En el ejemplo anterior podría ser: Hombre : Mujer =2 : 1


Que se interpreta: En la serie de pacientes hipertensos hay 2 hombres por cada mujer.
En el cálculo de algunos índices, para evitar que el resultado sea una fracción el cociente
se multiplica por una potencia de 10.
Ejemplo:

Proporción. Sean los datos A y B para los cuales se establece la relación A / B, donde
A está contenido en B. La más utilizada es la variante que responde a la fórmula

donde k= 1; 2; 3; 4; … y cuyo ejemplo más común es el por ciento (%)

Ejemplo:
A = pacientes hospitalizados con várices = 20
B = total de pacientes hospitalizados = 200
A/B x 100= 10 Notación 10 %

Interpretación. De cada 100 pacientes hospitalizados 10 presentan várices


 Tasa. Es un tipo especial de medida resumen en la que se establece una
proporción con relación espacial y temporal. El denominador incluye una unidad
de tiempo.
Se representa por la fórmula:

Donde: A. Es un evento
B. Población susceptible a dicho evento
K = 2, 3, 4, …….
Referido a un lugar determinado en la unidad de tiempo dada
Son ejemplos característicos la tasa de mortalidad infantil y las tasas de incidencia.
Ejemplo:
A= Fallecidos menores de un año en provincia M en 2010 = 84
B= Total de nacidos vivos en provincia M en 2010 = 9805
k= 3

Interpretación: La tasa de mortalidad infantil en la provincia M en 2010 fue 8.6 por cada
1000 nacidos vivos.

Medidas Resumen de Variable Cuantitativa.

Medidas de Tendencia Central.

 Media Aritmética. Es el cociente que se obtiene al dividir la suma de todos los


valores entre la cantidad de valores.

Ejemplo: Para el conjunto de valores 80; 60; 20; 40

 Mediana. Al conjunto de valores dispuestos en orden secuencial de acuerdo a sus


magnitudes, ya sea de menor a mayor o viceversa se denomina ordenamiento.
La mediana es el valor central de un ordenamiento.
Ejemplo: Para los valores 70 ; 80 ; 50 ; 100 ; 30
Ordenamiento: 100 ; 80 ; 70 ; 50; 30 La mediana es 70
En caso de haber un número par de valores la mediana es la media de los dos valores
centrales.
Ejemplo: 2 ; 5 ; 7 ; 8 ; 9 ; 12 La mediana es 7.5

 Moda. Identifica el valor que se repite con mayor frecuencia en un conjunto de


datos. Ejemplo: Para el conjunto de valores 3 ; 3 ; 3 ; 6 ; 6 ; 8 ; 10 ; 10. La moda
es 3
En algunos casos puede existir mas de una moda.
Ejemplo: 3 ; 3 ; 4 ; 6 ; 6 ; 7 ; 10 ; 10
La moda es 3 ; 6 y 10.
En otros casos puede no existir moda.
Ejemplo: 3 ; 4 ; 6 ; 7 ; 10 ; 11 La moda no existe.

Medidas de dispersión.

 Amplitud o Rango. Es la medida de dispersión más fácil de calcular y la más


imperfecta. Es la diferencia entre el valor máximo y mínimo en un conjunto de
valores. Indica el recorrido de los datos y resulta útil cuando se va a confeccionar
una tabla.
Ejemplo: Para el conjunto de valores 40 ; 60 ; 85 ; 72 ; 100

Amplitud = Valor Máximo – Valor Mínimo = 100 – 40 = 60

 Desviación Estándar. Es la más importante de las medidas de dispersión debido


a su uso en la Inferencia Estadística. Su objetivo es determinar la proporción de
valores que están situados dentro de cierta distancia de un punto central y su
cálculo se basa en las diferencias de los valores individuales con respecto a la
media del conjunto de valores.

Ejemplo de metodología:

Para identificar la prevalencia de la mala nutrición por exceso en la población infantil de


seis a 11 años en A… se realizó un estudio descriptivo de corte transversal. El universo
estuvo constituido por 9604 escolares comprendidos en las edades antes señaladas, que
asisten a 35 escuelas que se encuentran en los 12 asentamientos poblacionales de
Aruba, de los que se escogió una muestra de 3952 escolares.

La antropometría se utilizó en este estudio porque permite una aproximación al


conocimiento de los dos componentes básicos de la masa corporal total del individuo y
es una técnica no invasiva, económica y de fácil aplicación, recomendada para utilizar
en las investigaciones de un número elevado de individuos. Para realizar las mediciones
se utilizó la técnica del Programa Biológico Internacional (PBI) señalado por Weiner y
Lourie43.
Se tomó peso, talla, pliegues tricipital y subescapular, circunferencias del brazo, de
cintura y de cadera. Se determinaron los índices Peso/Talla, Peso/Edad, Talla/Edad,
Índice de Masa Corporal, Cintura/Cadera, Áreas de Músculo y de Grasa del Brazo. Los
resultados de estas medidas se compararon para su clasificación con los percentiles del
grupo de referencia según WHO, excepto los índices cintura/cadera44, 45.

Como el grado de maduración biológica influye en las dimensiones corporales, fue


necesario lograr una información de ésta, para interpretar adecuadamente los datos que
suministró la antropometría y lograr una adecuada valoración nutricional.

A los 3952 escolares investigados se les realizó un examen físico y toma de tensión
arterial el mismo día de la evaluación antropométrica.

Se realizó una valoración integral de los resultados de todas las mediciones e índices
realizados para el diagnóstico del estado de salud nutricional de cada individuo estudiado
y se clasificaron en: obesos, sobrepesos, eutróficos o normopesos y desnutridos.

Los resultados de las evaluaciones antropométricas realizadas se utilizaron en los


análisis estadísticos correspondientes para identificar las proporciones de las mismas y
las prevalencias.

Con la finalidad de identificar factores alimentarios, actividad física y otros que puedan
estar asociados con la mala nutrición por exceso en la población de este estudio, se
realizó un estudio analítico del tipo de casos y controles en un total de 1776 niñas y niños,
tomando una submuestra de eutróficos, obesos y sobrepesos con una proporción de dos
a uno, entre los eutróficos y los obesos y entre los eutróficos y lo sobrepesos.

Se aplicaron encuestas dietéticas de frecuencia semicuantitativa del consumo de


alimentos de un mes por niñas y niños a los padres de la submuestra seleccionada.
También se aplicaron encuestas para conocer el régimen de vida escolar y extra escolar,
que se aplicó a los maestros en relación con las actividades de niñas y niños en las
escuelas y a los padres de niñas y niños de la submuestra seleccionada en relación con
el resto del tiempo.

Para clasificar las actividades físicas de los niños en ligera, moderada e intensa se
utilizaron los criterios señalados por Nutrition and Toxicology Research Institute of The
Netherlands46 y el Informe de la Reunión Consultiva Conjunta FAO/OMS/UNU de
Expertos47.

Se investigó el gasto energético por movimiento en 46 escolares de la submuestra


seleccionada.

Se registraron factores que pueden estar asociados con la mala nutrición que se
identificaron a través de: examen físico, toma de tensión arterial, antecedentes
patológicos personales, antecedentes patológicos familiares y exámenes bioquímicos 48,
49.
La información de los análisis bioquímicos se obtuvo a partir de las investigaciones de
325 niñas y niños identificados en tres subgrupos de eutróficos, obesos y sobrepesos.

Se confeccionó un programa de intervención contra la obesidad infantil sobre la base de


los resultados observados en las investigaciones de la prevalencia de esta enfermedad
en la muestra estudiada y los factores causales o favorecedores de esta.

El programa se confeccionó con los siguientes componentes: Creación y desarrollo de


“Comunidad con vitalidad” (una alianza contra la obesidad); Comunicación social sobre
actividad física y alimentación saludable; Capacitación de maestros, padres, niños,
manipuladores y comerciantes; Acciones para elevar el nivel de actividad física y
Acciones que permiten una alimentación saludable.

El plan de intervención contra la obesidad se aplicó a partir del mes de octubre del 2004
en la isla de Aruba de acuerdo con los procedimientos descritos en el mismo, tal como
se indica en el Anexo 8. Su evaluación a corto plazo se realizó a través de los indicadores
de seguimiento y de resultados.

Otro ejemplo de metodología:

Se realizó un estudio de corte transversal sobre las alteraciones de la voz y condiciones


de trabajo en los docentes de primera y segunda etapa de educación básica (nivel
primaria), en tres municipios del estado Aragua-Venezuela. Como grupo de referencia
se consideró la población general de los municipios estudiados para comparar la
prevalencia de disfonía. A pesar de las limitaciones de este tipo de diseño, fue
considerado pertinente y útil. El modelo utilizado en la investigación intenta ser sistémico
y es novedoso para evaluar la presencia de alteraciones de la voz y las condiciones de
trabajo.

La población (universo) estuvo conformada por todos los docentes de educación primaria
que al momento del estudio laboraban en el sector público en los Municipios Linares
Alcántara, Santiago Mariño y Girardot del estado Aragua (N = 1743 docentes).

La selección de estos municipios se fundamentó en:

1) La ubicación geográfica y facilidad de acceso (área de influencia de la Universidad de


Carabobo).
2) Constituyen el área más poblada del Estado Aragua.
3) Limitaciones económicas impidieron hacer un estudio representativo de todo el Estado
Aragua.

La muestra. Para el cálculo del tamaño de la muestra se utilizó el paquete estadístico


Epidat de la OPS/OMS y se tomaron en cuenta los siguientes parámetros: la población
elegible fue de 1743 maestros y maestras. Se consideró una proporción esperada de
60% (basado en la referencia de estudios previos). El nivel de confianza fijado fue de
95%, precisión del 4% y el efecto del diseño 1,0. Con todos estos parámetros el tamaño
de la muestra resulto equivalente a 434 individuos.

Criterios de inclusión. Escuelas del sector público, nacionales, estadales ó Bolivarianas


de educación básica (primera y segunda etapa) y autorizadas por el directivo. Para los
docentes: maestros de aula, cargos fijos, suplentes ó interinos, mínimo un año de
antigüedad laboral, activos en las escuelas en el momento de la investigación, y
consentimiento voluntario por escrito.

Tipo de muestreo. Razones organizativas y económicas aconsejaron realizar el acopio


de la información mediante un diseño tipo submuestreo con unidades de tamaños
desiguales o por conglomerado estratificado. El cual tomo en cuenta el municipio, la
escuela y el maestro; Para ello se obtuvo el listado de establecimientos educativos,
correspondiente a los tres municipios estudiados encontrándose 755 centros, de los
cuales 508 correspondían al sector público (en sus diferentes modalidades educativas).

Se identificaron 83 escuelas que cumplían los criterios de inclusión, siendo éstas el


universo del estudio y conformando las unidades de muestreo de primera etapa.
Inicialmente se organizaron los estratos los cuales fueron numerados del 1 al 3 y
conformaron la identificación del municipio, luego dentro de cada municipio, a cada
escuela se le hizo corresponder un número y asociado a éste, el tamaño de la misma,
que se correspondía con la cantidad de maestros que laboraban en ella (Linares
Alcántara 15 escuelas; Girardot 49 escuelas y Santiago Mariño 19 escuelas).

Gracias a las facilidades del paquete estadístico Epidat se seleccionó dentro de métodos
el muestreo y luego muestreo estratificado conglomerado bietápico, con el cual se
accedió a la información contenida en el fichero previamente confeccionado, y el cual
permitió seleccionar aleatoriamente las escuelas y los maestros que cumplimentaba la
significación deseada.

Una vez seleccionadas las escuelas estas se visitaron y se solicitó el consentimiento del
equipo directivo para ser incluida en el estudio. Se solicitó al director el listado de
docentes adscritos. Finalmente la muestra quedo conformada por 23 escuelas.

Proceso de selección de los participantes: 1) Se revisó el listado de docentes adscritos


para identificar los que cumplían los criterios de inclusión 2) A los maestros que
cumplieron los criterios de inclusión, se les explicó los objetivos del estudio y se les
solicitó el consentimiento por escrito. 3) Los que aceptaron participar fueron incluidos y
evaluados. Finalmente fueron evaluados 445 docentes, se eliminaron 9 en el análisis. La
muestra quedo conformada por 438 docentes, procedentes de 23 Escuelas. La tasa de
participación promedio fue de 80%.

Técnicas e instrumentos. Fueron utilizados la Historia Clínica recomendada por el


Instituto Nacional de Salud de los Trabajadores (INSAT) de Cuba. A todos los
trabajadores se les realizó la anamnesis y el examen físico. Se utilizó la Historia
Ocupacional recomendada por el Centro de Estudios en Salud de los Trabajadores de la
Universidad de Carabobo (CEST-UC). La prueba para evaluar fatiga usada es original
de H. Yoshitake, habiéndose utilizado en el presente estudio la versión 5 modificada por
el Departamento de Psicología del INSAT – Cuba (1987). De igual manera se utilizó la
prueba Seppo Aro para evaluar el estrés, original de Seppo Aro, habiéndose utilizado en
este estudio una versión modificada y validada por el Departamento de Riesgos Físicos
del INSTA – Cuba (1983). A cada maestro se le aplicaron dichas pruebas. En cada
escuela se realizó la evaluación ambiental por métodos cuantitativos y la evaluación
ergonómica, usando el método de Helsinki modificado por Almirall y Carral. Todos estos
instrumentos han sido utilizados en investigaciones previas en Venezuela.

Programa de preservación de la voz. Se realizó la propuesta tomando en cuenta los


resultados del estudio, las opiniones técnicas del equipo del INPSASEL, la entrevista a
directivos del MED y de los médicos de la Consulta de Foniatría del IPASME. Igualmente
se consideró las sugerencias legales establecidas en la LOPCyMAT 41 y en las Normas
Venezolanas COVENIN 2260-88 42 y el proyecto en revisión de esa normativa, referidas
a la elaboración y seguimiento de un programa de higiene y seguridad ocupacional.

RESULTADOS

Una vez recogida y procesada la información, es necesario presentar los resultados de


manera adecuada, de forma tal que contribuya a una mejor comprensión y exposición de
dichos resultados, en función de los objetivos del trabajo.

Hay que presentar los datos. La exposición de los resultados debe redactarse en
pretérito. ¿Cómo presentar los datos?

Si solo hay que presentar una o varias mediciones, deberán tratarse descriptivamente
en el texto. Las mediciones reiteradas se presentarán en cuadros o gráficas. Cualquier
medición, reiterada o no, deberá tener un significado claro.

Supongamos que, en un grupo determinado de experimentos, se examinaron algunas


variables (de una en una, claro). Esas variables que afectan a la reacción se convierten
en mediciones o datos y, si son extensas, se incluyen en cuadros o gráficas.

Las variables que no parezcan afectar la reacción no tienen por qué presentarse de esa
forma; sin embargo, a menudo es importante exponer incluso los aspectos negativos de
los experimentos. Con frecuencia es una buena garantía decir lo que no se encontró en
las condiciones en que se realizaron los experimentos. Es muy probable que otro
obtenga resultados diferentes en condiciones diferentes. Si se utilizan estadísticas para
describir los resultados, deberán ser estadísticas con un significado claro.

Hay que esforzarse por ser claros

Los resultados deben ser breves y claros, sin palabrería.


Aunque la sección de Resultados de un artículo es su parte más importante, a menudo
es también la más corta, especialmente si va precedida por una sección de Materiales y
métodos y seguida por una Discusión bien escritas.

Los Resultados tienen que expresarse clara y sencillamente, porque representan los
nuevos conocimientos que se están aportando al mundo. Las partes anteriores del
trabajo (Introducción y Materiales y métodos) tienen por objeto decir por qué y cómo se
obtuvieron los Resultados; la última parte (Discusión) se ocupa de decir lo que estos
significan. Por ello, evidentemente, todo el artículo se sostendrá o no sobre la base de
los Resultados.

Por consiguiente, estos deben presentarse con una claridad cristalina.

En los Resultados no debe cometerse el pecado de redundancia. La falta más corriente


consiste en repetir con palabras lo que resulta ya evidente para el lector al examinar las
figuras y los cuadros. Todavía peor es presentar en el texto todos o muchos de los datos
que muestran los cuadros o figuras.

Existen tres tipos fundamentales de presentación: Textual, Tabular (cuadro estadístico)


y Gráfica.

Presentación textual.

La presentación de la información textual es la forma escrita habitual de presentar un


documento o informe. Constituye la forma principal de presentación de los resultados.
Atendiendo a que se trata de una comunicación científica debe limitarse a lo
estrictamente necesario, cuidando de mantener una secuencia lógica en la exposición y
de no incurrir en repeticiones innecesarias, citando todas y cada una de las tablas y
figuras a que se haga referencia.

Cuadro o tabla estadística.

Los datos originales recopilados por el investigador, directamente de la fuente, se les


llama datos primarios y una vez que son sometidos a algún procesamiento estadístico
(como resumirlos en una tabla o gráfico) se les llaman datos secundarios. Los datos
primarios contienen información más precisa que los secundarios, pero son también más
difíciles de manipular porque generalmente son muy voluminosos.

Los cuadros estadísticos resultan de gran ayuda tanto para el investigador como para el
lector del informe de su trabajo, ya que constituyen una forma sintetizada y más
comprensible de mostrar los resultados sobre todo cuando la información es de tipo
repetitivo. Además, permite mostrar frecuencias, relaciones, contrastes, variaciones y
tendencias mediante una presentación ordenada de la información.

El autor debe velar porque las tablas sean autoexplicativas, es decir que el lector no
tenga necesidad de acudir al texto para conocer de qué trata determinada tabla.
Las partes de una tabla son:

 Número de orden.
 Título
 Cuadro propiamente dicho o cuerpo de la tabla
 Notas explicativas o calce, también se le llama píe.

Número de orden. El mismo se emplea para facilitar la referencia a la tabla en el texto.


Debe asignársele un número consecutivo a cada tabla siguiendo el orden en que se citan
por primera vez en el texto. Este número la identifica y se coloca precediendo al título.

Título. Debe ser completo, claro y conciso, es decir, debe reflejar claramente en qué
consiste el contenido y con qué criterios se clasificaron los elementos a que se hace
referencia, ubicándolo además en tiempo y lugar.

Cuadro o cuerpo de la tabla. Está constituido por un grupo de casillas o celdas


formadas por el entrecruzamiento de filas y columnas. La primera fila se reserva para
indicar a qué se refieren los datos subyacentes y que unidad de medida se utilizó. En la
primera columna se reflejan las diferentes clases según la escala de clasificación
empleada.

Notas explicativas, calce o píe. Sirven para indicar la fuente de donde se obtuvieron
los datos y, de ser pertinente, la significación estadística o alguna breve nota aclaratoria
del contenido, que puede indicarse por llamadas mediante símbolos colocados como
exponentes.

Ejemplo:
Tabla 1 Hábito de Fumar según Sexo. Hospital "Aleida Fernández" 2017

Masculino Femenino Total

Fumadores 60 15* 75

No Fumadores 20 60 80

Total 80 75 115

Fuente: Historias Clínica. P< 0.5


*Se incluyen dos pacientes en que el dato no aparece en la historia clínica
Tipos de tablas.

Las tablas se clasifican en:

Distribuciones de frecuencias.
 Series cronológicas
 Datos de asociación

Las tablas estadísticas pueden prepararse de forma simple o compleja. En ambos


casos las variables que se representan pueden ser discretas o continuas.

La tabulación simple está indicada para presentar los hechos con respecto a uno o más
grupos de investigaciones independientes.

A continuación se muestra un ejemplo de tabla simple mediante una distribución de


frecuencias de una variable cualitativa nominal.

Tabla 2. Localización anatómica de los nódulos en la glándula mamaria.


Hosp. "Calixto García". 2014

Localización No. de %
casos
Cuadrantes 164 47.7
superiores 30 8.7
Cuadrantes 8 2.3
inferiores 142 41.3
Retroareolar
Bilateral

TOTAL 344 100.0

* fuente: Historias Clínicas.

La tabulación compleja permite ofrecer la división de las categorías en dos o más


subcategorías. Una o varias columnas y/o filas son a su vez subdivididas para
representar o resaltar una condición importante del fenómeno que se estudia.
Un ejemplo de tabla compleja:

Tabla 3. Localización anatómica de los nódulos en la glándula mamaria.


Hosp. "Calixto García". 2014
Localización No. de casos %

Cuadrantes superiores 164 47.7


Externo 114 33.2
Interno 50 14.5
Cuadrantes inferiores 30 8.7
Externo 17 4.9
Interno 13 3.8
Retroareolar 8 2.3
Bilateral 142 41.3
TOTAL 344 100.0
* fuente: Historias Clínicas.

De forma independiente a que la tabla sea simple o compleja tenemos también el número
de columnas. Las anteriores son tablas de una columna (dos si contáramos la del por
ciento) y la que sigue es de columnas múltiples.

Tabla 4 Distribución por grupos de edades según presencia de afección mamaria.


Hosp. "Calixto García". 2014
Mujeres examinadas

Grupos Con afección % Sin afección % Total %


de edad mamaria mamaria
15 a 20 268 61.05 171 38.95 439 17.2
21 a 30 525 50.48 516 49.57 1041 40.8
31 a 40 289 54.94 237 45.06 526 20.8
41 y más 348 64.32 193 35.67 541 21.2

Total 1430 56.14 1117 43.86 2547 100.0


*Fuente: Datos obtenidos de la investigación

Presentación Gráfica.

La forma gráfica constituye un complemento importante para la presentación de los


resultados ya que permite incrementar la información científica que se trata de transmitir.
Aunque los gráficos se elaboran a partir de tablas estadísticas es un error, al presentar
los resultados, pretender acompañar a cada tabla por un gráfico, ello origina repeticiones
en la información y pérdida de espacio. El gráfico debe agregar información, no
duplicarla. El empleo del gráfico debe reservarse para cuando se quiera mostrar algún
patrón especial en los resultados, destacar tendencias o ilustrar comparaciones de forma
clara y exacta.

El gráfico, al igual que las tablas, debe ser autoexplicativo, sencillo y de fácil
comprensión.

Las partes del gráfico son:


 Número de orden.
 Título
 Cuerpo o gráfico propiamente dicho
 Leyenda

El Número de orden y el Título deben cumplir los mismos requisitos señalados


anteriormente para la tabla estadística. El Cuerpo o gráfico propiamente dicho, varía en
su configuración en dependencia del tipo de dato que se representa, pero siempre debe
indicar claramente las coordenadas, las escalas y las unidades de medida, reservando
el eje de las abscisas (eje X) para la variable independiente y el eje de las ordenadas
(eje Y) para la variable dependiente. La leyenda permite identificar claramente los
diferentes elementos del cuerpo del gráfico.

1. Gráficos para representar variables cualitativas y cuantitativas discretas.


 Gráfico de Barras.- Las variables son representadas por barras o rectángulos
que pueden colocarse en posición horizontal o vertical.
Para la construcción de este tipo de gráfico deben tenerse en cuenta los siguientes
requisitos:
 Todas las barras deben tener el mismo ancho.
 Los espacios entre las barras deben ser todos iguales y nunca menores que la
mitad del ancho de las barras ni mayores que este.
 La escala de la frecuencia debe comenzar por cero.

Los gráficos de barra presentan tres variedades:


 Barras simples.
 Barras múltiples.
 Barras proporcionales.
A partir de la siguiente tabla ejemplificaremos estas variedades de gráficos de barras.

Tabla 5 Ingresos en el Servicio de Pediatría Hospital "Aleida Fernández Chardiet"

Año Gastroenterología Respiratorio Miscelánea Total

1996 551 1623 1503 3677

1997 420 1436 1374 3230

1998 398 1475 1247 3120

TOTAL 1369 4534 4124 10027

 Gráfico de barras simples.- Se utilizan para representar una variable. Por


ejemplo a partir de la tabla anterior se representan los ingresos en la sala de
Gastroenterología en los tres años.

 Gráfico de Barras Múltiples.- Se utilizan para representar dos o más variables


en relación con otra que fija el criterio de agrupamiento de las barras. Ejemplo:
para representar los ingresos en Gastroenterología, Respiratorio y Miscelánea en
cada año, elaboraríamos el gráfico siguiente:
 Gráfico de Barras Proporcionales.- En una sola barra se representan todos los
datos de determinada variable, mostrando la proporción de cada una de las clases
que la integran. Por ejemplo, para representar los ingresos en Gastroenterología,
Respiratorio y Miscelánea en cada año elaboraríamos un gráfico como el
siguiente:

 Gráfico de Pastel o Sector.

Se utiliza generalmente para ilustrar comparaciones entre los diversos


componentes de un conjunto de datos. Para ello se emplea un círculo el
cual se divide en sectores cuyas medidas angulares son proporcionales a
las magnitudes de los valores que representan. Por ejemplo, para comparar
la proporción de los ingresos en el servicio de pediatría durante el año 1998
podemos utilizar el siguiente gráfico:

Gráfico para representar a las variables cuantitativas continuas.

Histograma .- Las variables son representadas por rectángulos al igual que en el


gráfico de barras, pero a diferencia de este, en el histograma las barras se colocan
siempre en posición vertical y sin ningún espacio entre ellas. Aunque en la primera
columna de la tabla a partir de la cual se confecciona el histograma se señalan los
intervalos de clase, al realizar el histograma se reflejan para identificarlos solo los
puntos medios de dichos intervalos de clase.

A manera de ejemplo mostramos a continuación una tabla y el histograma que la


representa.
Tabla 6
Distribución de Ancianos según Peso y Sexo.
Hogar de Ancianos "Mario Muñoz" 1998
Peso Femenino Masculinos
(kg.)
51-55 1 5
56-60 4 8
61-65 16 12
66-70 18 15
71-75 8 6
76-80 6 4
Total 53 50

El polígono de frecuencias.- Las variables son representadas en un


sistema de coordenadas por un trazo que une los puntos en que se
interceptan los puntos medios de cada clase (eje X) con la frecuencia
correspondiente (eje Y). El polígono de frecuencias también se puede
confeccionar uniendo los puntos medios superiores de cada barra del
histograma.
A manera de ejemplo le mostramos el polígono de frecuencia
correspondiente a la Tabla 6.

Los polígonos de frecuencia resultan muy adecuados para representar a


mas de una variable con la intención de compararlas. Si en el ejemplo
anterior se quisieran mostrar el comportamiento del peso según el sexo,
podría obtenerse entonces un polígono como el que sigue:
DISCUSIÓN

La Discusión resulta más difícil de definir que las demás secciones. Por ello, es también,
normalmente, la sección más difícil de escribir. Y, lo sepa usted o no, muchos artículos
son rechazados por los directores de revistas a causa de una Discusión deficiente,
aunque los datos del documento sean válidos e interesantes.

Más probable resulta aun que el verdadero sentido de esos datos se vea completamente
oscurecido por la interpretación hecha en la Discusión, lo que se traducirá asimismo en
un rechazo. Muchas secciones de Discusión, por no decir que casi todas, resultan
demasiado largas y verbosas.

¿Cuáles son las características esenciales de una buena Discusión? Creo que los
componentes principales se darán si se observan los siguientes preceptos:

1. Trate de presentar los principios, relaciones y generalizaciones que los Resultados


indican. Y tenga en cuenta que, en una buena Discusión, los resultados se exponen, no
se recapitulan.

2. Señale las excepciones o las faltas de correlación y delimite los aspectos no resueltos.
No elija nunca la opción, sumamente arriesgada, de tratar de ocultar o alterar los datos
que no encajen bien.

3. Muestre cómo concuerdan (o no) sus resultados e interpretaciones con los trabajos
anteriormente publicados.

4. No sea tímido: exponga las consecuencias teóricas de su trabajo y sus posibles


aplicaciones prácticas.

5. Formule sus conclusiones de la forma más clara posible.

6. Resuma las pruebas que respaldan cada conclusión.

La finalidad principal de la Discusión es mostrar las relaciones existentes entre los


hechos observados y destacar sus significados.

Al mostrar las relaciones entre los hechos observados, no es necesario llegar a


conclusiones cósmicas. Es raro que una sola persona sea capaz de iluminar toda la
verdad; frecuentemente, lo más que uno podrá hacer será arrojar un poco de luz sobre
una parcela de la verdad. Su propia parcela de la verdad podrá verse fortalecida por los
datos que usted obtuvo; pero si los extrapola a un ámbito mayor que el que les
corresponde, aparecerá usted como un necio e incluso sus conclusiones apoyadas por
los datos quedarán en entredicho.
CONCLUSIONES

Las conclusiones son las ideas fundamentales del trabajo que se originan en la discusión
y deben responder a los objetivos del trabajo, además de ser redactadas de forma
concisa, precisa y objetiva.

Ejemplos:

La mayor prevalencia, en las provincias investigadas, de la discapacidad física con


respecto a la discapacidad mental, sugiere que, generalmente, la primera acontece antes
que la segunda.

Los mayores niveles de discapacidad mental encontrados en los personas mayores de


ambos territorios, se corresponden con la edad avanzada, el sexo femenino, la baja
escolaridad y la desocupación.

La edad, el sexo femenino y la baja escolaridad, aparecieron como factores que influyen
en la aparición de discapacidad física en la población geriátrica de los territorios
investigados.

Los modelos obtenidos permiten, a partir de los perfiles de riesgo individuales, el vaticinio
de la discapacidad física en las poblaciones de ancianos de las provincias estudiadas.

El uso de la regulación menstrual para interrumpir un embarazo por voluntad de la mujer


e indicación médica excede las necesidades reales de acuerdo con la confirmación
diagnóstica y puede contribuir a causar daños a la salud general, sexual y reproductiva
de la población.

La elevada proporción de exceso de peso corporal detectada en la población estudiada


señala que la obesidad infantil es un importante problema de salud en Aruba.

Las tensiones arteriales elevadas, dislipidemias, desarrollo puberal precoz, afectaciones


dermatológicas y deformidades esqueléticas en los escolares obesos, de este estudio,
indican afectaciones de la salud que tienen relación con la obesidad descritas en la
literatura científica.

Los problemas asociados con la obesidad analizados en esta investigación, como los
malos hábitos alimentarios y el sedentarismo, contribuyen a explicar su comportamiento
en los escolares estudiados.

El Programa de Intervención propuesto y aplicado en este trabajo tiene los componentes,


estrategias y procedimientos necesarios para enfrentar la obesidad infantil en las
condiciones de A...
Resumen de resúmenes

TÍTULO: deberá ser: conciso, específico y claro. No excederá de 20 palabras y es


preferible que esté formado por menos de 15. Debe permitir que el lector pueda identificar
el tema del trabajo.

RESUMEN: En los anteproyectos: menos de 250 palabras y debe señalar: en uno o dos
reglones la introducción con la justificación/importancia del tema, objetivos, métodos y
resultados esperados. En las tesis: menos de 300 palabras y debe señalar: en uno o dos
reglones la introducción con la justificación/importancia del tema, objetivos, métodos,
resultados y conclusiones.

INTRODUCCIÓN: en la introducción el autor demuestra su poder de síntesis en la


presentación, al lector, del tema de su trabajo. En la introducción se expresará la
magnitud y trascendencia del problema científico investigado, así como la vulnerabilidad
de ser enfrentado y la factibilidad de ser estudiado.

OBJETIVOS: los objetivos expresan los fines o propósitos que se esperan alcanzar con el
estudio del problema planteado. Responden a la pregunta ¿para qué se lleva a cabo la
investigación?, por ello es habitual que su redacción comience con un verbo en infinitivo como
determinar, identificar, establecer, distinguir, medir, entre otros. Tendrán las características de
ser precisos, medibles y alcanzables.

HIPÓTESIS: Es una suposición, conjetura o predicción sobre la base de conocimientos


existentes, en nuevos hechos o en ambos, y que propone una respuesta anticipada del
problema, por lo que será aceptada o rechazada como resultado de la investigación.

MARCO TEÓRICO: el marco teórico incluye una exhaustiva revisión de la literatura


existente, de la cual se obtendrá el bagaje teórico sobre el problema y la información
empírica procedente de documentos publicados, así como del aporte de expertos en la
materia.

MATERIAL Y MÉTODOS: debe informar al lector todo lo necesario para la realización de


la investigación a un nivel que permita ser repetida y obtener resultados similares. Se
indicarán los recursos materiales y humanos, población, muestra, el diseño muestral,
instrumentos, técnicas y procedimientos, control de calidad, criterios de inclusión y de
exclusión, así como el cumplimiento de la ética profesional.

RESULTADOS: los resultados obtenidos serán informados de forma precisa y objetiva.


El uso de cuadros o tablas, así como gráficos facilitan la transmisión de la información.

DISCUSIÓN: incluye el análisis de los resultados obtenidos y su confrontación con los


datos e informaciones de otros investigadores. La redacción de la discusión debe ser
respetuosa en relación con el aporte de otros investigadores y de forma objetiva cuando
se refiere a los datos e informaciones de la propia investigación.
Apoyo de enfoques estadísticos a investigaciones científicas
Tamaño de la Muestra

Uno de los factores más importantes para considerar en el diseño es la elección de un


tamaño de muestra apropiado de estudio. Los estudios que son demasiado pequeños
pueden fracasar en detectar efectos importantes sobre los resultados de interés, o
pueden estimar esos efectos de manera muy imprecisa.

Muestras muy grandes de lo necesario son un derroche de recursos, y pueden incluso


llevar a una pérdida en la exactitud, ya que es más difícil mantener la calidad de los datos
y una tasa alta de cobertura en un estudio grande.

Hay programas de computadora disponibles que efectúan cálculos de tamaño de


muestra. En particular, esta facilidad está disponible en el paquete “EpiInfo”, aunque no
cubre la gama completa de posibilidades.

Los estudios epidemiológicos están expuestos a cometer errores sistemáticos y errores


de muestreo. El error de muestreo surge porque los datos del estudio vienen sólo de una
muestra de la población. El error de muestreo se reduce cuando el tamaño del estudio
aumenta.

Criterios para determinar el tamaño del estudio

Precisión de las mediciones del efecto

Para seleccionar el tamaño muestral apropiado es necesario decidir cuánto error de


muestreo es aceptable, y seleccionar el tamaño de la muestra para lograr esta precisión.
Cuando los datos se analizan, la cantidad de error de muestreo es representada por el
ancho del intervalo de confianza alrededor de la estimación del efecto. Cuanto más
estrecho es el intervalo de confianza, es mayor la precisión de la estimación, y menor la
cantidad probable de error de muestreo. Cuando se diseña un estudio, es necesario,
decidir la amplitud de un intervalo aceptable de confianza.

Poder del estudio

Un enfoque alternativo es escoger un tamaño del estudio que dé el poder adecuado para
detectar un efecto de una magnitud determinada. El foco es entonces sobre el resultado
de la prueba de significancia, que se efectuará al final del estudio. La prueba de
significancia evalúa la evidencia contra la hipótesis nula, que afirma que no hay diferencia
entre las intervenciones que se comparan, Un resultado significativo indica que los datos
están en conflicto con la hipótesis nula, y que hay base para rechazar la hipótesis de que
no hay diferencia en los efectos de las intervenciones en estudio sobre los resultados de
interés.
A causa de las variaciones que resultan del error de muestreo, no es posible estar seguro
de obtener un resultado significativo al final de un estudio, aún cuando haya una
diferencia verdadera. Es necesario considerar la probabilidad de obtener un resultado
estadísticamente significativo en un ensayo, y esta probabilidad se llama el poder o
potencia (“power') del estudio. Así, un poder de 80% para detectar una diferencia de un
tamaño especificado significa que si el estudio se condujera repetidamente, un resultado
estadísticamente significativo se obtendría cuatro veces de cada cinco si la diferencia
verdadera fuera realmente del tamaño especificado.

El poder de un estudio depende de:

1 El valor de la diferencia verdadera entre los grupos en estudio. A mayor efecto, mayor
el poder para detectar el efecto como estadísticamente significativo para un estudio
de un tamaño determinado.

2 El tamaño del estudio. A mayor tamaño del estudio, mayor poder.

3 El nivel de probabilidad al cual una diferencia se considerará como “estadísticamente


significativa”.

Dentro de este contexto, será necesario asumir un estadístico o estimador como una
variable aleatoria con una determinada distribución, y que será la pieza clave en las dos
amplias categorías de la inferencia estadística: la estimación y el contraste de hipótesis.

El concepto de estimador, como herramienta fundamental, lo caracterizamos mediante


una serie de propiedades que nos servirán para elegir el ``mejor" para un determinado
parámetro de una población, así como algunos métodos para la obtención de ellos, tanto
en la estimación puntual como por intervalos.

¿Cómo deducir la ley de probabilidad sobre determinado carácter de una población


cuando sólo conocemos una muestra?

Este es un problema al que nos enfrentamos cuando por ejemplo tratamos de estudiar
la relación entre el fumar y el cáncer de pulmón e intentamos extender las conclusiones
obtenidas sobre una muestra al resto de individuos de la población.

La tarea fundamental de la estadística inferencial, es hacer inferencias acerca de la


población a partir de una muestra extraída de la misma.

Técnicas de muestreo sobre una población

La teoría del muestreo tiene por objetivo, el estudio de las relaciones existentes entre la
distribución de un carácter en dicha población y las distribuciones de dicho carácter en
todas sus muestras.

Las ventajas de estudiar una población a partir de sus muestras son principalmente:
Coste reducido:
Si los datos que buscamos los podemos obtener a partir de una pequeña parte
del total de la población, los gastos de recogida y tratamiento de los datos serán
menores. Por ejemplo, cuando se realizan encuestas previas a un referéndum, es
más barato preguntar a 4.000 personas su intención de voto, que a 30.000.000;
Mayor rapidez:
Estamos acostumbrados a ver cómo con los resultados del escrutinio de las
primeras mesas electorales, se obtiene una aproximación bastante buena del
resultado final de unas elecciones, muchas horas antes de que el recuento final
de votos haya finalizado;
Más posibilidades:
Para hacer cierto tipo de estudios, por ejemplo el de duración de cierto tipo de
bombillas, no es posible en la práctica destruirlas todas para conocer su vida
media, ya que no quedaría nada que vender. Es mejor destruir sólo una pequeña
parte de ellas y sacar conclusiones sobre las demás.

De este modo se ve que al hacer estadística inferencial debemos enfrentarnos con dos
problemas:

 Elección de la muestra (muestreo), que es a lo que nos dedicaremos en este


capítulo.
 Extrapolación de las conclusiones obtenidas sobre la muestra, al resto de la
población (inferencia).

Métodos de Muestreo

Después de haber seleccionado la unidad estadística básica, se procederá a determinar


la manera en que se realizará la selección de las unidades. Para este efecto es útil
distinguir la población total de donde se obtendrá la muestra.

Una población está constituida por elementos, siendo cada uno de ellos casos
potenciales de estudio. En ciertos estudios, la población resulta ser tan pequeña que
todos los elementos bien pueden incluirse en la muestra.

Aún cuando la población a estudiar no sea muy pequeña, en ocasiones es preferible


optar por una muestra que abarque el 100% de los casos (senso).

Sin embargo, a menudo se trata con casos muy numerosos de personas, regiones o
centros de prestación de servicios y, por lo tanto, es necesario recurrir a muestras
menores del 100 por ciento para representarlos.

Si la muestra es realmente representativa y comprende varios cientos de casos o más,


los resultados serán muy similares a los que se habrían obtenido del total de la población.
Existen dos tipos fundamentales de muestras:

1) muestras probabilísticas y
2) muestras no-probabilísticas.

Muestreo Probabilístico

Una muestra probabilística tiene más posibilidades de ser representativa de la población


que la no-probabilística y, por lo tanto, es preferible.

La característica esencial de una muestra probabilística es que cada elemento de la


población total (cada pareja, cada trabajador de campo, cada clínica, etc.) tenga una
probabilidad conocida de pertenecer a la muestra (si cada elemento tiene una
probabilidad igual de selección, la muestra es calificada de auto-ponderada, y los
resultados de la muestra analizada pueden considerarse como representativos del total
de la población).

Hay varias formas de seleccionar muestras probabilísticas; a continuación se describen


las más comunes.

a. Muestreo aleatorio simple

Consideremos una población finita, de la que deseamos extraer una muestra. Cuando el
proceso de extracción es tal que garantiza a cada uno de los elementos de la población
la misma oportunidad de ser incluidos en dicha muestra, denominamos al proceso de
selección muestreo aleatorio.

El muestreo aleatorio se puede plantear bajo dos puntos de vista:

 Sin reposición de los elementos;


 Con reposición.

Muestreo aleatorio sin reposición

Consideremos una población E formada por N elementos. Si observamos un elemento

particular, , en un muestreo aleatorio sin reposición se da la siguiente


circunstancia:

 La probabilidad de que e sea elegido en primer lugar es ;

 Si no ha sido elegido en primer lugar (lo que ocurre con una probabilidad de

, la probabilidad de que sea elegido en el segundo intento es de .


 en el (i+1)-ésimo intento, la población consta de N-i elementos, con lo cual si e no
ha sido seleccionado previamente, la probabilidad de que lo sea en este momento

es de .

Muestreo aleatorio con reposición

Sobre una población E de tamaño N podemos realizar extracciones de n elementos, pero


de modo que cada vez el elemento extraído es repuesto al total de la población. De esta
forma un elemento puede ser extraído varias veces. Si el orden en la extracción de la
muestra interviene, la probabilidad de una cualquiera de ellas, formada por n elementos
es:

Si el orden no interviene, la probabilidad de una muestra cualquiera, será la suma de la


anterior, repitiéndola tantas veces como manera de combinar sus elementos sea posible.
Es decir,

sea n1 el número de veces que se repite cierto elemento e1 en la muestra;

sea n2 el número de veces que se repite cierto elemento e2;

sea nk el número de veces que se repite cierto elemento ek,


de modo que . Entonces la probabilidad de obtener la muestra

es

es decir,

El muestreo aleatorio con reposición es también denominado muestreo aleatorio


simple, que como hemos mencionado se caracteriza por que
 cada elemento de la población tiene la misma probabilidad de ser elegido, y
 las observaciones se realizan con reemplazamiento. De este modo, cada
observación es realizada sobre la misma población (no disminuye con las
extracciones sucesivas).
Sea X una variable aleatoria definida sobre la población E, y f(x) su ley de probabilidad.
En una muestra aleatoria simple, cada observación tiene la distribución de probabilidad
de la población:
Además todos las observaciones de la v.a. son independientes, es
decir

b. Muestreo sistemático

Esta es una variante del muestreo aleatorio simple y resulta ser más rápida y fácil de
realizar. El total estimado de elementos de la población (N) se divide entre el tamaño de
muestra deseado (n), obteniendo así el intervalo de muestreo (llamémosle K). Para
sacar la muestra se listan arbitrariamente todos los elementos de la población y se
selecciona cada K-ésimo elemento, empezando con un número entre 1 y K, seleccionado
aleatoriamente.

A diferencia del muestreo aleatorio simple, que exige que se tenga anticipadamente la
lista de todos los elementos que integran la población (denominada marco muestral), el
muestreo sistemático permite la obtención simultánea del marco muestral y de la
muestra, lo cual disminuye costos. Naturalmente, es preferible disponer anticipadamente
del marco muestral, ya que así el muestreo sistemático, podrá emplearse para obtener
el tamaño preciso deseado de la muestra.

Si no se sabe al principio cuál es el total de la población, él tamaño de la muestra tampoco


podrá conocerse. Supóngase, por ejemplo, que se desea sacar una muestra de 20
hogares en una aldea. Para eso se deberá conocer el número de hogares de la aldea,
si no se conoce, debe estimarse. Si se estiman 200 hogares, el intervalo de muestreo
será de 10; lo que quiere decir que a medida que se elabora la lista de hogares, se
interroga un hogar de cada diez. Si la estimación resulta ser muy alta, la muestra será
de un tamaño menor al previsto y si es demasiado baja, el tamaño de la muestra será
mayor al previsto.

Siempre es preferible tener un tamaño de muestra mayor que el que se necesita, en lugar
de uno menor. Asimismo, resulta más conveniente tener un presupuesto para una
muestra ligeramente mayor que la prevista.
Esto es lo que se denomina muestreo sistemático. Cuando el criterio de ordenación de
los elementos en la lista es tal que los elementos más parecidos tienden a estar más
cercanos, el muestreo sistemático suele ser más preciso que el aleatorio simple, ya que
recorre la población de un modo más uniforme. Por otro lado, es a menudo más fácil no
cometer errores con un muestreo sistemático que con este último.

Observación

El método tal como se ha definido anteriormente es sesgado si no es entero, ya que


los últimos elementos de la lista nunca pueden ser escogidos. Un modo de evitar este
problema consiste en considerar la lista como si fuese circular (el elemento N+1 coincide
con el primero) y:

 Sea k el entero más cercano a ;


 Se selecciona un número al azar m, entre 1 y N;
 Se toma como muestra los elementos de la lista que consisten en ir saltando de k
elementos en k, a partir de m, teniendo en cuenta que la lista es circular.

Se puede comprobar que con este método todos los elementos de la lista tienen la misma
probabilidad de selección.

c. Muestreo estratificado

Si queremos asegurarnos de la representatividad de la muestra a nivel de ciertos sub-


conjuntos de la población estudiada, podemos recurrir a la estratificación tanto con el
muestreo aleatorio simple como con el sistemático. Por ejemplo, si deseamos tener en
la muestra una estructura por edad idéntica a aquélla de la población estudiada,
podemos subdividir la población por grupos de edad (estratificación según la edad) y
sacar una muestra por separado de cada estrato o grupo de edad. Si la fracción de
muestreo es la misma para todos los estratos de edad, la estructura por edad de la
muestra será idéntica a la de la población. Sin embargo, con frecuencia es útil recurrir a
fracciones diferentes de muestreo para cada estrato.

En este tipo de muestreo se divide la población de N individuos, en k subpoblaciones o


estratos, atendiendo a criterios que puedan ser importantes en el estudio, de tamaños
respectivos N1, ..., Nk,

y realizando en cada una de estas subpoblaciones muestreos aleatorios simples de

tamaño ni .

A continuación nos planteamos el problema de cuantos elementos de muestra se han de


elegir de cada uno de los estratos. Para ello tenemos fundamentalmente dos técnicas: la
asignación proporcional y la asignación optima.
Ejemplo: Supongamos que realizamos un estudio sobre la población de estudiantes de
una Universidad, en el que a través de una muestra de 10 de ellos queremos obtener
información sobre el uso de barras de labios
.
En primera aproximación lo que procede es hacer un muestreo aleatorio simple, pero en
su lugar podemos reflexionar sobre el hecho de que el comportamiento de la población
con respecto a este carácter no es homogéneo, y atendiendo a él, podemos dividir a la
población en dos estratos:

 Estudiantes masculinos (60% del total);


 Estudiantes femeninos (40% restante).

de modo que se repartan proporcionalmente ambos grupos el número total de muestras,


en función de sus respectivos tamaños (6 varones y 4 mujeres). Esto es lo que se
denomina asignación proporcional.

Si observamos con más atención, nos encontramos (salvo sorpresas de probabilidad


reducida) que el comportamiento de los varones con respecto al carácter que se estudia
es muy homogéneo y diferenciado del grupo de las mujeres.

Por otra parte, con toda seguridad la precisión sobre el carácter que estudiamos, será
muy alta en el grupo de los varones aunque en la muestra haya muy pocos (pequeña
varianza), mientras que en el grupo de las mujeres habrá mayor dispersión.

Cuando las varianzas poblacionales son pequenãs, con pocos elementos de una
muestra se obtiene una información más precisa del total de la población que cuando la
varianza es grande.

Por tanto, si nuestros medios sólo nos permiten tomar una muestra de 10 alumnos, será
más conveniente dividir la muestra en dos estratos, y tomar mediante muestreo aleatorio
simple cierto número de individuos de cada estrato, de modo que se elegirán más
individuos en los grupos de mayor variabilidad. Así probablemente obtendríamos mejores
resultados estudiando una muestra de

 1 varón.
 9 hembras.

Esto es lo que se denomina asignación óptima.

Asignación proporcional

Sea n el número de individuos de la población total que forman parte de alguna muestra:

Cuando la asignación es proporcional el tamaño de la muestra de cada estrato es


proporcional al tamaño del estrato correspondiente con respecto a la población total:
Asignación óptima

Cuando se realiza un muestreo estratificado, los tamaños muestrales en cada uno de los
estratos, ni, los elige quien hace el muestreo, y para ello puede basarse en alguno de los
siguientes criterios:

 Elegir los ni de tal modo que se minimice la varianza del estimador, para un coste
especificado, o bien,
 habiendo fijado la varianza que podemos admitir para el estimador, minimizar el
coste en la obtención de las muestras.

Así en un estrato dado, se tiende a tomar una muestra más grande cuando:

 El estrato es más grande;


 El estrato posee mayor variabilidad interna (varianza);
 El muestreo es más barato en ese estrato.

d. Muestreo de conglomerados

Podemos simplificar la operación del muestreo seleccionando conglomerados o grupos


de elementos (mediante un muestreo aleatorio simple, sistemático o estratificado y
proceder a estudiar todos los elementos de los conglomerados muestreados).

La mayoría de las veces los conglomerados son áreas geográficas (provincias, distritos,
aldeas, etc.) o unidades tales como clínicas, clubes o grupos de trabajadores de campo.
Si intentamos hacer un estudio sobre los habitantes de una ciudad, el muestreo aleatorio
simple puede resultar muy costoso, ya que estudiar una muestra de tamaño n implica
enviar a los encuestadores a n puntos distintos de la misma, de modo que en cada uno
de ellos sólo se realiza una entrevista.

En esta situación es más económico realizar el denominado muestreo por


conglomerados, que consiste en elegir aleatoriamente ciertos barrios dentro de la
ciudad, para después elegir calles y edificios. Una vez elegido el edificio, se entrevista a
todos los vecinos.

Los inconvenientes principales de esta técnica son:

1) Complicaciones adicionales en los cálculos matemáticos de la varianza muestral y por


ende, en las pruebas estadísticas y
2) Generalmente se requieren tamaños mayores de muestra para obtener resultados
estadísticamente significativos a un nivel de confianza determinado.
e. Muestreo multi-etápico

La técnica de selección más comúnmente empleada en poblaciones numerosas y


diversificadas es la de muestreo multi-etápico. Primero, la población se divide en
conglomerados naturales, de los cuales se selecciona una muestra. A ésta se te
denomina la primera etapa de muestreo. La segunda etapa consiste en sacar una
muestra de elementos (encuestas, casos) de los conglomerados muestreados. A veces
más de dos etapas de muestreo son necesarias.

Por ejemplo, en la primera etapa se seleccionan provincias, en la segunda etapa se


seleccionan distritos dentro de las provincias, en la tercera etapa se seleccionan aldeas
dentro de los distritos y finalmente, en la cuarta etapa se seleccionan personas dentro
de las aldeas. Se pueden utilizar diferentes técnicas de muestreo en cada etapa,
muestreo aleatorio simple, sistemático o estratificado.

f. Selección con probabilidades proporcionales al tamaño.

Este procedimiento es una variante del muestreo multi-etápico. Consiste en seleccionar


cada conglomerado con una probabilidad proporcional a su tamaño (PPT) y sacar un
número igual de elementos dentro de cada conglomerado muestreado. La selección
PPT es útil cuando los conglomerados son muy diferentes en tamaño, permitiendo
reducir, tanto la varianza muestral, como los costos de la recopilación de datos.

Muestreo No Probabilístico

En el muestreo no-probabilístico (también denominado muestreo de conveniencia) se


desconocen las probabilidades de selección de cada elemento. Un muestreo no-
probabilístico puede ser accidental (tomando los casos que están disponibles) o
deliberado (seleccionando explícitamente ciertos tipos de casos).

Los procedimientos no-probabilísticos no son válidos para obtener muestras realmente


representativas de grandes poblaciones. Estos procedimientos casi siempre tienden a
sobre-representar ciertos elementos de la población y a sub-representar a otros. Dada
la ausencia de probabilidades conocidas de selección, no hay forma precisa de ajustar
tales distorsiones.

A pesar de los inconvenientes señalados el muestreo no-probabilístico constituye, en


algunos casos, la única posibilidad de recolectar datos debido a que resultaría difícil y
costoso recurrir a un muestreo probabilístico.

Si resulta necesario llevar a cabo un muestreo no-probabilístico, se deberá tratar de


reducir al mínimo los sesgos posibles de la muestra. Si se conocen ciertas
características de la población a estudiar, se tratará de incluir en la muestra a todas las
categorías de personas, según su proporción en la población. Si se sabe, por ejemplo,
que la tercera parte de la población vive en el medio urbano y dos terceras partes en el
medio rural, la muestra puede contener las mismas proporciones. Si se conoce la
estructura de la población por edades y se piensa que está en relación con el fenómeno
a estudiar, se podrá fijar anticipadamente el número preciso de personas en la muestra
en cada categoría de edad. Este procedimiento se denomina muestreo de cuota ya que
la 'cuota' de cada sub-grupo se fija por anticipado.

Si el estudio tiene por objeto principalmente obtener la máxima variedad de información


cualitativa de un grupo de personas, el muestreo no probabilístico puede ser la mejor
opción. Este permite al investigador seleccionar deliberadamente a aquellas personas
que con mayor seguridad responderán clara y fácilmente a preguntas complejas. Es
común que los antropólogos obtengan información sobre las comunidades a través de
personas claves, escogidas entre los individuos informados, accesibles, pertenecientes
a diversos sub-grupos de la comunidad.

¿Se puede confiar en el Meta-Análisis?

Uno de los mayores problemas por los cuales no están aceptados totalmente los Meta-
Análisis es que pretenden combinar los resultados de distintos estudios para conseguir
conclusiones como si en realidad hubiera sido un único estudio. En este artículo se
pretende discutir los aspectos metodológicos que pueden invalidar a un Meta-Análisis.

Necesidad de los Meta-Análisis

En la actualidad existe una auténtica explosión de información publicada. A menudo se


realizan estudios experimentales u observacionales muy similares entre sí, sobre una
misma hipótesis y objetivos científicos, que muestran resultados diferentes, cuando no
contradictorios. Se hace necesario, por tanto, una metodología que ayude a la hora de
integrar o combinar varias conclusiones en una única conclusión global.

Se entiende por Meta-Análisis aquel conjunto de técnicas que permiten la revisión y


combinación de resultados experimentales de distintos estudios previos para contestar
una misma pregunta científica. El Meta-Análisis está entroncado en la disciplina de la
Medicina Basada en la Evidencia. Se diferencia de otros procedimientos para combinar
información (revisiones, conferencias de consenso, paneles de experto, …) en que no
existe en su metodología ningún componente subjetivo.

Una variante muy atractiva es el Meta-Análisis acumulativo, en el que la información se


acumula estudio a estudio por orden cronológico, de forma que es posible determinar en
qué momento la cantidad de evidencia hubiera sido significativa.

Fases en un Meta-Análisis

En la realización de un Meta-Análisis se pueden identificar dos fases bien diferenciadas


y distintas:

Una primera fase consiste en la identificación de los trabajos que estudien los objetivos
del estudio. Esta fase de recopilación no es exclusiva del Meta-Análisis, puesto que
también hay que pasar por ella cuando se realizan revisiones o puestas al día, y es el
material de base empleado por los paneles de expertos o en las conferencias de
consenso.

En una segunda fase se combina la información disponible mediante las técnicas


estadísticas del Meta-Análisis. La dificultad de las técnicas matemáticas del Meta-
Análisis no es muy elevada con relación a la cantidad de información adicional que
aportan.

Homogeneidad Metodológica

La fase crítica del Meta-Análisis es la elección de los estudios de partida, que deben
tener calidad científica y ser homogéneos metodológicamente entre sí. La calidad
científica se verifica mediante listas de chequeo y se refleja en una puntuación final. La
homogeneidad metodológica hace referencia a que los trabajos que se estudien sean
comparables entre sí en términos de fuentes de información, idioma, periodo de
publicación, entidad clínica, población, variables de eficacia, "end points" y medida de
efecto. Si los estudios no son homogéneos metodológicamente no se puede realizar el
Meta-Análisis.

Modelos de Efectos Fijos y de Efectos Aleatorios

En la fase de diseño de un Meta-Análisis hay que tener en cuenta si se han recogido


todos los estudios disponibles o si se han recogido sólo una muestra. En el primer caso
nos encontramos ante un Modelo de Efectos Fijos (Fixed Effects Model: FEM), en el
segundo ante un modelo de Efectos Aleatorios (Random Effects Model: REM). Los FEM
son generalizables sólo a la muestra de estudios y tienen en cuenta la variabilidad
"dentro". Los REM son generalizables al universo de estudios y tienen en cuenta la
variabilidad "dentro" y "entre". En cualquier caso la decisión de utilizar un FEM o un REM
tiene que ser tomada " a priori".

Homogeneidad Estadística

No hay que confundir la homogeneidad metodológica con la homogeneidad estadística.


La homogeneidad metodológica es un requisito indispensable para poder realizar un
Meta-Análisis. La homogeneidad estadística hace referencia a si estadísticamente son
combinables los estudios. Pudiera ocurrir que siendo los estudios homogéneos
metodológicamente, no lo fueran estadísticamente. Esto ocurriría en situaciones donde
la medida del efecto fuera muy distinta en magnitud en los distintos estudios o incluso
que fuera de distinto signo. Existen pruebas estadísticas para detectar la falta de
homogeneidad estadística (heterogeneidad), siendo la más utilizada la Q H de
Homogeneidad que sigue una chi-cuadrado con (k-1) grados de libertad.

Si hemos elegido un modelo FEM y nos encontramos con falta de homogeneidad, las
conclusiones del Meta-Análisis son cuestionables porque no se puede hablar de un
estimado global de la medida de efecto. Si se ha elegido un REM, la falta de
homogeneidad estadística no plantea problemas si se sigue la metodología de
Dersimonian-Laird.

La metodología del Meta-Análisis es fiable siempre que exista una calidad contrastada
de los trabajos elegidos y una homogeneidad metodológica entre ellos. La falta de
homogeneidad estadística no plantea mayores problemas si se ha elegido un Modelo de
Efectos Aleatorios. El único problema parcialmente resuelto es el del sesgo de selección,
ya que lo único que se puede hacer es estimar el número de estudios no publicado. No
obstante, se debiera considerar a las técnicas estadísticas de Meta-Análisis como un
avance a la hora de acumular y potenciar evidencia a favor o en contra de una hipótesis.

Ventajas y limitaciones del Análisis de la Varianza (ANOVA)

El análisis de la varianza (ANOVA) es una técnica estadística de contraste de hipótesis.


Tradicionalmente estas técnicas, conjuntamente con las técnicas de regresión lineal
múltiple, de las que prácticamente son una extensión natural, marcan el comienzo de las
técnicas multivariantes. Con estas técnicas se manejan simultáneamente más de dos
variables, y la complejidad del aparato matemático se incrementa proporcionalmente con
el número de variables en juego.

El análisis de la varianza de un factor es el modelo más simple: una única variable


nominal independiente, con tres o más niveles, explica una variable dependiente
continua.

Otra alternativa, que aparentemente es más lógica e intuitiva, consiste en comparar, en


todas las posibles combinaciones de dos en dos, las medias de todos los subgrupos
formados. Esto trae parejo, fundamentalmente, dos tipos de problemas:

a).- Se incrementa el riesgo de dar un resultado falso positivo, al realizar más de un


análisis sobre un mismo conjunto de datos.

b).- Es difícil interpretar la verdadera influencia de la variable que actúa como factor de
clasificación, porque genera diferentes niveles de significación (p), resultantes de las
comparaciones entre sus subgrupos.

Mediante el ANOVA se eliminan estos inconvenientes. Con estas técnicas se analiza


globalmente la influencia de cada variable independiente, generándose un único nivel de
significación.

Con el análisis de la varianza se puede analizar simultáneamente la influencia de dos o


más factores de clasificación (variables independientes) sobre una variable respuesta
continua. Esto se conoce como análisis factorial de la varianza. El efecto de un factor
puede añadirse al de otro factor (modelo aditivo) o bien puede potenciarse (modelo
multiplicativo). En este último caso, aparece y se analiza un nuevo factor de interacción
sobre la variable respuesta, como resultado de la acción conjunta de dos o más factores.
Este posible efecto es detectado en el análisis de la varianza por la significación de su
estadístico de contraste correspondiente. Las técnicas del análisis de la varianza,
basadas en la partición de la variabilidad (suma de cuadrados) de la respuesta estudiada,
sirven de base para el análisis de distribuciones de datos generados, en diseños más
complejos, como es el análisis de covarianza. En este último tipo de análisis se combinan
variables explicativas discretas y continuas. La variabilidad de la respuesta es analizada
como en el análisis factorial de la varianza, una vez que se ha eliminado la posible
influencia de la o las variables continuas explicativas. Sería un análisis análogo al de la
varianza de los residuales; esto es, se analizan los residuos de la regresión en lugar de
los datos iniciales. Otros modelos más complejos son el análisis de medidas repetidas
sobre las mismas unidades experimentales, el análisis de diseños cruzados, análisis
anidados o el análisis de la varianza factorial con información incompleta.

En el ANOVA se comparan medias, no varianzas: medias de los subgrupos o estratos


originados por los factores de clasificación estudiados. En esta técnicas, la hipótesis
alternativa es múltiple, puesto que engloba diferentes hipótesis, todas ellas referidas al
hecho de que alguna de las medias de los estratos sea diferente de las demás. Cuando
se alcanza la significación en alguno de los factores estudiados, es lógico preguntarse
cuál de las hipótesis alternativas es la que origina la significación. Esto es equivalente a
preguntarse qué media o medias son diferentes entre sí. Estos enigmas se resuelven
mediante procedimientos "a posterior" para comparar más de dos medias. Funcionan
eficientemente, si previamente el factor en estudio ha resultado significativo en alguna
técnica multivariante previa, como el ANOVA

Estadística de Relación: Análisis de regresión y análisis de asociación.

Utilización e Interpretación de las Técnicas de Regresión y Correlación

Estos métodos se emplean para conocer las relaciones y significacion entre series de
datos

Cuando, simultáneamente, contemplamos dos variables continuas, aunque por


extensión se pueden emplear para variables discretas cuantitativas, surgen preguntas y
problemas específicos. Esencialmente, se emplearán estadísticos descriptivos y técnicas
de estimación para contestar esas preguntas, y técnicas de contraste de hipótesis
especificos para resolver dichos problemas. La mayoría de estos métodos están
encuadrados en las técnicas regresión y correlación. En este artículo comentaremos las
técnicas bivariantes lineales.

Si se parte de un modelo en el cual una de las dos variables continuas es dependiente o


respuesta (y) y la otra es independiente o explicativa (x), surgen nuevos estadísticos para
describir los datos.

La nube de puntos, o el diagrama de dispersión, resultante de la representación gráfica


de los datos está "concentrada" en la recta de regresión de mejor ajuste obtenida por el
método de mínimos cuadrados. Una condición previa, en las técnicas lineales, es que la
nube de puntos debe tender a la linealidad (en sentido rectilíneo, se entiende). Los
coeficientes de la regresión lineal, la ordenada en el origen (a) y la pendiente de la recta
(b), son estadísticos muestrales. Se suelen presentar de la forma y´ = a + bx.

La dispersión de los puntos alrededor de la recta de mejor ajuste es una característica


de los datos bidimensionales que merece cuantificarse. El estadístico correspondiente
es la desviación típica de los residuos. Es posible obtener la distribución de los residuos.
Estos son las distancias en vertical de cada punto a la recta de regresión. Su medida es
cero (esta propiedad es compartida por otras muchas rectas de ajuste, además de por la
de mejor ajuste, que es la nuestra), y su desviación típica es el estadístico de elección
para describir la dispersión alrededor de la recta. Sus unidades son las de la variable
dependiente (y).

Es posible, que estudiando una variable bidimensional, no se desee establecer ninguna


relación de subordinación de una variable con respecto a la otra. En este supuesto, se
intenta cuantificar la asociación entre las dos características. Entramos en las técnicas
de correlación lineal. Es posible definir otro estadístico muestral a partir del las dos
pendientes teóricas de las dos posibles rectas de regresión (y) sobre(x) y de (x) sobre
(y). Este estadístico es el coeficiente de correlación r. Su cuadrado r2 es el coeficiente
de determinación y da una medida entre 0 y 1 de la cantidad de información compartida
por dos características o variables continuas en los datos muestrales.

La magnitud de la asociación entre dos variables continuas está en relación con la


dispersión de la nube de puntos. Se puede establecer una relación matemática perfecta
entre la desviación típica de los residuos y el coeficiente de determinación.

El hecho de que dos variables estén correlacionadas, e incluso que lo estén con valores
muy cercanos a 1, no implica que exista una relación de causalidad entre ellas. Se
pueden producir correlaciones espurias (causales) entre dos variables, por estar ambas
relacionadas con otra tercera variable continua y anterior en el tiempo.

Los nuevos estadísticos generados en la regresión y correlación lineal se emplean como


estimadores de los correspondiente parámetros poblacionales. Para que los coeficientes
de la regresión y correlación sean estimadores adecuados (centrados y de mínima
varianza) de sus correspondientes parámetros poblacionales, es necesario que se
asuman ciertas condiciones en la población de origen, referidas fundamentalmente a las
distribuciones de los residuos:

a).- Que la medida de los residuos sea cero.


b).- Que su varianza sea similar (homogénea) a lo largo de la variable (x):
homocedasticidad.
c).- Que estén normalmente distribuidos y que sean incorrelados.

Un buen estimador de la desviación típica de los residuos es la cuasi-cuasidesviación


típica de los residuos muestrales Sn-2 , e.
Asimismo, este estadístico juega un papel relevante en la construcción de los intervalos
de confianza de los coeficientes de la regresión y correlación poblacionales.

Es posible también, formularse hipótesis relativas a estos parámetros, cuya resolución


se basa en la construcción de estadísticos de contraste que sigan funciones de
probabilidad conocidas, como son la T-Student y la Chi-cuadrado.

Utilidades estadísticas

He dado positivo: ¿Estaré enfermo?


Supongamos que para detectar una determinada enfermedad hay una prueba con los
siguientes parámetros: Especificidad=98% y Sensibilidad=98%. Dicha enfermedad tiene
una prevalencia del 4%. Un individuo se somete a dicha prueba para saber si está
enfermo y al término de ésta el médico le informa en tono pesimista que ha dado positivo,
¿hasta qué punto se tiene que deprimir el paciente?

Influencia de la Prevalencia

La fiabilidad de una prueba diagnóstica se mide por la sensibilidad y por la especificidad.


Cuanto más cercanos sean estos índices a 100 más fiable será la prueba. A primera vista
dar positivo en una prueba de sensibilidad y especificidad del 98% podría inducir a pensar
que la probabilidad de estar enfermo fuera del 98%. Sin embargo esto no es así, ya que
hay que tener en cuenta la prevalencia de la enfermedad según se demuestra a
continuación.

Imaginemos que se hacen 10.000 pruebas de detección de esa enfermedad. En


promedio, el 4% de estas 10.000 estarán verdaderamente enfermas y el 96% no. Es
decir 400 de estas 10.000 estarán enfermas y 9600 no. El 98% (sensibilidad) de las 400
dará positivo en la prueba (la sensibilidad mide el "acierto" en los enfermos): 392
personas. El 2% (100-especificidad) de las 9600 dará positivo en la prueba (la
especificidad mide el "acierto" en sanos, 100-especificidad mide el "fallo" en sanos): 192
personas.

En total habrá 392+192=584 pruebas positivas. De los 584 positivos, 192 son falsos
positivos, con lo que la probabilidad de estar enfermo habiendo dado positivo en la
prueba es de 392/584=67%, que es menor que el 98% que se pensaba en un principio.

En este mismo ejemplo si se supone que la prevalencia es del 0,5% se tendría, repitiendo
un esquema de razonamiento análogo al anterior, que: si se hacen 10.000 pruebas de
detección de esa enfermedad. En promedio, el 0,5% de estas 10.000 estarán
verdaderamente enfermas y el 99,5% no. Es decir 50 de estas 10.000 estarán enfermas
y 9950 no. El 98% de las 50 dará positivo en la prueba: 49 personas. El 2% de las 9950
dará positivo en la prueba: 199 personas. En total habrá 49+199=248 pruebas positivas.
De los 248 positivos, 199 son falsos positivos, con lo que la probabilidad de estar enfermo
habiendo dado positivo en la prueba es de 49/248=20%, que es bastante menor de lo
que se pensaba en un principio.
ASOCIACIÓN

La mayor contribución de la epidemiología es el estudio de la asociación y causalidad en


la salud y la enfermedad. Irónicamente, es el más difícil campo de la epidemiología,
desde que con frecuencia no es fácil afirmar si es que una asociación observada entre
una condición y un factor de riesgo representa una relación causa - efecto.

Las razones de interés para establecer relaciones causales son:


Para entender los determinantes de la ocurrencia, distribución y efectos de la
enfermedad
Para identificar los vínculos de la cadena de causalidad que son afrontables con una
intervención de programas, sea esta general o específica
Para relacionar los efectos y el impacto de la intervención de los programas, por
ejemplo, una relación causal.

Definición de Asociación

Una asociación existe entre 2 variables si cuando un cambio en una variable determina
algún cambio similar en la otra. Esto también es denominado "correlación" o
"covariación". Una asociación o covariación puede ser positiva o negativa y puede ser
proporcional o desproporcional.

Se dice que una asociación es causal cuando se comprueba que un cambio en la variable
independiente (exposición) produce ( induce, resulta en, determina o causa) un cambio
en la variable dependiente (enfermedad). Más apropiadamente, una relación causal
existe cuando la exposición se incluye en los mecanismos de causalidad de la
enfermedad.

Variables Independientes y Dependientes

La hipótesis a ser probada en un estudio es la que usualmente define que variable es


asumida como causal (por ejemplo, un factor de riesgo) y que variable es considerada a
ser el efecto. La definición de una variable depende de la hipótesis de estudio una
variable puede ser independiente en una hipótesis, un confusor en otra y dependiente en
una tercera.

Variables Confusoras

Una variable confusora es una variable independiente (diferente de la variable causal


que explícita la hipótesis) que tiene o puede tener un efecto en la variable dependiente,
pero su distribución está sistemáticamente correlacionada con la variable causal
señalada por la hipótesis.
Variables de Control

Son variables independientes (distintas de las variables causales) las cuales son
potenciales confusores y por ende deberían ser controlados o neutralizados en el diseño
o en el análisis. Note que estas son sólo las variables "conocidas" o variables
controlables. En la mayoría de estudios, es imposible controlar todas las variables
sobretodo las desconocidas en la cadena causal. Mediante el proceso de randomización,
muchas de estas variables "no controladas" pueden ser igualmente distribuidas entre los
grupos de expuestos y control.

Variables Intermedias

Cuando el efecto de una variable causal sobre una variable dependiente o condición bajo
estudio está mediada a través de un tercer grupo de variables, ellas se denominan
variables intervinientes. Ellas son de hecho variables dependientes en relación a la
variable causal o independiente en relación a la condición bajo estudio. Recuerde el
ejemplo de las Variables Confusoras, en la cual el efecto de la sal sobre la enfermedad
coronaria fue mediado a través de la hipertensión. El rol de las variables intervinientes
es crucial en epidemiología, sobre todo cuando las variables causales hipotetizadas son
globales, como la "condición social" o "desarrollo" y su asociación por ejemplo con la
mortalidad infantil. En respuesta a la pregunta ¿Cuánto afecta un incremento en el
ingreso y en la educación en la reducción de la mortalidad infantil?, nosotros deberíamos
considerar, por ejemplo, el incremento en el acceso a la atención prenatal, mejor nutrición
infantil y materna, acceso a la vacunación, mejora de la higiene personal y doméstica.
Estas son variables intervinientes, algunas de las cuales son especificadas en el diseño
de estudio y por tanto sus datos son recolectados.

Modificación del Efecto

Algunas variables independientes pueden modificar (positiva o negativamente) el efecto


de las variables causales hipotetizadas. Por ejemplo, la hipertensión es más frecuente
entre los americanos negros que en los blancos, mientras que la enfermedad coronaria
es más frecuente en blancos que en negros. Es posible que algunos factores como la
constitución o el estilo de vida de los negros modifique el efecto de la hipertensión sobre
la enfermedad coronaria. Así, algunas variables confusoras son también modificadoras
del efecto.

Medición de una Asociación

Cuando la prevalencia o incidencia de una condición (por ejemplo cáncer de pulmón) en


un grupo con ciertas características (por ejemplo, tabaquismo) difiere de la prevalencia
o incidencia en un grupo sin la característica (por ejemplo, los no fumadores), uno puede
inferir una asociación la cual puede o no ser causal. La fuerza de esta asociación es
medida comúnmente por el riesgo relativo o por el Odds ratio (OR), adicionalmente por
el riesgo atribuible y el riesgo atribuible poblacional por ciento.
Otra medida de asociación es la correlación entre 2 variables. Esto puede ser expresado
gráficamente en un diagrama de correlación o scatter, cuando la variable dependiente
(por ejemplo, cáncer de pulmón o mortalidad) es graficado en el eje vertical o de las "Y"
y la variable independiente o característica (p.e. número de cigarillos fumados) en el eje
horizontal o de las "X". Si una asociación existiese, los cambios en el eje Y pueden
coincidir con los cambios en X. Esta relación puede también ser expresada en términos
de un coeficiente de correlación o "r", el cual es una medición del grado de asociación
entre la variable dependiente y la variable independiente. El coeficiente de correlación
puede adoptar valores entre el rango de -1 a +1. El próximo gráfico da una interpretación
aproximada del grado de asociación correspondientes a los niveles de correlación ("r"),
este último también se sujeta a la significancia estadística.

Los coeficientes de correlación más usados son:

Coeficiente de correlación de producto-momento de Pearson


Coeficiente de correlación de orden-rank de Spearman
Coeficiente de correlación Kendall

Los coeficientes de regresión pueden también ser usados para medir asociación. Ellos
miden los cambios promedios a ser esperados en la variables dependiente por una
unidad de cambio en el valor de la variable independiente.

Cuando más de una variable independiente está asociada con la variable dependiente,
está indicado realizar el análisis de la regresión múltiple para estimar cuanto de la
variación observada en la variable dependiente se debe a un factor particular o al
conjunto de las variables independientes.

Problemas para establecer Causalidad

1. La existencia de una correlación o asociación no necesariamente implica causalidad


2. El concepto de una causa única (agente) ha sido reemplazado por el concepto de
multicausalidad en enfermedades como el cáncer y enfermedad coronaria.
3. Los criterios usados en establecer causalidad en las enfermedades infecciosas,
denominados postulados de Koch, no son aplicables para las enfermedades no
infecciosas. Los postulados de Koch son

a. El organismo está siempre presente con la enfermedad de acuerdo con las


lesiones y el estadio clínico
b. El organismo no está presente en otra enfermedad
c. El organismo puede ser aislado de quien sufre la enfermedad y cultivado en
varias generaciones
d. El organismo procedente del cultivo es capaz de desarrollar enfermedad en
animales susceptibles
Incluso en algunas enfermedades infecciosas, estos postulados no son aplicados
totalmente.
4. El periodo entre la exposición, factor o causa y la aparición de una enfermedad
clínica es relativamente largo en las enfermedades no infecciosas. Durante este
periodo de latencia, la exposición a otros factores complican la investigación.
5. La especificidad, fácilmente establecida en las enfermedades infecciosas, no aplica
para la mayoría del resto de enfermedades. El Cáncer de Pulmón, por ejemplo,
puede resultar del tabaquismo o de la exposición a la radiación, asbesto, polvo de
níquel. Al mismo tiempo, cada uno de estos factores de riesgo pueden causar otras
enfermedades distintas al cáncer pulmonar. El tabaquismo, por ejemplo, está
involucrado en la causalidad del enfisema y de la enfermedad cardiaca.
6. Los confusores que se asocian con la causa de una enfermedad tienden a
distorsionar o confundir la relación con los factores sospechados. Esto requiere de
un manejo especial durante el diseño o análisis para controlar o neutralizar su efecto.
7. Diversos errores sistemáticos o sesgos en el diseño de investigación o en la
recolección de datos pueden producir asociaciones falsas o impropias.
8. Los métodos estadísticos no pueden diferenciar entre las asociaciones causales y
no causales.

Debido a lo anterior, los términos de "inferencia causal", "posibilidad causal" o


"probabilidad" son preferidos al término de "conclusión causal". Tales inferencias son
suficientes en la mayoría de situaciones para formular políticas antes que esperar una
pureza inequívoca, la cual puede ser inalcanzable en varias enfermedades.

Pasos para establecer Causalidad

Las estrategias epidemiológicas son usualmente elegidas en función a su poder para


proporcionar bases para inferencias causales. Sin embargo, debe enfatizarse que las
inferencias causales no serán realizadas hasta que ciertos requerimientos se cumplan

Existe actualmente alguna asociación?


Si existe una asociación, es probable que esta sea causal?

Estos requerimientos para realizar inferencia causales incluyen

Excluir asociaciones no causales


Determinar la probabilidad de una asociación causal.

La asociación actualmente existe y es estadísticamente significativa.

Esto requiere que:

La asociación no se deba al chance (azar), la cual es determinada por los test de


significancia estadística aplicados a las diferencias en la frecuencia de la enfermedad (la
variable dependiente) entre aquellos con y sin la exposición al factor de riesgo (variable
independiente) Los test pueden ser aplicados a ambos grupos para determinar los
riesgos relativos o los coeficientes de correlación. Tales test deberían determinar cuan
frecuentemente una asociación en la magnitud observada podría ocurrir en base al azar.
La asociación existe al nivel individual más no a nivel ecológico, por ejemplo, cuando una
unidad geográfica es usada como unidad de observación. La posibilidad de la falacia
ecológica excluye inferir causalidad a nivel individual.

La asociación no está basada en un análisis del numerador, p.e, la distribución


porcentual de "casos" (la variable dependiente), pero si en las tasas basadas en la
población, calculando el riesgo relativo o el odds ratio.

La asociación es correcta (p.e, no es debida a sesgos).

Las asociaciones incorrectas se deben a sesgos de selección, de medición o de


información, o de confusión.

Los criterios de confirmación de causalidad se satisfacen.

Aún si existiese una asociación estadísticamente significativa y no se debe al sesgo, una


inferencia causal no puede ser sustentada sino satisface los demás criterios de
causalidad. Tales criterios son la fuerza de asociación, gradiente biológica, temporalidad,
coherencia, plausibilidad biológica, especificidad, consistencia y prueba experimental.

Criterios para la Inferencia Causal

Luego de establecer las asociaciones estadísticas, eliminar los efectos de los sesgos,
deben cumplirse criterios adicionales para sustentar la inferencia causal.

Fuerza de la asociación

Es medida por el riesgo relativo (y el riesgo atribuible) y el OR (en los estudios casos
control). Los coeficientes de correlacion y regresión pueden ser alternativas a las
mediciones de efecto

Existencia de gradiente biológica

Una relación dosis - respuesta (si está presente) puede incrementar la probabilidad de
una asociación causal. Esto no es posible en todos los estudios.

La asociación sigue una secuencia de tiempo (temporalidad)

El factor de riesgo o la exposición precede al efecto. Este aspecto puede determinarse


en los estudios experimentales y cohorte, menos probable en los estudios caso control y
los cross sectional.
La asociación es plausible (coherencia o plausibilidad)

La asociación debería tener sentido biológico o social y no debiera confrontar las teorías
o el conocimiento existentes a menos que constituya un desafío para tales teorías. En
todo caso, deberían tener alguna evidencia teórica que expliquen la asociación.

La asociación es consistente (consistencia)

La causalidad es más probable cuando otros investigadores en distintos lugares,


circunstancias, marcos de tiempo y usando diferentes diseños de investigación llegan a
conclusiones similares.

La asociación es específica (especificidad)

La enfermedad o resultado debería ser especifica a una característica, exposición o a


un factor de riesgo particular. Esto es más factible en las enfermedades infecciosas que
en las no infecciosas, la caual puede resultar de diferentes factores de riesgo. Por tanto,
este criterio no es generalizado.

Hay una prueba experimental para causalidad

Dos tipos de pruebas experimentales que pueden ser establecidas:


a) Los experimentos en humanos usando el factor de riesgo, lo cuales son difíciles de
probar.
b) Los experimentos de cesación, removiendo causas potenciales que resultan en una
reducción significativa de la incidencia de la enfermedad.

Tipos de Asociación

Asociación Causal

Una asociación causal existe cuando la variable independiente (factor de riesgo) causa
cambios en la variable dependiente. Las asociaciones causales son de tres tipos

a. Asociación causal directa


Una asociación causal directa es inferida cuando el factor de riesgo o la variable
independiente cambian la variable dependiente o condición de manera directa, sin la
existencia de variables intervinientes; por ejemplo, la exposición al bacilo de koch
causa TBC, la exposición al plomo causa envenenamiento por plomo, y la deficiencia
de yodo causa bocio.

b. Asociación causal indirecta


La asociación es inferida cuando el factor de riesgo o las variables independientes
causa cambios en la variable dependiente o condición a través de la mediación de
otras variables intervinientes o condicionantes.
El criterio de causalidad debe aplicarse igualmente a las asociaciones causales
directas e indirectas.
c. Asociación causal de interacción (incluyendo condicionantes)
Pueden existir interacciones (positivas o negativas) entre varias categorías de
variables independientes que producen cambios en las variables dependientes.
Una de ellas es el sinergismo (o antagonismo) entre 2 variables, en el cual cada
factor tiene un efecto independiente sobre la condición mientras que el efecto
conjunto es mayor (o menor) que el individual.
Por ejemplo, el sarampión puede causar muerte, pero tal probabilidad es mayor en
niños malnutridos
En las asociaciones causales condicionales, dos factores de riesgo son incapaces
de producir una condición a menos que existan conjuntamente. Por ejemplo, la fiebre
de las aguas negras (una condición febril caracterizada por orinas oscuras debido a
hemólisis) se presenta como una complicación de la malaria sólo si esta es producida
por el Plasmodium falciparum y halla sido tratada con quinina.

Asociaciones No Causales

En algunas situaciones, una asociación existe, pero su significancia y fuerza, pueden ser
no causales o inadecuadas. Una asociación no causal es inferida cuando la asociación
es

Debido al azar
Basado en el análisis del numerador o correlación ecológica, o
Debido a sesgos

Definición de Sesgos

El sesgo puede ser definido como un error sistemático introducido en el muestreo,


análisis, durante la selección, fomentando un resultado o respuesta distinta sobre otros.
El sesgo puede ocurrir virtualmente en cualquier tipo de investigación y puede interferir
en varias etapas de esta.

El más riguroso estudio (el ensayo controlado), minimiza el sesgo. Por otro lado en los
estudios menos rigurosos (el estudio caso control), es más difícil estar seguro de que se
ha eliminado sesgos, ya que solamente puede ser reducido. En los estudios caso
control, la medición de la exposición y resultado son particularmente propensos al
sesgo.

Tipos de Sesgos

Podemos considerar tres tipos: Sesgo de selección, Sesgo de información o de


averiguación y confusores:
a) Sesgo de Selección

El sesgo de selección es una distorsión de la estimación del efecto resultante de la


manera en la cual la población de estudio es seleccionada.

Los mayores tipos de sesgo de selección incluyen:

a. Sesgo de prevalencia - incidencia.


Este tipo de sesgo puede ser introducido en un estudio caso control como resultado
de los sobrevivientes selectivos entre los casos prevalentes. En los casos
seleccionados, nosotros miramos tardíamente la enfermedad; si la exposición
ocurrió años antes, los casos leves que han mejorado o los casos severos que han
fallecido pueden no aparecer entre los casos reportados.

Ejemplo

La alta tasa de letalidad en los estadíos tempranos de enfermedad coronaria


manifiestada clínicamente pueden invalidar el estudio de los posibles factores
etiológicos, desde que las personas disponibles para el estudio como casos son los
sobrevivientes (los casos severos están ausentes). De igual forma, el infarto de
miocardio puede ser silente. Las características clínicas pueden estar ausentes, y
los cambios bioquímicos y electrocardiográficos en el infarto del miocardio pueden
retornar a lo normal después de un infarto (Estos casos leves pueden no aparecer
entre los casos del estudio).

b. Sesgo de tasa de admisión (Berkson).


Este tipo de sesgo es debido a factores selectivos en la admisión al hospital y ocurre
en los estudios basados en hospitales. Las causas incluyen la magnitud de los
síntomas el acceso a la atención, la frecuencia de ciertas enfermedades, y la
popularidad de ciertas instituciones. Así, los individuos enfermos con una segunda
enfermedad o complicación de la enfermedad original son más probables ha estar
representados en una muestra basada en hospitales que otros miembros de la
población general.

Ejemplo
Entrevistas familiares fueron realizadas en una muestra aleatoria de la población
general se pregunto acerca de enfermedades musculoesqueléticas y respiratorias y
hospitalizaciones recientes. En la población general, no se encontró asociación
entre esos dos desordenes (OR =1.06), pero en el subgrupo de la población que
estuvo hospitalizada durante los seis meses previos, los individuos con desordenes
musculoesqueléticos fueron mas probables de desarrollar enfermedad respiratoria
que no tenerla (OR = 4.06). Esto ocurrió a causa de que los individuos con ambos
desordenes son mas probables de estar hospitalizados que aquellos que tienen un
solo desorden.
c. Sesgo de no repuesta.
Este tipo de sesgo es debido a un rechazo a participar en el estudio. Los individuos
que no responden a las invitaciones pueden ser diferentes de los individuos que sí lo
hacen. Los que no responden deben ser comparados con los que si responden, a fin
de determinar el grado relativo del sesgo de no respuesta.

Ejemplo:
En un estudio sobre los hábitos de fumar de veteranos de EEUU, donde los
cuestionarios fueron enviados por correo, se observo que el 85% de los no
fumadores, y solo el 67% de los fumadores, retornaban el cuestionario dentro de 30
días, con una tasa de retorno intermedio para los fumadores de pipa y de cigarro.

d. Sesgo del tamaño de muestra equivocado.


Una pequeña muestra puede resultar incapaz para detectar diferencias clínicamente
importantes. Muestras demasiado grandes pueden resultar en una medición
estadísticamente significativa de diferenciar clínicamente no importante.

b) Sesgo de Información

El sesgo de información es una distorsión en la estimación del efecto debido a errores


de medición o mala clasificación de los sujetos en una o más variables.

a. Sesgo diagnóstico.
El sesgo del diagnóstico puede ocurrir debido a una mejor medición en los casos
comparados con los controles.

En un estudio de cohorte, el conocimiento de la exposición previa de los sujetos a


una posible causa puede influenciar tanto la intensidad como el resultado de los
procedimientos diagnostico. El conocimiento de que un individuo trabaje en la
industria de caucho, por ejemplo puede conducir a una más intensa búsqueda por
cáncer de vejiga que lo que podría ocurrir si la persona trabajara en otra industria.

En un estudio caso control, si la enfermedad tiene pocas manifestaciones clínicas y


requiere test de laboratorio para detectarla, la enfermedad puede ser perdida en el
grupo "control" si ellas no son adecuadamente examinadas previo a su inclusión en
el estudio. Por ejemplo, para determinar la presencia de cáncer de endometrio en
individuos expuesto y no expuestos a terapia con estrógenos, el mismo
procedimiento diagnostico puede ser realizados para ambos grupos con la misma
frecuencia. Este sesgo puede ser reducido si se tiene un grupo control seleccionado
de personas que han tenido alguna prueba diagnostica al igual que el estudio de
casos, incluyendo solo aquellos con resultados negativos como controles.

b. Sesgo de memoria.
Un error en la categorización puede ocurrir si es que la información de la variable de
exposición es desconocida o imprecisa. El recuerdo de los casos y los controles
puede diferir en cantidad y acuciosidad.
Ejemplo
En un cuestionario para madres con embarazo reciente que tuvieron muerte fetal o
mal formación (casos) y un grupo pareado de madres cuyos embarazos tuvieron
termino normal (Controles) se encontró que el 28% de los primeros y solo el 20% de
los últimos reportaban exposición a drogas, lo cual no pudo ser sustentado ni en
entrevistas prospectivas tempranas ni en otros registros de salud.

Este tipo de sesgo puede ser evitado a través de una estricta adherencia al protocolo
desarrollado para el estudio, administrado de manera estandarizados por los
investigadores "ciegos", y a través del uso de datos registrados para proporcionar
información obtenida de registros y entrevistas.

c) Confusión

La confusión es un sesgo que resulta cuando el efecto de un factor bajo estudio esta
mezclado con los efectos de una variable extraña (tercer factor). Este sesgo puede
resultar de una relación causal, que relaciona el factor bajo estudio con otras variables
(llamados confusores) y con la enfermedad en la población.

Para ser confusor, un factor debe estar asociado con la exposición y con el efecto; en
cantidades desiguales en los grupos de casos y de controles. La edad es quizás la más
comúnmente confusora medida, el sexo, el estado socioeconómico, el estado marital, la
dosis y la duración de la ingesta de medicamento, la aceptación, los niveles de severidad
de la enfermedad y la existencia de dos o mas condiciones mórbidas son otros
confusores potenciales.

Ejemplo:

Una distinción importante entre el sesgo de confusión y otros tipos de sesgos es que la
confusión puede ser corregida durante el análisis, mientras que el sesgo de selección y
el sesgo de información son usualmente difíciles, sino imposibles, de corregirse en
cualquier estadio.

Un prerrequisito de cualquier evaluación de los confusores es la consideración de las


relaciones causales que el investigador piensa que pueden operar en la población
objetiva. Tal ajuste innecesario puede disminuir la precisión y puede introducir sesgo en
la estimación del efecto.

Primero, sólo los factores de riesgo (por ejemplo, indicadores de riesgo, determinantes
de enfermedad) deben ser elegidos entre la colección de variables extrañas bajo
consideración. En otras palabras, la definición de un confusor requiere ser un factor de
riesgo identificado antes de la colección de datos. Segundo, los datos sobre el confusor
deben estar disponibles.
Hablando ampliamente, un factor de riesgo es cualquier variable que el investigador
determina a estar "causalmente relacionada" (aunque no necesariamente una causa
"directa") y antecede a la enfermedad, sobre la base de un conocimiento sustantivo y
hallazgos de investigaciones previas. La edad y el tabaquismo, por ejemplo, son
ampliamente considerados como factores de riesgos para el cáncer, aunque los
mecanismos por los cuales estas dos variables son determinantes de esta enfermedad
no son bien conocidos; mientras que la raza no es considerada un factor de riesgo. Lo
racional para restringir los confusores potenciales de los factores de riesgo es el interés
primario en explorar la relación exposición enfermedad. En otras palabras si nosotros
concluimos que hay una fuerte relación exposición enfermedad en nuestro estudio, no
desearíamos que este hallazgo sean explicados por otras variables conocidas que
predicen la enfermedad.

Ejemplo
Suponga que uno desea investigar un postulado causal entre el consumo de alcohol y el
infarto del miocardio. El tabaquismo es conocido como causa de esta enfermedad, y la
ingesta de alcohol y el fumar es conocido que están relacionadas. Supóngase que el
consumo de alcohol no es una causa de infarto del miocardio. Por virtud de su asociación
con el tabaquismo, la ingesta de alcohol debería encontrarse que está asociada y
aparentemente incrementa el riesgo de esta enfermedad. Uno podría aun encontrar una
aparente relación dosis respuesta entre el alcohol y el infarto del miocardio, desde que
los tomadores sanos son frecuentemente fumadores sanos. A fin de desenredar el
efecto del tabaquismo (si lo hay) del alcohol uno puede estratificar los sujetos (tanto los
casos como los controles) dentro del grupo de fumadores y del grupo de no fumadores,
y dentro de cada subgrupo, buscando un asociación entre el consumo de alcohol e
infarto del miocardio .

Los hallazgos de los casos y controles son similares con respecto al tabaquismo dentro
de los subgrupos, una asociación específica de subgrupo entre el alcohol e infarto de
miocardio no puede ser explicada en términos de la diferencia en los hábitos de fumar.
La siguiente tabla presenta un ejemplo hipotético en el cual una asociación aparente
entre el alcohol y esta enfermedad es explicada enteramente en términos de la confusión
debido al tabaquismo.

La elevación estadísticamente significativa en el riesgo (OR=2.26, P=0.06, dos colas)


en el análisis que ignora el tabaquismo es inadecuado. Entre los no fumadores, el OR
estimado para infarto de miocardio asociado con consumo de alcohol es 1.0, con un
estimado idéntico entre los fumadores, el gráfico muestra los datos agrupados, la suma
de los confusores a través de los subgrupos para formar una tabla simple de 2 x 2, y
puede producir resultado inadecuados.

Uno puede considerar los ORs de los subgrupos específicos tal como se muestra en la
siguiente tabla: el efecto del alcohol, "ajustado por el tabaquismo" , sobre el riesgo de
infarto del miocardio. Conceptualmente, el efecto del tabaquismo ha sido el "apoyo
constante", aunque no en el sentido experimental.
Efectos del sesgo de selección y del sesgo de información sobre los Odds ratios
observados en los estudios analíticos caso control y cohorte.

Estos sesgos pueden alterar los Odds ratios y potencialmente conducir a conclusiones
no validas.

De los sesgos de selección. El sesgo de prevalencia e incidencia puede incrementar o


disminuir el Odds ratio en un estudio caso control pero esto es improbable que ocurra en
un estudio de cohorte. El sesgo de no respuesta puede influenciar en los estudios de
caso control, en los estudios de cohorte y en cualquier dirección. Los sesgos de selección
son los más difícil de evitar.

El sesgo de prevalencia - incidencia no es prevenible en un estudio caso control, pero es


al menos parcialmente medible; el sesgo de la tasa de admisión no es ni prevenible ni
medible; y el sesgo de no respuesta puede ser medido y prevenido de los sesgos de
determinación o de información. El sesgo de diagnostico puede incrementar el Odds ratio
tanto en los estudios de cohorte como en los de caso control, el sesgo de recuerdo
(memoria) puede también incrementar el Odds ratio en un estudio caso control, pero no
es aplicable a los estudios de cohorte. Ambos tipos de sesgos pueden ser prevenidos.

Así, los sesgos de selección hacen imposible generalizar las observaciones a todos los
pacientes y los sesgos de medición influencian la validez de las conclusiones del estudio.

Opciones para el control de los confusores en los estudios observacionales

1. Restricción en el diseño de estudio.

Este criterio para controlar, simplemente involucra especificar rangos estrechos de


valores para una o más variables extrañas, como criterios para admitirlos en el
estudio (por ejemplo, restricción de varones blancos, sólo con edades entre 40 y 50
años).

2. Apareando en el diseño de estudio y los procedimientos de muestreo, seguido


de estratificación en el análisis, basados en el apareamiento.

El apareamiento tiene como objetivo realizar la distribución de las variables extrañas


dentro del grupo de comparación similar (o idéntico) a la distribución
correspondiente al grupo de estudio.

El análisis de los datos pareados requiere estratificación, dentro de cada grupo


apareado considerar cada estrato por separado.
3. Estratificación en el análisis sin apareamiento.

Esta opción esencialmente involucra la restricción del análisis (antes que el


muestreo) a rangos estrechos (por ejemplo, estratos) de las variables extrañas,
agrupando la información sobre los estratos, si es que es apropiado.

4. Modelamiento matemático durante el análisis.

Este método involucra algunas formas de análisis de regresión multivariado,


basados en modelos matemáticos relacionados en la exposición, variables extrañas
y desenlace de la enfermedad. En los estudios de seguimiento, la variable
dependiente es generalmente una medición del desenlace de la enfermedad; en
los estudios caso control la variable dependiente puede ser la exposición o el
desenlace de la enfermedad. Cuando la variable dependiente es binaria, el más
popular método de modelamiento multivariado incluye el uso de un modelo logístico,
con estimación de parámetros basados en la máxima verosimilitud. Para información
de estas técnicas el lector puede consultar textos estándar sobre análisis
estadísticos de estudios analíticos.

Recomendaciones para minimizar los Sesgos en estudios analíticos

1. Los casos deben estar limitados a casos incidentes y ser elegidos como una entidad
homogénea o como una muestra probabilística de todos los casos.

2. Las definiciones, inclusiones y criterios de exclusión deben siempre ser explícitas.

3. Al menos dos grupos controles deben ser elegidos:

a. Un grupo basado en hospital, preferiblemente para aquellos pacientes que se han


sometido a los mismos procedimientos diagnósticos que los casos; los controles
pueden ser apareados a los casos, preferiblemente sobre base estratificada o
elegidos en una muestra aleatoria de controles potenciales.
b. Un grupo control basado en la comunidad.

4. Los análisis deben ser completos. Todos los potenciales confusores, sino han sido
considerados en los procesos de apareamiento, deberían ser controlados en el
análisis mediante estratificación o técnicas multivariadas.

Estadística de Comparación La comparación de varios tratamientos o medias.

Supongamos que una parte de los individuos de una población tiene una determinada
característica. Un dispositivo diagnóstico podría dictaminar, en esa población, si cada
individuo tiene o no la característica. El dispositivo no es infalible y fallará en algunos
casos, tanto por exceso –falsos positivos- como por defecto –falsos negativos-.
Queremos evaluar cuan fiable es ese dispositivo diagnóstico, para lo cual tomamos una
muestra de n elementos. Diagnosticaremos a los individuos con dicho dispositivo,
obteniendo un resultado positivo o negativo. Excepcionalmente, y sólo por motivos de
nuestra evaluación, conoceremos realmente si cada elemento de la muestra tiene o no
la característica.

Todos los elementos de la muestra están dentro de una de estas cuatro categorías:

A = Verdaderos negativos
B = Falsos positivos
C = Falsos negativos
D = Verdaderos positivos
Siendo n = a+b+c+d
Definimos:
Sensibilidad (s) = d/(c+d)
Especificidad (e) = a/(a+b)
Valor predictivo del resultado positivo vp(+) = d/(b+d)
Valor predictivo del resultado negativo vp(-) = a/(a+c)

Estos índices anteriores son estadísticos relacionados con la fiabilidad del diagnóstico.
Asimismo, un buen estimado de la verdadera proporción de positivos en la población de
origen –prevalencia- sería:

Prevalencia (prev) = (c+d)/n

Los valores predictivos no son invariantes con la proporción de positivos en la población.


Esto supone que su eficacia diagnóstica depende del entorno, de la prevalencia.

Manejando la información acerca de la dispersión

Es conocido que la media es una medida de centralización y que la varianza es una


medida de dispersión. Una varianza pequeña nos indica que la variable no se desvía
"demasiado" de su media, que es "poco" probable que haya valores alejados de la media,
o dicho de otra manera que es "muy" probable que los valores se encuentren alrededor
de la media.

You might also like