You are on page 1of 161

Módulo 1 geografía e historia

Historia de México 1
El estudio de la Historia y su construcción científica

construcción científica

Un hecho histórico no es un suceso ocurrido en el pasado, sino la explicación que se da sobre este. Los historiadores son
los especialistas que hacen la interpretación de lo ocurrido a partir de una metodología de investigación cuyo objetivo es
estudiar las evidencias del pasado. No obstante, cualquier persona, aunque no sea especialista en el tema puede dar
también una explicación histórica, siempre y cuando aplique un Los hechos históricos encuentran su aplicación al
determinarlos por el contexto presente; por tal motivo no hay explicaciones históricas definitivas. Los hechos históricos
siempre tendrán nuevas interpretaciones que pensamiento crítico que evalué las situaciones que estudia. dependerán
de las nuevas perspectivas con que se les mire.

• Historia anticuaria. También llamada anecdótica, se centra en hechos memorables y descontextualizados, tiene gran
aceptación masiva y entretenida. Ejemplos de esta forma de hacer historia se pueden encontrar fácilmente en librerías y
puestos de periódicos, pero también en la televisión y el cine.

• Historia critica. Es la que juzga al pasado, es más bien de denuncia y nos hace ser conscientes de algo, generalmente
perjudicial e injusto. Ejemplos, los males de un gobierno o la opresión hacia los ciudadanos por parte de alguna
institución.

• Historia de bronce. Los que la utilizan llaman a la historia "maestra de la vida" por considerarla didáctica, es decir,
porque nos enseña cómo fue el pasado, en hechos que fueron memorables. Ejemplo, discursos para celebrar eventos
como fiestas patrias, conmemoraciones religiosas, en escuelas, etc. Promueve el espíritu patriótico

• Historia científica. Trata de explicar el presente y busca los hechos generales. Explica el pasado como un proceso y
permite saber cómo se desarrollara el futuro.
Categorías históricas

Espacio: Desde un punto de vista histórico, el espacio geográfico es acumulativo, en tanto posee las huellas de las
diferentes sociedades que lo organizaron en el proceso histórico. En muchas regiones y en antiguas ciudades se
superponen los espacios organizados por las sociedades que se sucedieron en los sucesivos periodos históricos
(prehistóricas, antiguas, medievales, modernas o contemporáneas, del Antiguo Régimen o de la era industrial); a todo
ello hay que agregar que en la actualidad está tomando forma una nueva organización del espacio producto de la
sociedad de la información o del conocimiento.

Tiempo: Para la interpretación providencialista, el tiempo histórico es un paréntesis en la eternidad, origen y destino del
hombre. Si el hombre es el verdadero protagonista de la historia, la escala temporal de la vida humana pasa a ser la
decisiva, pero puede ser superada por la duración de las instituciones, que la superan. Los sesgos temporales van desde
las periodizaciones clásicas Prehistoria, Historia, Edad Antigua, Edad Media, Edad Moderna o Edad Contemporánea,
hasta las historias por siglos, reinados, etc.

Estructura: Es la disposición y orden de las partes dentro de un todo. También puede entenderse como un sistema de
conceptos coherentes enlazados, cuyo objetivo es precisar la esencia del objeto de estudio. Para el marxismo y otros
enfoques denominados materialistas (en sus diversas variantes: materialismo dialéctico, materialismo histórico,
materialismo cultural, etc.), la estructura es el conjunto de relaciones de producción tanto técnicas como sociales
(equivalente a la economía y la sociedad). Mientras que la superestructura (equivalente a la política y la ideología) viene
determinada por ella. Para el marxismo por tanto la estructura es la parte decisiva de la realidad social.

Duración: la larga duración (o nivel de las estructuras cuya estabilidad es muy grande),

La larga duración (del francés longue durée) es el término con que se designa un nivel del tiempo histórico
correspondiente a las estructuras cuya estabilidad es muy grande en el tiempo (marcos geográficos, realidades
biológicas, límites de productividad, incluso algunos fenómenos ideológicos), para diferenciarlo del nivel de tiempo de la
coyuntura, en que el cambio es perceptible (series económicas, procesos de cambio, fenómenos de transformación
profunda que han sido denominados historiográficamente revoluciones, como la Revolución industrial o la Revolución
burguesa) y sobre todo de la corta duración o hechos de la historia evenemencial o de los acontecimientos.

La acuñación del término se debe a Fernand Braudel sobre todo en el clásico estudio La Méditerranée et le Monde
Méditerranéen a l'époque de Philippe II (El Mediterráneo y el mundo mediterráneo en la época de Felipe II); y a la
escuela de Annales.

La coyuntura: (estadio intermedio, en que el cambio es perceptible)

Coyuntura y coyuntural es lo opuesto a estructura y estructural. Se dice de lo que no es permanente, sino contingente y
cambiante, pero que puede ser decisivo en el periodo más o menos largo en que se presenta.

En historiografía, la coyuntura es el nivel del tiempo histórico intermedio entre la larga duración y los acontecimientos
puntuales, tal y como lo define Fernand Braudel. Los procesos económicos (series de precios o salarios), las crisis y
revoluciones, serían buenos ejemplos de coyunturas o situaciones coyunturales. La duración real de estas situaciones no
tiene por qué ser breve: la coyuntura de crisis secular, por ejemplo (siglo XIV o XVII); o la Revolución industrial.

Horizontes y periodos culturales


*Horizonte preclásico: en este se engloban las primeras culturas que utilizaron la agricultura como sustento, dejando
atrás la caza, logrando con esto formar poblaciones que al paso adquirieron una organización social y política compleja,
dando paso a las divisiones sociales. Las manifestaciones artesanales y matemáticas comienzan también a florecer.
Durando este periodo de tiempo del 1800 a.C. al 250-300 d.C.

*Horizonte clásico: durante este periodo los grandes centros poblacionales como Teotihuacán, en el altiplano central, y
ciudades de la zona maya crecieron y decayeron por diversos motivos que en algunos casos son desconocidos. Estos
centros poblacionales ya contaban con organizaciones sociales altamente organizadas, regida de forma teocrática hasta
su caída y abandono. Este periodo cultural abarcó del 250-300 d.C. al 900 d.C.

*Horizonte postclásico: los cambios políticos que durante esta etapa se vivieron, mucho tuvieron su origen en invasiones
de pueblos nómadas del norte de México, que absorbieron los conocimientos de sus antecesores formando pueblos
donde se abandonó la teocracia que dominó durante el clásico, dando paso al militarismo y la formación de grandes
estados como el mexica. Este periodo donde la cultura en Mesoamérica estaba en su máximo apogeo se dio del 900 d.C.
hasta el 1521 d.C.

Periodos culturales

Preclásico: Olmecas y las primeras manifestaciones zapotecas.

Clásico: Teotihuacán, mayas, Xochicalco, totonacas y zapotecas.

Postclásico: Toltecas, mixtecas, purépecha y mexicas (aztecas).

Sistema Tributario De Los Aztecas.

Los mexicas o aztecas expandieron su control económico, principalmente mediante tributación, a través de
una amplia región del actual centro de México, con excepciones importantes de control político en altépetl
disidentes o fronterizos. Formalmente, se trataba de un conjunto de dominios inicialmente regidos de los tres
estados integrantes de la Triple Alianza —Texcoco, Tlacopan y México-Tenochtitlan, aunque es verdad que los
mexicas de Tenochtitlan encabezaron esta confederación y fueron el estado más expansionista de los tres
mencionados. Por otra parte, los mexicas nunca establecieron un dominio directo sobre los pueblos
conquistados.

La élite gobernante de la Triple Alianza se apropiaba de la producción de las otras naciones mesoamericanas
mediante la imposición de un tributo, que era fijado de acuerdo con la especialización económica y geográfica
de los dominados y recolectado por un calpixque, o recaudador. Los dominadores no impusieron su religión ni
su lengua a los dominados. Aunque es cierto que los estados sometidos no tenían independencia política total,
seguían gobernados por grupos locales. Sólo en algunos casos, los mexicas establecieron un control militar en
ciertos puntos estratégicos de sus dominios.

El modo en que los aztecas impusieron su dominio sobre otros pueblos mesoamericanos fue diverso, no
ajustándose a una estructura imperial tradicional como en las monarquías europeas. Aunque se suele señalar
el carácter militar de varias conquistas aztecas, también establecieron una complicada red de alianzas
matrimoniales con las élites locales para asegurar la lealtad hacia el poder de México-Tenochtitlan. Tal fue el
caso, por ejemplo, de los zapotecos del istmo de Tehuantepec. El dominio del Estado mexica en Mesoamérica
no fue total. Varios estados mesoamericanos fueron capaces de resistir el empuje de los tenochcas y sus
aliados, entre ellos los popolocas de Teotitlán del Camino, los tlapanecos de Yopitzinco, el señorío de
Metztitlán (norte de Hidalgo), los mixtecos de Tututepec, la confederación Tlaxcalteca y el estado tarasco de
Michoacán. De sobra es conocido que los tlaxcaltecas eran enemigos acérrimos de los mexicas, que les habían
impuesto la obligación de participar de la Xochiyáoyotl a cambio de su independencia. Tampoco debe dejar de
mencionarse que los mexicas nunca pudieron derrotar a los tarascos, y que la presencia de este pueblo
impidió la expansión de sus dominios hacia el occidente.

El fin del régimen de dominio internacional de los mexicas y sus aliados en Mesoamérica concluyó con la
Conquista española de México-Tenochtitlan.

Conquista de México
REFORMAS BORBÓNICAS

Con la muerte de Carlos II -último rey de la dinastía de los Austrias en España- estalló el año 1700 una guerra
de sucesión que se debió a la falta de un heredero al trono. Este conflicto involucró a las grandes potencias
europeas de la época. Gracias a la alianza con sus parientes de Francia, Felipe V de Anjou pudo hacerse del
trono en España (1701), en desmedro de las pretensiones austríacas. Tal estado de cosas fue ratificado en el
Tratado de Utrecht de 1713, inaugurándose así los reinados de la dinastía borbónica en España y en su imperio
colonial.

Los desafíos de la nueva casa monárquica estarán encaminados hacia la recuperación del prestigio y del poder
político, muy disminuidos en relación al de las potencias rivales europeas, en especial Inglaterra. A lo

Largo de todo el siglo XVIII los reyes y ministros destinaron sus esfuerzos a tres grandes objetivos: mejorar la
organización interna del imperio, aumentar los ingresos de la corona y reforzar las defensas de todas las
posesiones españolas.

Durante todo el siglo XVII, los americanos se habían gobernado con amplia autonomía de la metrópoli, y la
administración de las colonias americanas también evidenciaba este proceso. Una consecuencia
particularmente grave de esta situación era que España recibía cada vez menos beneficios económicos de sus
colonias.

Por esta razón, cuando los Borbones llegaron al trono, emprendieron una ambiciosa política de reformas
políticas, militares, eclesiásticas y económicas, cuyo objetivo era “reconquistar” las posesiones ultramarinas.
Esta reconquista se organizó bajo principios absolutistas que los Borbones habían impuesto en Francia. Las
medidas se centraron en dos aspectos principales: la centralización de la monarquía, es decir, la concentración
del poder en el rey, la corte y los ministros de Estado; y el afán por uniformizar la estructura política y
administrativa de sus dominios. Por ejemplo, los Borbones sustituyeron el sistema de consejos (como el
Consejo de Indias) a favor de administradores que respondían a las órdenes exclusivas del rey.

Aunque las bases de las reformas borbónicas estuvieron sentadas desde 1743, éstas llegaron a su apogeo
entre 1776 y 1786. El monarca Carlos III fue el que emprendió mayor cantidad de medidas reformistas más
ambiciosas. Apremiado por la creciente competencia de otras potencias coloniales, y ante las numerosas
dificultades para hacerse obedecer en América, decidió modificar drásticamente el sistema de administración.
Las reformas fueron en ámbitos administrativo, judicial, eclesiástico y comercial.

La independencia de México
La consumación de la independencia
El 27 de Septiembre de 1821 entró triunfante en la Ciudad de México el Ejército Trigarante, después de más de diez años
de lucha insurgente por alcanzar la Independencia de México. A lo largo de ese proceso los grandes caudillos que
encabezaron el movimiento -Hidalgo, López Rayón y Morelos, entre otros-, fueron aprehendidos y fusilados por los
realistas. En la última etapa de esta gesta destacó Vicente Guerrero.

En 1820, la Constitución de Cádiz fue restablecida en España, lo que propició que algunos sectores de la sociedad
novohispana -opuestos a ella porque afectaba sus intereses- se levantaran en armas enarbolando el Plan de la Profesa.
Para encabezar esta conspiración fue nombrado Agustín de Iturbide. El 24 de febrero de 1821 se proclamó el Plan de
Iguala, el cual resultó atractivo para casi todos los novohispanos pues, de alguna manera, beneficiaba a distintos grupos
sociales. Dicho plan proponía una monarquía limitada y separada, lo que complacía a quienes buscaban la autonomía
con respecto a España; tomaba en cuenta ciertos principios de la Constitución de Cádiz, favorables a los liberales; ofrecía
a Fernando VII -o a otro miembro de la Casa de los Borbones- ocupar el trono de México, lo que era del agrado de los
tradicionalistas; disponía de la continuidad de los fueros eclesiástico y militar, por lo que ambas corporaciones se
unieron a él. Además, preveía que los funcionarios del gobierno conservaran sus empleos y jerarquías, ganando así el
apoyo de la burocracia novohispana.

El plan suprimía, además, las distinciones étnicas entre los habitantes de la hasta entonces Nueva España; declaraba la
igualdad de todos los individuos y, por lo tanto, en adelante todos tendrían los mismos derechos. En cuanto al gobierno
del nuevo país, proponía una Regencia -que se haría cargo del gobierno por una breve temporada- y una Junta Soberana
compuesta por liberales y conservadores, además convocaría a Cortes para elaborar una Constitución. Finalmente,
exhortaba a los insurgentes a incorporarse al nuevo ejército, el Trigarante, cuyo nombre aludía a tres garantías: Religión,
Independencia y Unión.

Este plan sustentó la lucha por la independencia varios meses más. El 5 de julio, el virrey Juan Ruiz de Apodaca, fue
destituido; su lugar lo ocupó, provisionalmente, el general Francisco Novella. El 30 de julio de 1821 arribó al puerto de
Veracruz Juan de O´Donojú, quien sustituyó a Ruiz de Apodaca. El 24 de agosto, O´Donojú, e Iturbide, firmaron los
Tratados de Córdoba. Estos tratados reconocían al Plan de Iguala y, por lo tanto, la Independencia de México, así como
el fin de la dominación española, además de la existencia del Imperio Mexicano como Nación Soberana e Independiente.
Asimismo, contemplaban las disposiciones del Plan de Iguala relativas a la forma de gobierno del nuevo país.
O´Donojú, designado como intermediario para entregar la capital sin derramamiento de sangre, entabló negociaciones
con el general Novella quien, después de prolongadas pláticas, reconoció la autoridad de O´Donojú y le entregó el
mando de la guarnición real el día 13 de septiembre. El Ejército Trigarante, al mando de Iturbide, hizo su entrada triunfal
en la Ciudad de México el 27 de septiembre de 1821. El primer acto de la Junta Provisional Gubernativa, consistió en
decretar el Acta de Independencia del Imperio Mexicano, en cuyo párrafo final sentenciaba: “Tendrá lo entendido la
regencia, mandándola imprimir, publicar y circular.- México, 6 de octubre de 1821, primero de la independencia de este
imperio. (...Firmas...)”.

Historia universal contemporánea


1. la crisis delos estados modernos

El advenimiento y desarrollo del capitalismo europeo revolucionó la historia de millones de personas en todo el
mundo. Las transformaciones internas que generó en los ámbitos económico político y social requieren relacionarse en
torno suyo para poder tener una idea integral de lo que sucedió a partir de su consolidación y del impacto en cada uno
de los países donde se asienta.

Desde la segunda mitad del siglo XVIII, una significativa parte de la población mundial se ha visto involucrada en esta
modalidad de vida que como otras que se presentaron con anterioridad, tienen sus aspectos positivos y negativos pero,
indiscutiblemente, derivados de hacer de los hombres y las mujeres que habitamos este…ver más…

En sentido restringido, se aplica al expansionismo occidental en el período 1850-1950, especialmente en la denominada,


ya por sus contemporáneos, «edad del imperialismo» (1880-1914): reparto planificado del mundo entre las grandes
potencias capitalistas, modalidades del proceso, implicaciones sociales, económicas, diplomáticas, etc.

* Monopolio:

Es una situación de privilegio legal o fallo de mercado en la cual, para una industria que posee un producto, un bien, un
recurso o un servicio determinado y diferenciado, existe un productor (monopolista) oferente que posee un gran poder
de mercado y es el único de la industria que lo posee.

1.2.2 Capitalismo Monopólico de América del Norte

A finales de los años de 1980 y principios de 1990 tendría lugar otro hecho de enorme relevancia como fue la caída del
muro de Berlín y la disolución del Bloque Soviético, sucesos que llevaron a la conformación de un nuevo orden mundial,
dejando este de caracterizarse por la bipolaridad (situación propia de la Guerra Fría) harán que se geste un nuevo orden
mundial, que dejará así de caracterizarse por la bipolaridad propia de la Guerra Fría y pasará a caracterizarse por la
unipolaridad, con Estados Unidos emergiendo como única superpotencia.

Estado moderno entra en crisis en la medida que su estructura decisional y su soberanía son sometidas a presiones
contrapuestas: “desde arriba” se ve cuestionado por instituciones supranacionales y corporaciones; y “desde abajo”,
entra en conflicto con los problemas y cuestiones que se originan en los ámbitos locales. Estos procesos ponen al Estado
en una situación de debilidad para conducir sus políticas, lo que termina por reforzar la interpretación neoliberal de la
globalización, que hace de las demandas de los mercados el sinónimo del “bien común”. Pero también

CONSECUENCIAS DE ESTADOS MODERNOS

El impacto que el descubrimiento de América significó para el mundo fue grande: las consecuencias demográficas,
económicas y culturales se dejaron sentir inmediatamente:

- Demográficas: la emigración o traslado de población europea hacia las colonias americanas, la mezcla entre la raza
nativa y la europea (mestizaje racial), el tráfico de esclavos negros y el intercambio continental de epidemias que hizo
disminuir la población indígena americana.
-Económicas: se desplazó la actividad económica desde el Mediterráneo hacia el Atlántico. El hallazgo de numerosos
yacimientos de metales preciosos en América, fomentó la tendencia al atesoramiento de oro. El intercambio de
productos entre los dos continentes provocó que en América se conocieran el trigo, el café, la caña de azúcar y el olivo,
Europa recibió de América el cultivo del maíz, el cacao y la papa.

-Culturales: los pueblos europeos trajeron a América su forma de pensar, valores, idioma, religión, arte y sentido del
derecho, entre otros aspectos.

El nacimiento del nacionalismo: los reyes usaron el nacionalismo como un instrumento para la formación de un Estado
centralizado al unir al pueblo bajo una misma bandera y un mismo idioma.

La creación de los estados liberales.

La creación de las monarquías absolutistas y las monarquías parlamentarias.

La formación de la Burocracia y la Diplomacia.

La estatización del ejército.

Aquellas consecuencias ahora más que nunca son trascendentes y principalmente pesan en la sociedad y en el mundo
actual, puesto que son esas mismas consecuencias que han hecho o provocado que el mundo este como está y que en la
sociedad entera se note un cambio significativo y racial de lo que conforman los grupos de poder y el proletariado en su
mayoría

Formación de los estados modernos


El Estado Moderno surgió entre los siglos XIV y XV, cuando los reyes aprovecharon la crisis del feudalismo para retomar
su poder, y su proceso de surgimiento se aceleró en el Renacimiento, con profundas transformaciones en los
mecanismos de gobierno y en el ejercicio del poder.

Crisis feudal: base para un estado en forma.

El nacimiento del estado moderno es una de las características que han definido el comienzo de la Edad Moderna,
aunque muchos historiadores consideran que el nacimiento del estado fue un proceso lento, que comenzó siglos antes
del inicio de la Edad Moderna, es decir, en la Edad Media.

Como génesis medieval del Estado moderno se entiende el proceso por el cual las monarquías occidentales pasaron,
durante la Baja Edad Media, de una organización feudal de vasallaje a otra centralizada de características estatales y
absolutistas.

Durante la mayor parte de la Edad Media la monarquía feudal impedía la organización de un estado cuyo poder lo
tuviera solo el rey. Desde el siglo XIII, y fundamentalmente en los siglos XIV y XV, los reyes fueron aumentados su poder,
pero el Estado moderno como tal comienza a implantarse en Europa desde finales del siglo XV. Pero su implantación no
sigue un ritmo uniforme pues este proceso de construcción del Estado moderno sólo se dio en tres países: la Francia de
Luis XI, la Inglaterra de los dos primeros Tudor y la España de los Reyes Católicos. Pese a sus limitaciones, estas
monarquías occidentales habían establecido firmemente las bases del Estado centralizado y absolutista. En el resto de
países, la monarquía autoritaria no se implantó hasta bien entrado el siglo XVII.

La construcción del Estado Moderno supuso la afirmación territorial de la autoridad monárquica frente a obstáculos
interiores y rivales exteriores, una creciente centralización política y económica, la extensión y ampliación de la
capacidad decisoria de la administración real (burocratización) y la consolidación de la monarquía autoritaria como eje
central de un sistema político complejo. Con esto, el rey consiguió la resignación de la sociedad, a cambio de un cierto
orden y progreso.

El poder monárquico se consolida.

Los reyes fueron quienes iniciaron este proceso en el transcurso de los siglos XIV y XV. Interesados en concentrar el
poder en su persona, debieron negociar con los señores feudales, quienes cedieron sus derechos individuales sobre sus
feudos, a cambio de una serie de privilegios. Los que no estuvieron dispuestos a transar, fueron sometidos a través de
violentas guerras. Para éstas, los reyes contaron con el apoyo de los burgueses, a quienes les interesaba dejar de
depender del señor feudal. De este modo, el concepto feudal de lealtad fue reemplazado por los de autoridad y
obediencia, propios de un Estado con poder centralizado.

En el siglo XVII, el poder político de los monarcas se fortaleció hasta eliminar cualquier representatividad, dando lugar a
las monarquías absolutas. Uno de los más claros ejemplos del absolutismo fue Francia. Durante el siglo XVII, este país se
convirtió en la mayor potencia europea, después de consolidar sus fronteras, gracias a innumerables guerras con los
países vecinos. El rey Luis XIV (1643-1715) fue la mejor personificación de la imagen del monarca absoluto. A él se
atribuye la frase: "El Estado soy yo".

El fin justifica los medios

El Príncipe fue un tratado que revolucionó las ideas políticas de la época. Escrito por Nicolás Maquiavelo, se hizo eco de
las tendencias individualistas que comenzaron a dominar las costumbres. En él, Maquiavelo expuso un conjunto de
reglas y recomendaciones que debía seguir un político para vencer en las luchas por el poder. Según estas, la sociedad y
los hombres no se regían por el derecho divino o la ley moral, sino que exclusivamente por las pasiones e intereses.

Maquiavelo.

El político no puede cambiar a los seres humanos, sino que los debe tomar como son y, por lo tanto, debe usar cualquier
medio siempre que obtenga éxito. Eso dejaba abierta la posibilidad de utilizar el engaño, la mentira e, incluso, el
asesinato, pues todo se justificaba si servía a los objetivos del gobernante para conservar y aumentar el poder. Para el
político solo debía regir la razón de estado. Desde la perspectiva política, el fenómeno más relevante, como ya lo vimos,
en la configuración del Estado moderno son las primeras monarquías nacionales, las cuales se irán abriendo paso a
medida que se diluya la idea medieval de imperio cristiano con el transcurso de las luchas de religión del siglo XVI.

El nacimiento del Estado moderno significará nuevas formas en la organización del poder, como la concentración del
mismo en el monarca; nacerá la concepción de un patrimonio del Estado, que generará una burocracia y el crecimiento
de instrumentos de coacción, mediante el incremento del poder militar, o la aparición y consolidación de la diplomacia,
conjuntamente con el desarrollo de una teoría política útil.

Fórmulas que culminarían en el Estado absolutista del siglo XVII o en los despotismos ilustrados del siglo XVIII, pero que
no pueden ocultar la complejidad de la realidad política europea y el desarrollo de modelos de gobierno alternativos,
como las formas parlamentarias que se fueron implantado desde el siglo XVII en Inglaterra, y que vaticinan el posterior
desarrollo del liberalismo.

2. El mundo entre guerras y la segunda guerra mundial


La primera guerra mundial

Primera Guerra Mundial (1914 – 1919) fue un conflicto bélico global centrado en Europa que comenzó en el verano de
1914. La lucha terminó a finales del año 1918. Este conflicto involucró a todas las grandes potencias del mundo, se
reunieron en dos alianzas opuestas: los Aliados (en torno a la Triple Entente) y los Imperios Centrales. En la Primera
Guerra Mundial, más de 70 millones de efectivos militares, incluidos 60 millones de europeos, se movilizaron en una de
las mayores guerras de la historia. Más de 9 millones de combatientes perdieron la vida, debido en gran parte a los
grandes avances tecnológicos en potencia de fuego. Es el segundo conflicto más mortífero de la historia, solo superado
por la Segunda Guerra Mundial.

Antecedentes de la Primera Guerra Mundial

Desde el 1871 hasta el 1914 Europa vivió lo que se ha dado en llamar la “Paz Armada”, que fue en extremo beneficiosa
para el desarrollo económico, cultural y científico de las naciones industriales europeas. Sin embargo, entre las grandes
potencias existía mucho recelo, lo que les inducia a armarse constantemente. De allí el nombre que se le ha dado a este
periodo.
Causas de la Primera Guerra Mundial

1. Tensiones entre las potencias: los principales antagonismos internacionales eran los siguientes:

Entre Alemania y Francia por la rivalidad que dejo la Guerra Franco-Prusiana.

Entre Rusia y Austria por la hegemonía en la península de los Balcanes.

Entre Inglaterra y Alemania por la competencia comercial y colonial.

Las fricciones políticas entre Inglaterra, Francia y Rusia, a causa de la respectiva expansión colonial, fueron también
intensas, pero fueron dejadas de lado para dar paso a la configuración de alianzas internacionales.

Aparte de las fuertes rivalidades coloniales, las potencias industriales se enfrentaron en el plano netamente económico.
Lucharon entre sí por conseguir mercados para sus productos y retenerlos por conquista.

2. Alianzas Militares y Políticas

Para asegurar los resultados de su victoria sobre Francia, el canciller alemán Otto Von Bismarck concibió un sistema de
alianzas, basado en la estrecha colaboración entre Alemania y el imperio austriaco. A esta alianza se unió Italia,
enemistada con Francia por la cuestión de Túnez, y así apareció la denominada Triple Alianza.

Por su parte, Francia busco aliados que apoyaran sus deseos de desquite. Como Rusia era adversaria de Austria en los
Balcanes, se firmó la alianza franco-rusa, a la que luego se unió Inglaterra al darse cuenta del enorme poder que estaba
acumulando Alemania. De esta manera nació la Triple Entente o Entente Cordiale.

3. La Crisis Marroquí y los Balcanes (1905 – 1911)

Los dos bloques antagónicos practicaron una política de agresión indirecta; este hecho aumento las posibilidades de que
estallara una guerra. La primera ocurrió con motivo del establecimiento del protectorado francés en Marruecos, a lo que
se opuso Alemania. La segunda causa de la guerra que estallo en los Balcanes, primero entre Turquía, de una parte, y
Grecia, Bulgaria y Serbia unidas de otra, y luego, derrotada Turquía, entre los vencedores para repartirse el botín (1911 –
1913).

Pretexto para el estallido de la Primera Guerra Mundial


El pretexto para el inicio de la “Gran Guerra” (era así como se llamaba a la Primera Guerra Mundial antes del estallido de
la Segunda Guerra Mundial) se dio cuando ocurrió el asesinato del archiduque Francisco Fernando, heredero de la
corona austriaca, en Sarajevo (junio de 1914), por parte de una organización nacionalista serbia "Mano Negra". Austria
quiso aprovechar la oportunidad para acabar con Serbia, en esta política el apoyo Alemania. Entonces Rusia declaro la
guerra a Austria, mientras Alemania lo hacía a Rusia y Francia. Como se ve, el funcionamiento de las alianzas
desencadeno el conflicto general.

El primer grupo lo conformaron los Imperios Centrales; Alemania y Austria-Hungría, junto con Turquía y Bulgaria.

El segundo grupo estaba compuesto por Rusia y Francia al lado de Inglaterra, Bélgica (invadida por los alemanes), Italia
(que se desligo de la Triple Alianza al ser traicionado por Alemania que apoyo las pretensiones austriacas en los
Balcanes, zona codiciada también por Italia), los Estados Unidos de América y el Japón.

Se inicia con la Invasión de Alemania a Bélgica. Los alemanes invaden y ocupan Bélgica. Italia rompe alianzas con las
potencias centrales.

- Invasión de Francia, los alemanes avanzan a Francia dirigidos por el general Von Kluck, pero son detenidos por el
general francés Joffre en la Primera Batalla de Marme.

- Invasión de Alemania. Rusos invaden Prusia Oriental, pero los ejércitos alemanes logran derrotarlos en las batallas de
Tannemberg y de los Lagos Masurianos

- Guerra de Trincheras: Los franceses desarrollan una guerra de desgaste frente a Alemania mediante las trincheras que
se extendieron desde el frente occidental, con líneas paralelas, desde Suiza hasta el Mar del Norte.

- Bloqueo a las potencias centrales. Francia e Inglaterra decretaron el bloqueo a Alemania.

- Guerra Submarina. Frente a las medidas de los aliados, Alemania declaro zona de guerra, a los mares que rodeaban las
islas británicas, con el fin de garantizar el aprovisionamiento de materias primas a su industria. Se produjo entonces el
hundimiento de la embarcación norteamericana Lusitana que determino el ingreso de los Estados Unidos en la Guerra.
EE.UU intervino para proteger el comercio internacional y sus privilegios e inversiones en el extranjero.

- Derrota rusa en el Frente Oriental. Rusia se retira de la guerra, por las derrotas frente a los alemanes y el triunfo de la
Revolución Rusa (revolución bolchevique), se vieron en la obligación de firmar el tratado de Brest-Litovsk. Alemania
inicia una contraofensiva terrestre. Se produce el asedio a Francia, pero los alemanes son vencidos en la Segunda Batalla
de Marne.

- Revolución Socialista de Noviembre en Alemania que forzaría la Abdicación del Káiser Guillermo II (fin de la monarquía
alemana). El gobierno provisional planteo el armisticio, firmado en el bosque de Compiegne que pondría Fin a la guerra.

Fin de la Primera Guerra Mundial: Tratado de Versalles (18 de junio 1919)

El Tratado de Versalles puso fin a la guerra entre los aliados y Alemania. Alemania perdió parte de su territorio, pues
tuvo que devolver Alsacia y Lorena a Francia, Schelwig a Dinamarca, parte de Silesia a Polonia así como la Posnania y la
Prusia Oriental. Además, se le impuso a Alemania el pago de una indemnización por los daños causados a las potencias
vencedoras, también se obligó a reducir su ejército y a desmilitarizar la zona del Rhin, zona que los aliados ocuparon
como garantía del cumplimiento del tratado. Alemania, además, perdió también todos sus territorios coloniales.

Consecuencias de la Primera Guerra Mundial

- Durante la primera Guerra Mundial murieron, aproximadamente, 9 millones de personas (entre civiles y militares). El
número de heridos, entre civiles y militares ascendió a cerca de 30 millones.

- Desintegración del Imperio Otomano y del Imperio Austro-Húngaro

- Fortalecimiento de los Estados Unidos de América en el escenario político, militar y económico mundial.

- Creación de la Liga de Naciones (llamada también Sociedad de Naciones) con el objetivo de garantizar la paz mundial.

- Firma del Tratado de Versalles que impuso una serie de penalidades a la derrotada Alemania, que sería el origen del
revanchismo alemán , que provocaría el estallido de la Segunda Guerra Mundial.

- Crisis económica en Europa, a causa de la devastación causada por la “Gran Guerra” y también por los elevados gastos
militares de las naciones beligerantes

- Desarrollo de varios armamentos de guerra como, por ejemplo, tanques de guerra y aviones.

Antecedentes

La nueva estructura socio-política

La primera consecuencia de los tratados de paz fue la desaparición de los cuatro grandes imperios existentes antes de la
guerra (Alemania, Rusia, Austro-Hungría y Turquía). En su lugar surgieron otras entidades tras su desmembramiento.

Alemania perdió amplias áreas, el 15,5 % del total de su territorio y el 10% de su población: Alsacia y Lorena volvieron a
manos de los franceses; la zona del Sarre quedó bajo administración de la Sociedad de Naciones y sus recursos mineros
serían explotados por Francia durante 15 años; la zona de Eupen-Malmedy se entregó a Bélgica.

Prusia Oriental, Posen y el corredor de Dantzing pasaron a Polonia. Dantzing quedó bajo administración de la Sociedad
de Naciones. Memel se asignó a Lituania. Parte de Schleswing (Alta Silesia) pasó a Dinamarca.
Las colonias alemanas se repartieron entre diversas potencias: África Oriental y del Suroeste, así como parte de Togo y
Camerún, se transfirieron al Reino Unido, en tanto que la otra parte pasó a Francia. Los archipiélagos del Pacífico
(Marshall, Carolinas y Marianas) se asignaron a Japón.

En el este de Europa se consolidaron las fronteras que Alemania había impuesto a Rusia en el Tratado de Brest-Litowsk.
Se pretendió con ello establecer una especie de cordón sanitario de estados anticomunistas (Finlandia, Estonia, Letonia,
Lituania) que impidiera la propagación del bolchevismo ruso. Con ello los rusos perdieron casi toda la costa del Báltico.

Polonia se restableció como estado a costa de los territorios desgajados de Rusia, Alemania y Austria-Hungría.

El Imperio Austro-Húngaro quedó desmembrado en el Tratado de Saint-Germain y perdió todos sus territorios eslavos,
de tal manera que el pequeño país resultante solicitó su unión con Alemania, siéndole denegada la petición.
Posteriormente, en 1938, Hitler la consumaría (Anschluss).

Tratado de Saint-Germain. Los delegados escuchan a Clemenceau. Ampliar imagen

Tratado de Saint-Germain

A su costa se formaron los estados independientes de Austria, Yugoslavia, Polonia y Checoslovaquia. A Italia hubo de
cederle parte del Tirol, Istría y Trieste, así como parte de Dalmacia (en la actual Croacia). A Yugoslavia, surgida como
nuevo estado de la antigua Serbia, hubo de entregarle Bosnia-Herzegovina.

Hungría, la otra parte de la monarquía dual del Imperio Austríaco, se constituyó como estado independiente de Austria y
hubo de entregar a Serbia Croacia y Eslovenia, piezas importantes del nuevo estado yugoslavo. A Checoslovaquia, nuevo
país, hubo de rendirle Eslovaquia y a Rumanía Transilvania.

Tratado de Sèvres. Agosto de 1919. El representante turco en el momento de la firma. Ampliar imagen

Tratado de Sèvres

El Imperio Turco, por el Tratado de Sèvres quedó reducido territorialmente a la península de Anatolia (Asia Menor) y
solo conservó en Europa la ciudad de Estambul. Perdió la zona de Irak, Palestina, Líbano y Siria que fueron convertidos
en protectorados bajo la administración del Reino Unido o Francia. Perdió asimismo parte de Tracia y las islas del Egeo
que se transfirieron a Grecia; El Dodecaneso (hoy griego) pasó a Italia; Armenia, que se convirtió en Estado.

La imposición de estas duras condiciones desencadenó una revolución, que protagonizada por Mustafá Kemal, depuso al
sultán y resolvió continuar la guerra con Grecia, a la que venció. Por el Tratado de Lausana (1923) Turquía recuperaba
algunos territorios perdidos en el Tratado de Sèvres.

La zona de Oriente Próximo que hasta entonces había pertenecido al Imperio Turco jugaría un papel relevante en la
historia del siglo XX. Los árabes, que bajo dominio turco apoyaron a los aliados, habían recibido de Gran Bretaña
garantías de que una vez finalizado el conflicto formarían un estado unido. El fin de la guerra frustró tal anhelo, pues
esas zonas fueron repartidas en diversos departamentos bajo influencia británica y francesa. Por otra parte, el
movimiento sionista (nacionalismo judío) inició su movilización para crear un Estado judío en Palestina. Texto. Sionismo.
Declaración de Balfour.
Rumanía, que ya existía como estado, fue robustecida territorialmente con el propósito de aislar a la Rusia soviética.
Serbia incrementó su territorio mediante la creación de un nuevo estado: Yugoslavia. Sin embargo, la nueva entidad
carecía de unidad cultural, lingüística y religiosa, lo que en adelante le acarrearía serios problemas políticos y étnicos,
hasta que desapareció en los años 90 del siglo XX, no sin antes sufrir una cruenta guerra. Bulgaria, por el Tratado de
Neuilly, hubo de ceder parte de Tracia a Grecia y perdió el acceso al mar Egeo.

3. La guerra fría

ANTECEDENTES DE LA GUERRA FRIA


Entendiéndose la guerra fría como el conflicto a nivel global entre el bloque comunista de Europa oriental, Asia y cuba y
el bloque capitalista de américa en general, Australia y Europa occidental. se puede decir que sus antecedentes se
remontan a la primera guerra mundial cuando una profunda crisis económica obligo a Rusia a retirarse de la guerra,
revelarse en contra del gobierno de los zares, derrocar al zar Nicolás II en 1917 y conformar la Unión de Repúblicas
Socialistas Soviéticas bajo el mando de Stalin lo cual genero tensiones entre este motor del esparcimiento del
comunismo y los Estados Unidos de América quienes mostraron tensiones en el periodo de entreguerras comenzando
con la afirmación de la ideología comunista de que el capitalismo debía ser derrocado y reemplazado además de el no
reconocimiento de la URSS democráticamente por parte de EEUU hasta 1933 sumaron las tensiones entre ambas
potencias sin mencionar los innumerables y antagónicos choques que cada ideología presentaba.
Durante la segunda guerra mundial más tarde ambas potencias se aliaron para derrocar a la Alemania Nazi pero fuertes
sospechas de que EEUU y los británicos se iban a aliar en contra de los soviéticos dejándoles toda la carga bélica para
luego hacerlos firmar tratados que beneficiaran a las economías capitalistas, incrementaron la ya existente tensión y
antagónica. La manifestación de la guerra fría abierta y "declarada" fue a la hora de repartir los restos decadentes de
Europa, lo que aconteció fue que las ideologías opuestas que tenían las potencias vencedoras de la segunda guerra
mundial impedían dar paso a acuerdos que permitieran la satisfacción de todos pues la URSS dado a experiencias
pasadas no podía considerar lo que proponían las potencias capitalistas en cuanto al sistema que se adoptaría en el
continente, la URSS quería asegurarse de que el nuevo orden europeo posibilitara la existencia a largo plazo del régimen
soviético, y que este objetivo solo podría conseguirse mediante la eliminación de cualquier gobierno hostil a lo largo de
la frontera occidental soviética, y el control directo o indirecto de los países limítrofes a esta frontera, para evitar la
aparición fuerzas hostiles en estos países. Además estos roses claramente no podían continuar por medios bélicos mas
adelante ya que la amenaza nuclear estaba latente desde que una bomba atómica fue utilizada en Hiroshima y Nagasaki
y estos eventos demostraron que una guerra a gran escala entre dos potencias tendría consecuencias mucho mayores a
las antes vistas atravesó de la historia, más que la continuación de la política por otros medios.

Al final Europa fue dividida entre este y oeste conformándose el bloque comunista compuesto por dictaduras en Europa
oriental bajo el liderazgo de la URSS que luego se extendió por gran parte de Asia, también se conformó el bloque
capitalista formado por américa en general al mando de EEUU, Europa occidental algunas zonas de Asia y Oceanía.

ANTAGONISMO HEGEMONICO

Pendiente
4. el nuevo orden internacional
El nuevo orden

El mundo está sufriendo cambios a pasos agigantados. Los países se agrupan por bloques… todos buscan
protegerse de las embestidas económicas y financieras… que en muchos de los casos son propiciadas por ellos
mismos, los más poderosos… priva la ley del más fuerte…

Algunos de estos bloques se pueden identificar como “grupos”. Entre ellos podemos encontrar el grupo de los
7, el grupo de los 12, el grupo de los 14, el grupo de los 5…. Ahora que el Grupo que está prevaleciendo es el
llamado Grupo de los 20, al cual pertenece México, catalogado éste como de los países emergentes, es
decir, en vías de desarrollo. En otras palabras, su presencia es meramente simbólica… si porque los que
verdaderamente deciden los rumbos del mundo son los llamados países ricos.

Alemania reivindicó la retirada de las tropas de la OTAN de su territorio, ya que no existe amenaza justificada.
Ambos, Japón y Alemania, desean tomar asiento como miembros permanentes del Consejo de Seguridad de la
ONU. No se justifica tomar parte del "Grupo de los Siete" (líderes de las naciones más industrializadas) si no se
tiene la contrapartida del poder político, a través del poder del veto, en el órgano de mayor representación
política en el planeta.

Formación de mega-bloques económicos y políticos. La formación del NAFTA, conformado por los Estados
Unidos, Canadá y México, sorprendió a los países de América del Sur pues se constituía otro mega-bloque
económico en el eje Norte-Norte. Por ello se concibió la creación del MERCOSUR, del cual formaban parte
inicialmente Brasil, Argentina, Uruguay, Paraguay y Chile. Interferencia cada vez mayor de la O.N.U., a través
del Consejo de Seguridad, en las querellas regionales con el consecuente aumento del número de tropas y el
número de "Peace Keeping Forces" (Fuerzas de Mantenimiento de la Paz). (Maestri, 2001)

MODULO 2-ESPAÑOL SUPERIOR Y LITERATURA


3. La lengua griega

El alfabeto griego

Vocales, consonantes y diptongos

Mientras una vocal es un sonido producido por la expulsión del aire con vibración laríngea y sin oclusión que
impida su paso, una consonante es por su parte un sonido originado por un cierre de los órganos articulatorios
y su posterior apertura.

Sistema de las vocales


Las vocales, a diferencia de las consonantes, son capaces de formar sílabas, en solitario o no.

Las vocales se clasifican según:

La abertura (es decir, la posición más o menos próxima de la lengua respecto al paladar):

Abertura máxima: α

Abertura media: ε, η, ο, ω

Abertura mínima: ι,υ

La articulación (es decir, la posición avanzada o retraída de la lengua):

Posición anterior: ε, η, ι

Posición central: α

Posición posterior: ο, ω,υ

La cantidad, (es decir, su duración):

Siempre largas: ε, ο

Siempre breves:η, ω

Largas o breves (no hay dos grafemas que distinga larga de breve): α, ι,υ

En ático hay pues doce vocales, cinco breves y siete largas, clasificadas de la siguiente forma:

Vocales breves

Vocales largas

El grafema υ suena /ü/. Se pronuncia como una /i/ pero con los labios redondeados. En latín no existía y por
este motivo los romanos lo utilizaron como la famosa y griega que pervive en nuestro alfabeto.

Por último, recuérdese que ου se pronuncia /u/, y que ει debería pronunciarse como una /e:/ (larga y
cerrada), aunque la pronunciación escolar sea /ei/ .

consonantes

Las consonantes pueden dividirse en tres gruops: oclusivas, líquidas y silbantes.

Además conviene observar que hay signos especiales para algunos grupos consonánticos o consonantes
dobles.

• Las oclusivas, según la zona o punto de articulación, se dividen en los siguientes

grupos:

Labiales: p, b, f.

Dentales: t, d, q.

Guturales: k, g, c.
Cada uno de estos grupos incluyen una sorda, una sonora y una aspirada, por lo que

también las podemos agrupar así, atendiendo al modo de articulación:

Sordas: p, t, k.

Sonoras: b, d, g.

Aspiradas: f, q, c.

• Las líquidas (sonoras) son l, r, m, n, como acabamos de decir más arriba. El griego,

pues, tenía dos (o tres) líquidas: una lateral l, una vibrante simple y otra múltiple (escrita

la primera r, la segunda r o rr), y dos (no tres) nasales: una labial y otra dental (la única

que aparece en final de palabra, como en español); la nasal gutural (ejgkwvmion, a[ggelo",

a[gci) no es propiamente un fonema, pues, al igual que ocurre en español, no existe posibilidad

de cambiarla por una n o una m y obtener una palabra distinta: se trata tan sólo de una

variante combinatoria (alófono) de la n ante gutural.

• La silbante sorda (la diferencia entre s y " es sólo gráfica: " se escribe sólo en final

de palabra) se perdió, por lo común, en inicial de palabra y entre vocales (aunque se crearon

otras por diversos procesos fonéticos), dando lugar a la aspiración que en inicial de palabra

se anota con el signo @ (entre vocales esta aspiración se solía perder).

• Las consonantes dobles son x, y y z. Proceden de las siguientes combinaciones:

k, g, c + s > x

p, b, f + s > y

sd o ds > z

Diptongos

Un diptongo es el conjunto de dos fonemas vocálicos que se pronuncian en una sola sílaba. Los diptongos más
frecuentes son:

Diptongo αι οι αυ ευ υι

Pronunciación ai oi au eu üi

En αυ ευ, el fonema /ü/ se pronuncia /u/.

A estos diptongos se les llaman breves (o "propios") porque la primera vocal es breve. Recuérdese que ει, ου
se pronunciaban monoptongados: /e:/, /o:/

Por otro lado tenemos los diptongos largos (o "impropios"), con la primera vocal larga. en minúscula se
escriben con iota suscrita: ᾳ, ῃ, ῳ,y en mayúscula con la iota addscrita: ΑΙ, ΗΙ, ΩΙ. Tanto en un caso como en
otro la iota no se pronuncia:
Diptongo ᾳ ῃ ῳ

Pronunciación a e o

Si dos vocales no formaban un diptongo, se pone una diéresis sobre la segunda: πρωΐ= /pro-i/

sustantivos y adjetivos
Sustantivos[editar]

Primera declinación[editar]

Caso fem. I tipo fem. II tipo fem. III tipo masc. IV tipo masc. V tipo

SingularN. λύρα γλῶσσατιμή νεανίας πολίτης

V. λύρα γλῶσσατιμή νεανία πολῖτα

A. λύραν γλῶσσαν τιμήν νεανίαν πολίτην

G. λύρας γλώσσης τιμῆς νεανίουπολίτου

D. λύρᾳ γλώσσῃ τιμῇ νεανίᾳ πολίτῃ

Plural N. λύραι γλῶσσαι τιμαί νεανίαι πολῖται

V. λύραι γλῶσσαι τιμαί νεανίαι πολῖται

A. λύρας γλώσσας τιμάς νεανίας πολίτας

G. λυρῶν γλωσσῶν τιμῶν νεανιῶν πολιτῶν

D. λύραις γλώσσαις τιμαῖς νεανίαις πολίταις

El I tipo comprende aquellos sustantivos femeninos a cuya -α precede ρ, ι o ε (ej. λύρα). Estos se denominan "alfa pura"
porque se mantiene en toda la declinación.

El II tipo comprende todos aquellos sustantivos femeninos precedidos de σ, σσ, ττ, λλ, ξ, ψ, αιν, ειν, οιν (ej. γλῶσσα).
Estos se denominan "alfa impura", porque cambian su α por η en genitivo y dativo (ambos singulares).

El III tipo comprende el resto de sustantivos femeninos (ej. τιμή).

El IV tipo comprende los sustantivos masculinos cuyo tema acaba como el I tipo (ej. νεανίας).

El V tipo comprende el resto de sustantivos masculinos (ej. πολίτης) y, como el IV tipo, tiene -ς en el nominativo y forma
el genitivo en -ου.

El plural es idéntico para todos los tipos de esta flexión.

Todos los casos llevan el acento en la misma sílaba que el nominativo, excepto el genitivo plural, que tiene circunflejo en
la última. En este se diferencia este caso del genitivo plural de muchos sustantivos de la segunda declinación (como
λόγος, gen. pl. λόγων).

El acento circunflejo de la penúltima sílaba se convierte en agudo en los casos en que la última vocal es larga. Del mismo
modo, el agudo de la última sílaba es larga pasa a ser circunflejo cuando la última vocal es breve.

En Homero y el jónico se encuentra -η en el singular I y IV tipo (σοφίη); en el genitivo plural las desinencias -άων, -έων;
en el dativo plural -ῃσι, -ῃς. En el V tipo, nominativos en -α (ἱππότα); en el IV y V, genitivo singular en -αο, εω, -ω.

Se prestan a confusión el genitivo singular y acusativo plural del I tipo, que se suelen distinguir por el artículo, si aparece;
y el genitivo singular del IV y V, idéntico al de la segunda declinación.

En el V tipo se da en ocasiones del vocativo -η (ἀτρείδης).

Algunos sustantivos conservan -α- en toda la flexión (ej. μνᾶ -ᾶς, χρόα -ας); otros conservan la -η- en todo el singular (ej.
χόρη -ης, δέρη -ης, ἔρση -ης).

Τόλμα, ἔρευνα y δίαιτα siguen el II tipo.

Esta declinación se corresponde con la primera y quinta del latín.

LOS ADJETIVOS

Los adjetivos son palabras variable que expresan cualidades de los sustantivos a los que acompañan y con los que
concuerdan en caso, género y número. Por tanto son palabras que siguen las declinaciones generales. Por tanto es una
clase de palabras que tiene variación genérica. Es decir, un adjetivo puede aparecer en más de un género, cosa que es
imposible en un sustantivo. Por eso los adjetivos se enuncian (generalmente) con todas las formas posibles en
nominativo singular, mientras que los sustantivos se enuncian con su única forma de nominativo singular y con la del
genitivo singular.

Los adjetivos se dividen en tres clases:

Primera clase: se declinan por la primera y segunda declinación.

Segunda clase: se declinan por la tercera declinación.

Tercera clase: se declinan por la primera y la tercera declinación.

ADJETIVOS DE LA PRIMERA CLASE

Los adjetivos de la primera clase se declinan en el masculino y neutro por la segunda declinación y en el femenino por la
primera o segunda. Ofrecen los siguientes tipos:

Modelos de los adjetivos de la 1ª clase

ADJETIVOS DE LA SEGUNDA CLASE

Los adjetivos de la segunda clase declinan sus tres géneros por la tercera declinación, No presentan distinción entre el
masculino y el femenino. Ofrecen los siguientes tipos:
ADJETIVOS DE LA TERCERA CLASE

Los adjetivos de la tercera clase declinan el masculino y neutro por la tercera declinación y el femenino por la primera.
Ofrecen los siguientes modelos:

Modelos de los adjetivos de la tercera clase

Todos los participios activos y el participio aoristo pasivo pertenecen a esta clase; excepto el participio perfecto activo
λελυκώς, cuyo tema es en -οτ, todos los demás siguen la flexión de los temas en ·ντ

Elementos griegos

Pendiente
Vocabulario científico y tecnológico
El vocabulario científico en nuestra lengua procede en su gran mayoría del griego y del latín. Es un
vocabulario específico de una ciencia o disciplina y, por lo tanto, no lo usamos con mucha frecuencia. Para
entender el significado de estos términos nos será de gran utilidad el conocimiento de algunas raíces
grecolatinas y de algunas reglas de formación de palabras, expuesto en el tema anterior.

El origen griego
La procedencia griega de la mayoría de los términos científicospuede testimoniarse con el simple repaso
de los nombres de las diferentes disciplinas científicas. Según el término griego utilizado, tenemos:

1. Del griego λόγος: palabras que usan el compuesto -logía para designar alguna ciencia o estudio.

2. Del griego γράφω: palabras que usan el compuesto -grafíapara designar alguna técnica o arte.

Matemáticas
Las matemáticas, tal como las conocemos, tuvieron su origen en Grecia. Durante siglos los matemáticos y
los científicos siguieron utilizando el mismo vocabulario. Habituarse a algunos términos de mucho uso,
puede evitarnos, por tanto, el tener que aprender muchas palabras de memoria.

Medicina

Los primeros que desarrollaron una medicina racional intentando dar una explicación lógica a los hechos
fueron los griegos. Hipócrates, Galeno estarán siempre unidos a los inicios de la medicina. A menudo sus
explicaciones no fueron acertadas pero su vocabulario, sus clasificaciones, su anatomía pasaron siglo tras
siglo hasta nuestros días en el vehículo de su lengua.

Ciencias de la Naturaleza
Las ciencias de la naturaleza nos exigen conocer multitud de términos para poder

clasificar y catalogar las miles de especies existentes en nuestro planeta. La mayor parte de estos nombres
no son arbitrarios. Conocer algunas raíces griegas puede hacernos más fácil recordarlos e, incluso,
establecer relaciones entre ellos.

La zoología ( de ζῶον "ser vivo") y la botánica (de βοτάνη "planta") utilizan muchas raíces griegas para
denominar especies, géneros, clases, etc. de animales y plantas. Así, la palabra ‘paquidermo’ es un
compuesto formado de los términos griegos παχύς ("grueso") y δέρμα ("piel"). El término ‘perisodáctilo’,
por su parte, procede del gr. περισσός ("impar") y δάκτυλος ("dedo"). Hallarás otros ejemplos en el
cuadro siguiente.

Falta vocabulario técnico

Metodología de la investigación
Construcción del conocimiento
El conocimiento es la información aprendida que permite al sujeto cumplir con la función básica de los
organismos: adaptarse al medio.

jean Piaget, como resultado de sus primeras investigaciones sobre biología, “considera que todas la especies heredan
dos tendencias es hacia la organización: Combinar, ordenar, volver a combinar y volver a ordenar conductas y
pensamiento en sistemas coherentes. La segunda tendencia es la adaptación, o el ajuste al entorno.(asimilación,
acomodación, eliminado lo que no sirve).

Entonces el desarrollo de la inteligencia se compone de dos partes básicas: La adaptación y la organización. Hay dos
formas diferntes de actividad mental: una el proceso de entrada de la información (adaptación); otra el proceso de
estructuración (organización).

La inteligencia se desarrolla a través de la asimilación de la realidad y de la acomodación de esta realidad. La adaptación


y la organización no estan separadas, sino que el pensamiento se organiza a través de la adaptación de experiencias y de
los estímulos del ambiente. Y a partir de esta organización se forman las estructuras.

De estos tres componentes la estructura es la más importante. Las estructuras son operaciones interiorizadas en la
mente, a su vez reversibles, que tienen, de acuerdo con Jean Piaget, una naturaleza lógica y matemática.

De acuerdo con Piaget, incorporamos conocimientos a través de lo que hacemos sobre los objetos que nos estimulan y
del razonamiento. El conocimiento puede ser físico, social y lógico matemático.

a) El conocimiento Físicos.- Es fruto de nuestra acción sobre los objetos que nos estimulan.

b) El conocimiento Social.- está constituido por la información que proviene del medio social (libros, radio, tv, padres,
amigos, escuela, etc.), y que internalizamos para delinear nuestras pautas de comportamiento.

c) El conocimiento lógico-matemático.- es una construcción mental de relaciones, clasificaciones, medidas que armamos
progresivamente, y que le dan a sentido a nuestras experiencias, vale decir nos sirven para asimilar cada fenómeno de
la realidad física o mental.

Importancia del conocimiento


El mundo que nos rodea nos envía constantemente Estímulos Sensoriales que son captados por nuestros distintos
órganos y que posteriormente, a través de los Cinco Sentidos, se conectan con nuestro Sistema Nervioso que los
transforma en pequeños Impulsos Eléctricos que con la acción de nuestro importante órgano como lo es el Cerebro, nos
permiten percibir todo nuestro entorno y los cambios que éste genera, además de poder realizar distintas acciones
sobre el mismo.

Esta información la recibimos en forma constante, pudiendo seleccionar el Foco de Atención hacia la misma, pero
siempre captando distintos Datos Sensoriales que son posteriormente ordenados y transformados en una Información,
que puede o no ser utilizada por el individuo de acuerdo al grado de importancia que posea.

Dado que recordamos las cosas que nos suceden gracias a nuestra Memoria, esta información puede ser
posteriormente Adquirida o Aprehendida y pasa a formar parte de lo que es nuestro Conocimiento, siendo considerado
éste como todo conjunto de datos (es decir, información) que hemos "almacenado" en nuestra memoria para su
posterior utilización o aprovechamiento.

Un caso muy práctico y fácil de entender acerca del conocimiento es nuestra Formación Educativa, teniendo distintas
etapas de desarrollo que son coincidentes al Desarrollo Biológico y que son distribuidos por las distintas Edades
Escolares para poder obtener el mayor potencial posible, nutriéndonos de información valiosa para nuestra vida
cotidiana, comunicaciones, formación profesional y cultural, entre otros factores.

No toda información que es memorizada es un Conocimiento, ya que para ser considerado como tal, debemos hacer
uso constante o específico del mismo en distintas situaciones, siendo estos factores influenciados además por las
Experiencias Personales que tengamos al respecto, y teniendo una funcionalidad que le daremos para poder entender
tanto al medio como a otros individuos y relacionarnos con los mismos.

El conjunto de Conocimientos, Usos y Costumbres de un grupo social determinado, que se mantienen en común y que
se utilizan, representan y manifiestan en forma general, es relativo a un Conocimiento Cultural, alejándose del
anteriormente mencionado, que es meramente personal y subjetivo.

Medios mecanismos y estructura de la investigación


1. LA ESTRUCTURA DIACRÓNICA DE LOS PROCESOS DE INVESTIGACIÓN

La consideración central en una perspectiva diacrónica es que toda investigación va más allá de los límites de un
individuo investigador para ubicarse en redes de problemas, temas e intereses que muchas veces abarcan largos
períodos históricos y varias generaciones de estudiosos. Esto constituye una visión transindividual de los procesos de
investigación. Cuando un investigador cualquiera elige un tema de estudio y se formula una pregunta y unos objetivos
de trabajo, en realidad lo que hace es inscribirse dentro de una red temática y problemática en la que también trabajan
y han estado trabajando otros investigadores, red que suele tener en el tiempo toda una trayectoria de desarrollo y que,
a su vez, mantiene sucesivas y complejas conexiones con otras redes. Este complejo temático y problemático en que se
inscribe un investigador es lo que, dentro del Modelo VIE, se concibe como un Programa de Investigación. Galileo y
Einstein ilustraron perfectamente bien este concepto cuando declararon que el éxito de sus trabajos personales se
debía al hecho de haber caminado "sobre hombros de gigantes", refiriéndose precisamente a que retomaron
planteamientos previamente formulados y se basaron en intentos y soluciones anteriores a ellos, sin tener que
comenzar desde cero.

La noción de Programas de Investigación, que es general y abstracta, se concreta en la idea más operativa de Líneas de
trabajo, que remite a secuencias de desarrollo en torno a un problema global y que aglutina a Grupos Académicos cuyos
integrantes mantienen entre sí contactos virtuales o materiales. Unas veces se trata de contactos por lecturas de los
trabajos producidos dentro del grupo, aun sin conocerse personalmente y hasta sin pertenecer a una misma época o
lugar, y otras veces se trata de efectivos encuentros e intercambios en tiempo y espacio reales.

Una secuencia de desarrollo investigativo en torno a un problema global puede representarse en cuatro fases o
instancias sucesivas: se comienza elaborando descripciones observacionales (o registros) de la realidad que se considera
digna de ser estudiada. Una vez que existen suficientes descripciones o registros, se pasa a la construcción de
explicaciones o modelos teóricos que establezcan relaciones de interdependencia entre las distintas clases de hechos
adscritos a esa realidad bajo estudio o que indiquen por qué esos hechos ocurren del modo en que ocurren. En una
tercera fase, se pasa a las contrastaciones, es decir, a las tareas de evaluar o validar las explicaciones o modelos teóricos
construidos en la fase anterior, con el objeto de establecer respaldos de confiabilidad para los productos elaborados
dentro de la secuencia. Y, finalmente, una vez que las teorías o explicaciones han adquirido cierta verosimilitud y
plausibilidad, se pasa a la instancia de las aplicaciones, donde los conocimientos teóricos se convierten en tecnologías
de intervención sobre el medio o de transformación del mismo. Luego, la culminación de esa secuencia vuelve a generar
nuevos problemas y nuevas secuencias, en términos de iteración y recursividad. Dentro del Modelo VIE, estas cuatro
fases se denominan, respectivamente: descriptiva, explicativa, contrastiva y aplicativa.

Estas cuatro instancias determinan variaciones típicas de los procesos de investigación, las más importantes de las
cuales son las siguientes:
- Investigaciones descriptivas (correspondientes a la primera fase): parten del hecho de que hay una cierta realidad (o
sector del mundo) que resulta insuficientemente conocida y, al mismo tiempo, relevante e interesante para ciertos
desarrollos. El objetivo central de estas investigaciones está en proveer un buen registro de los tipos de hechos que
tienen lugar dentro de esa realidad y que la definen o caracterizan sistemáticamente. Se estructuran sobre la base de
preguntas cuya forma lógica se orienta a describir: ¿Cómo es x? ¿Qué es x? ¿Qué ocurre en calidad de x o bajo la forma
x? Sus operaciones típicas o formas de trabajo estandarizadas son las observaciones (recolecciones de datos), las
clasificaciones (formulación de sistemas de criterios que permitan agrupar los datos o unificar las diferencias singulares),
las definiciones (identificación de elementos por referencia a un criterio de clase), las comparaciones (determinación de
semejanzas y diferencias o del grado de acercamiento a unos estándares), etc. Sus técnicas típicas de trabajo varían
según el enfoque epistemológico adoptado dentro del Programa de Investigación o dentro de la Línea: mediciones por
cuantificación aritmética o estadística (enfoque empirista-inductivo), registros de base cualitativa (enfoque
introspectivo-vivencial) o construcción de estructuras empíricas mediante sistemas lógico-formales (enfoque
racionalista-deductivo).

- Investigaciones Explicativas (segunda fase dentro de la secuencia diacrónica): parten de descripciones suficientemente
exhaustivas de una cierta realidad bajo estudio y de la necesidad de conocer por qué ciertos hechos de esa realidad
ocurren del modo descrito, es decir, de la necesidad de encontrar ciertas relaciones de dependencia entre las clases de
hechos que fueron formuladas en la fase anterior de la secuencia. El objetivo central de estas investigaciones consiste
en proveer modelos teóricos (explicativos, abstractos, universales, generales) que nos permitan elaborar predicciones y
retrodicciones dentro del área fáctica a la cual se refiere el modelo. Se estructuran sobre la base de preguntas cuya
forma lógica se orienta a interpretar la ocurrencia de una cierta clase de eventos (consecuentes) por mediación de otra
clase de eventos (antecedentes): ¿Por qué ocurre p? ¿De qué depende p? ¿Qué clase de hechos condiciona la
ocurrencia de p?. Sus operaciones estandarizadas son las formulaciones de sistemas de hipótesis, los desarrollos de
hipótesis (por comprobación o por derivación), las construcciones de sistemas interpretativos, etc. Sus técnicas típicas
de trabajo varían según el enfoque epistemológico adoptado dentro del Programa de Investigación o dentro de la Línea:
inducción y construcciones probabilísticas (enfoque empirista-inductivo), introspección y elaboraciones simbólico-
culturales (enfoque introspectivo-vivencial), deducción y construcción de sistemas de razonamiento (enfoque
racionalista-deductivo).

- Investigaciones Constrastivas: parten del hecho de que, dentro de la Línea de trabajo, se han elaborado diversas
construcciones teóricas cuya confiabilidad requiere ser puesta a prueba y criticada. Se parte de la necesidad de buscar
los errores de las teorías, con el objeto de desecharlas, reajustarlas o incrementar su verosimilitud. Su objetivo central
está en proveer contra-pruebas a una teoría previamente construida o, en su defecto, en proveer argumentos a su
favor. Se estructuran sobre la base de preguntas cuya forma lógica se orienta a negar o a aceptar provisionalmente una
hipótesis teórica: ¿Es cierto que p? ¿Se da p cada vez que ocurre q? ¿Es verdadero el antecedente r y es falso el
consecuente s? Sus operaciones típicas son las derivaciones de proposiciones particulares a partir de hipótesis globales,
la búsqueda de inconsistencias e incompletitudes, el hallazgo de casos que contradicen o escapan al modelo teórico,
etc. Las técnicas varían, igual que en las fases anteriores, de acuerdo al enfoque epistemológico adoptado:
experimentaciones o cuasiexperimentaciones (enfoque empirista-inductivo), consenso y opinión de personas
involucradas (enfoque introspectivo-vivencial) y pruebas lógico-formales (enfoque racionalista-deductivo).

- Investigaciones Aplicativas: parten del hecho de que, dentro de la secuencia de trabajo de la Línea, existen teorías cuya
verosimilitud ha aumentado gracias a un cierto número de contrastaciones y, además, del hecho de que en el mundo de
las necesidades de desarrollo existen requerimientos que pueden ser satisfechos aprovechando esas teorías. Su objetivo
central está en proveer tecnologías o esquemas de acción derivados de los conocimientos teóricos construidos dentro
de la secuencia de la Línea. Estas investigaciones carecen, propiamente hablando, de preguntas. Más bien tienden a
establecer una relación productiva, ingeniosa y creativa, entre las posibilidades de un modelo teórico, por un lado, y las
dificultades o necesidades que se confrontan en el terreno de la práctica, por otro lado. Mientras en los tres tipos
anteriores de investigación el "Problema" es una pregunta formulada desde una actitud de ignorancia, en las
investigaciones aplicativas el "Problema" es una cierta situación práctica formulada desde una actitud de expectativas
de cambio, situación que resulta deficitaria, inconveniente o mejorable y que puede ser transformada o manejada
mediante un cierto prototipo de control situacional. Las operaciones estandarizadas de las investigaciones aplicativas
son las siguientes: descripción de la situación deficitaria, exposición del modelo teórico que resulta aplicable a esa
situación, construcción del prototipo de control situacional (definición de la propuesta de solución) mediante derivación
del modelo teórico, prueba del prototipo, determinación de las opciones de producción e implementación del
prototipo. La relación fundamental que estas investigaciones mantienen con los enfoques epistemológicos está en que
cada investigador aplicativo elige aquellas teorías que fueron construidas dentro de su propio enfoque: así, por ejemplo,
las aplicaciones empiristas-inductivas derivarán soluciones a partir de teorías empiristas-indutivas, y así sucesivamente.

Hay varias conclusiones que pueden derivarse de lo dicho hasta aquí. Una de ellas es que los Programas de Investigación
suelen ser anteriores a cualquier investigador y mucho más abarcantes que sus propios esfuerzos individuales. Es decir,
cuando un individuo se convierte en investigador y cuando decide resolver una incógnita científica, su primera decisión
consiste en ubicarse dentro de un Programa de Investigación y, más concretamente, dentro de una Línea de trabajo. Por
lo general es alguien que viene formándose dentro de una cierta especialidad y que ya tiene cierto dominio de los
temas, intereses y trabajos que han venido produciéndose dentro la misma. Es allí, entonces, donde suele obtener sus
datos de partida y donde detecta un problema y unos objetivos de trabajo en total continuidad con la trayectoria
diacrónica del Programa. Por tanto, elegir un tópico de investigación es casi exactamente lo mismo que elegir una Línea
de trabajo y, en consecuencia, adscribirse a una especie de familia de investigadores.

Pero, como segunda conclusión, lo anterior implica no sólo la selección de un tema y una red problemática sino,
además, la sucesiva decisión acerca de en cuál de las fases o instancias de trabajo conviene ubicarse, siempre dentro de
la correspondiente secuencia diacrónica. Por ejemplo, puede haber una cierta Línea de trabajo donde ya la fase
descriptiva se halla bastante saturada (tanto en el sentido de cantidad y competitividad de investigadores como en el
sentido de que ya se han producido suficientes trabajos descriptivos) y donde la fase explicativa ha avanzado mucho
(como suele ocurrir actualmente en la mayoría de las ciencias naturales) y entonces suele ser más conveniente ubicarse
en la fase de las necesidades contrastivas (prueba de teorías) o de las necesidades aplicativas (invención de tecnologías
o prototipos de control del medio). Pero puede haber otras Líneas (como suele ser el caso dentro de los Programas de
Investigación en el área Organizacional) donde aun en la fase descriptiva se requieren muchos trabajos y donde la fase
teórica se halla apenas comenzando.

Otra conclusión de interés es que los Grupos Académicos dentro de cada Programa de Investigación suelen privilegiar
no sólo determinados campos observacionales (áreas descriptivas) y determinadas formas teóricas (áreas explicativas)
que funcionan como preferencias o prioridades, sino que además se cohesionan en torno a determinadas convicciones
acerca de lo que conciben como conocimiento científico, como vías de acceso y de producción al mismo, como
mecanismos de validación o crítica, etc. Todas estas preferencias constituyen lo que aquí se ha llamado "Enfoque
Epistemológico" (aproximadamente lo mismo que Kuhn llamó "paradigmas"). Así que una tercera decisión de todo
individuo que se convierte en investigador (y que suele ocurrir automática e implícitamente con respecto a las dos
decisiones anteriores) es la definición del enfoque epistemológico en el que ha de moverse más cómodamente.
Detengámonos brevemente en este criterio de los enfoques epistemológicos, que también funciona como criterio de
diferenciación o variación dentro del Modelo VIE.

Como se ha visto a lo largo de toda la historia de la ciencia, los investigadores desarrollan, comparten y trabajan bajo
una cierta óptica de la realidad, que los conduce a un sistema de creencias arraigadas alrededor de la naturaleza del
conocimiento y de sus formas o canales de generación y legitimazación. Este sistema de creencias lleva incluso a ciertos
patrones de desempeño y a ciertos criterios de realización y logros. Pero las ópticas desde las cuales se ve el mundo, así
como los asociados sistemas de creencias en torno al conocimiento (junto a los patrones de trabajo y a los criterios de
realización y logros) no siempre han sido coincidentes entre las distintas épocas ni entre los distintos Grupos
Académicos. Aparte de las coincidencias internas de grupo y de períodos históricos, estos sistemas de creencias han
sido sumamente divergentes entre unos y otros grupos y entre unas y otras épocas históricas. Tales divergencias son lo
que explica las radicales diferencias entre los patrones investigativos seguidos por los antiguos griegos, por ejemplo, y
los seguidos por los investigadores occidentales del Renacimiento y del siglo XX.

Para dar cuenta de estas diferencias entre enfoques epistemológicos se han propuesto muchas clasificaciones (no todas
ellas, por cierto, respetan las reglas lógicas de la clasificación). En el Modelo VIE se recurre a dos criterios básicos de
definición de clases de enfoques, para obtener tres clases básicas. Un primer criterio es lo que se concibe como
producto del conocimiento científico y un segundo criterio es lo que se concibe como vía de acceso y de producción del
mismo. De acuerdo a estos dos criterios tenemos tres clases de enfoques epistemológicos:

- El enfoque Empirista-inductivo (por asociación, también llamado probabilista, positivista, neopositivista, atomista
lógico, etc.): de acuerdo al primer criterio, en este enfoque se concibe como producto del conocimiento científico los
patrones de regularidad a partir de los cuales se explican las interdependencias entre clases distintas de eventos
fácticos. En tal sentido, la compleja diversidad o multiplicidad de fenómenos del mundo puede ser reducida a patrones
de regularidad basados en frecuencia de ocurrencia. El supuesto básico aquí es que los sucesos del mundo (tanto
materiales como humanos), por más disímiles e inconexos que parezcan, obedecen a ciertos patrones cuya regularidad
puede ser establecida gracias a la observación de sus repeticiones, lo cual a su vez permitirá inferencias probabilísticas
de sus comportamientos futuros. En ese sentido, conocer algo científicamente equivale a conocer tales patrones de
regularidad.

Como consecuencia -y pasamos ahora al segundo criterio- tanto las vías de acceso al conocimiento como los
mecanismos para su producción y validación no pueden ser otros que los sentidos y sus prolongaciones (instrumentos
de observación y medición), ya que los patrones de regularidad se captan a través del registro de repeticiones de
eventos. Por tanto, es el método Inductivo, sustentado en el poder de los instrumentos sensoriales y en el valor de los
datos de la experiencia (de allí el término empirista), el sistema de operaciones privilegiado dentro de este enfoque. El
conocimiento, entonces, es un acto de descubrimiento (descubrimiento de patrones de comportamiento de la realidad).
Cosas como la medición, la experimentación, los tratamientos estadísticos, la instrumentación refinada, etc., son
mecanismos altamente preferidos.

- El Enfoque Racionalista-Deductivo (por asociación, también llamado deductivista, teórico o teoricista, racionalista
crítico, etc.): de acuerdo al primer criterio, en este enfoque se concibe como producto del conocimiento científico el
diseño de sistemas abstractos dotados de alto grado de universalidad que imiten los procesos de generación y de
comportamiento de una cierta realidad. Según esto, el conocimiento es más un acto de invención que de
descubrimiento. Los sistemas teóricos son el producto por excelencia del conocimiento científico y ellos se inventan o se
diseñan, no se descubren. A su vez, los sistemas teóricos se basan en grandes conjeturas o suposiciones arriesgadas
acerca del modo en que una cierta realidad se genera y se comporta. No es tan importante que un diseño teórico sea el
fiel reflejo de un sector del mundo. Más importante es que imite esquemática y abstractamente el sistema de hechos
reales que pretende explicar, pero tampoco bajo la referencia de cómo son las cosas objetivamene sino bajo la
referencia de cómo una sociedad en un cierto momento histórico es capaz de correlacionar intersubjetivamente esa
realidad con ese diseño teórico.

En el segundo criterio de clasificación, lo que obtenemos es una consecuencia de lo anterior: tanto las vías de acceso al
conocimiento como los mecanismos para su producción y validación están dados por la razón (de ahí el calificativo
racionalista), la cual viene a ser el recurso menos inseguro para diseñar esquemas abstractos que nos revelen el
surgimiento y el comportamiento de los hechos materiales y humanos, gracias al poder que tiene la razón para asociar
los conocimientos previamente diseñados con cada nueva incógnita, pregunta o problema que nos salga al paso. Por
tanto, es el método Deductivo, sustentado en el poder de los razonamientos, el sistema de operaciones privilegiado
dentro de este enfoque. Cosas como las modelaciones lógico-formales, las búsquedas a partir de abstracciones
matemáticas, los sistemas de razonamiento en cadena, etc., son mecanismos altamente preferidos.

- El Enfoque Introspectivo-Vivencial (por asociación, también llamado sociohistoricista, fenomenológico, dialéctico-


crítico, simbólico-interpretativo, psicologista, hermenéutico, etc.): de acuerdo al primer criterio, en este enfoque se
concibe como producto del conocimiento las interpretaciones de los simbolismos socioculturales a través de los cuales
los actores de un determinado grupo social abordan la realidad (humana y social, fundamentalmente). Más que
interpretación de una realidad externa, el conocimiento es interpretación de una realidad tal como ella aparece en el
interior de los espacios de conciencia subjetiva (de ahí el calificativo de Introspectivo). Lejos de ser descubrimiento o
invención, en este enfoque el conocimiento es un acto de comprensión. El papel de la ciencia es concebido como
mecanismo de transformación y emancipación del ser humano y no como simple mecanismo de control del medio
natural y social. Se hace énfasis en la noción de sujeto y de realidad subjetiva, por encima de la noción de objeto o de
realidad objetiva.

En cuanto al segundo criterio de clasificación (lo que conciben como vías de acceso, producción y legitimación del
conocimiento), en este enfoque se tiene la convicción de que la vía más apropiada para acceder al conocimiento es una
especie de simbiosis entre el sujeto investigador y su objeto de estudio, una especie de identificación sujeto-objeto, tal
que el objeto pase a ser una experiencia vivida, sentida y compartida por el investigador (de ahí el calificativo de
Vivencial). El conocimiento se produce en la medida en que el investigador sea capaz de "poner entre paréntesis" todos
aquellos factores pre-teóricos e instrumentales que mediaticen la relación sujeto-objeto, de modo que pueda llegar a
una captación de la verdadera esencia del objeto, más allá y por encima de sus apariencias de fenómeno (de ahí el
calificativo de Fenomenológico y la expresión reducción fenomenológica). Cosas como la interpretación hermenéutica,
la convivencia y desarrollo de experiencias socioculturales, los análisis dialécticos, las intervenciones en espacios
vivenciales y en situaciones problemáticas reales, los estudios de casos, etc., son aparatos de trabajo altamente
preferidos dentro de este enfoque.

2. LA ESTRUCTURA SINCRÓNICA DE LOS PROCESOS DE INVESTIGACIÓN

La consideración elemental dentro de este otro criterio de diferenciación es que todo proceso investigativo es un
sistema de operaciones materiales y lógico-conceptuales desarrollado por uno o más individuos, pero siempre dentro
de un entorno o contexto socio-psicológico y espacio-temporal que funciona como condicionante fundamental de dicho
sistema de operaciones. Es decir, en toda investigación particular se distinguen dos grandes componentes de tipo
sincrónico: uno que se refiere a los procesos operativos internos (de carácter material y lógico-conceptual), en virtud del
cual las investigaciones muestran variaciones de tipo lógico, y otro que se refiere a los factores externos del entorno (de
carácter socio-psicológico y espacio-temporal), en virtud del cual los procesos de investigación muestran variaciones de
tipo socio-contextual que, a su vez, determinan distintas configuraciones en el otro componente.
Llamamos Componente Lógico al que se refiere a las operaciones internas de la investigación y Componente
Contextual al que se refiere a los factores circundantes del entorno. Veamos uno y otro por separado.

2.1. El Componente Contextual

Éste representa el conjunto de factores que condiciona todas las posibles variaciones de los procesos de investigación
en sus estructuras lógico-conceptuales y materiales. La noción de Contexto es susceptible de ser analizada en distintos
niveles de cobertura o alcance: en una de las dimensiones más abarcantes, podemos imaginar un contexto muy amplio,
cuyos límites cubren todo la cultura mundial en un gran período histórico (por ejemplo, el mundo actual o el mundo en
la época del Renacimiento, etc.). En una dimensión de esa magnitud es donde esta estructura sincrónica se conecta con
la estructura diacrónica, vista en el apartado anterior. En efecto, dentro de la estructura diacrónica los Programas de
Investigación, en su sentido más global, funcionan como parte importante del Componente Contextual dentro de esta
estructura sincrónica.

El Componente Lógico

Mientras la estructura descrita en 2.1 representa las fuentes de variación ubicadas en dimensiones Contextuales,
asociadas a factores de tipo socio-psicológico, en la estructura que describimos ahora se representan las variaciones que
tienen lugar al interior del propio sistema de operaciones investigativas, en primer lugar por efecto de las condiciones
del Contexto y, en segundo lugar, por efecto de las configuraciones de los mismos subcomponentes internos del sistema
investigativo en sí mismo. Esto quiere decir que, en términos generales, el trabajo de investigación es un resultante de
las condiciones contextuales ya explicadas y que, a su vez, en términos más específicos, es también un resultante de
ciertas acomodaciones o relaciones internas entre sus propios elementos constituyentes. Veamos, entonces, cuáles son
estos subcomponentes del Componente Lógico y algunas de las relaciones que los vinculan.

- El Subcomponente Empírico: en el área de las ciencias fácticas, toda investigación parte siempre de una realidad que se
plantea como objeto de estudio. De hecho, los procesos investigativos son esencialmente una búsqueda de esquemas
que nos ayuden a conocer mejor algún sector de la realidad, con el objeto de poder subsistir ante esa realidad cada vez
más eficientemente, de lograr sobre ella un control cada vez más potente y de obtener cada vez mayores ventajas en
nuestras interacciones con dicha realidad. Así, el ideal de los procesos de investigación consiste en producir las mejores
explicaciones teóricas posibles acerca de algún sector de la realidad (o sea: los más confiables conocimientos posibles),
tales que de ellas puedan derivarse eficientes prototipos de cambio, control, transformación, manejo y
comportamiento, en general.

- El Subcomponente Teórico: toda investigación maneja contenidos teóricos, no observacionales, que se correlacionan
con los contenidos empíricos, observacionales, del subcomponente anterior. En general, y refiriéndonos a los procesos
transindividuales de investigación, este subcomponente teórico constituye el hallazgo final de las operaciones de
búsqueda. En este sentido, las teorías constituyen los productos más valiosos del proceso.

El subcomponente teórico abarca dos tipos de contenido: los contenidos que sirven como insumo a la investigación,
aquéllos de donde parte el trabajo y donde se ubica (conocimientos universales y abstractos de entrada), que a menudo
se catalogan como "marco teórico", y los contenidos que funcionan como elaboración propia o como hallazgo original
del trabajo (cuando se trata de investigaciones explicativas y contrastivas). En el Modelo VIE, el primer tipo de
contenidos es llamado Teorías de Entrada o a -Teorías, mientras que el segundo tipo es llamado Teorías de Salida o v -
Teorías. Esta distinción se basa en el hecho de que ninguna investigación comienza de cero, sino que se vale siempre de
conocimientos previamente elaborados (de Entrada) para producir nuevos conocimientos (de Salida).

- El Subcomponente metodológico: las correlaciones o asociaciones que realiza el investigador desde unos elementos
empíricos hasta unos elementos teóricos se deben a una serie de operaciones materiales y lógico-conceptuales,
típicamente concebidas como Método. El subcomponente metodológico agrupa todas esas operaciones, las cuales
permiten no sólo vincular un modelo explicativo a un determinado sector empírico, sino también organizar y
sistematizar los datos del subcomponente empírico (descripciones, clasificaciones, etc.), por un lado, y los elementos
del subcomponente teórico, por otro (formulación de hipótesis, inferencias, construcción de conceptos, etc.).
Vinculados a este subcomponente metodológico se hallan también las instrumentaciones, las técnicas, los equipos, los
procedmientos, etc.

El subcomponente metodológico puede concebirse en tres instancias: métodos de recolección y organización de datos
(ligados al tratamiento del subcomponente empírico), métodos de construcción teórica y métodos de contrastación o
validación de los hallazgos (ligados al tratamiento del subcomponente teórico). Por ejemplo, la inducción y la deducción
son métodos exclusivos de la instancia de construcción teórica, mientras que las clasificaciones, las agrupaciones de
datos en variables, las mediciones, etc., son métodos de la instancia de recolección de datos (de tratamiento empírico);
por su parte, las experimentaciones, las pruebas lógico-formales y las validaciones por expertos son métodos de
contrastación de hallazgos.

La ciencia y sus métodos


CIENCIA y métodos
El hombre es el único ser que intenta comprender, explicarse y modificar la realidad natural y social para
lograr que su vida sea más confortable. Debido al papel que la ciencia juega en a vida del hombre, resulta de
gran interés para todos conocer de cerca en qué consiste este máximo producto cultural. Por eso, en este
capítulo nos dedicaremos al estudio de la ciencia y sus métodos. Iniciemos, pues, con una definición de
ciencia. Actualmente se entiende por ciencia un conjunto de conocimientos racionales, ciertos o probables,
que obtenidos de manera metódica pueden ser comprobables y están sistematizados orgánicamente
haciendo referencia a objetos de una misma naturaleza, cuyos contenidos son susceptibles de ser trasmitidos.
"Una ciencia es una disciplina que utiliza el método científico con la finalidad de hallar estructuras generales
(leyes).
Conjunto de conocimientos racionales. Significa que se obtuvieron mediante la razón, es decir, que el
investigador científico observó reglas o normas para llegar a ellos. Los conocimientos así obtenidos van dando
lugar a descripciones cada vez más exactas de los fenómenos. Esas afirmaciones son registradas en
proposiciones que se llaman hipótesis, leyes o principios. Ello permite que otro investigador, siguiendo las
mismas reglas, llegue a parecidas conclusiones. Cabe mencionar que existen otros tipos de conocimiento:
¡intuitivo, cotidiano, filosófico, entre otros.
MÉTODOS
Métodos generales de la ciencia
Los métodos pueden dividirse en generales y particulares. Los primeros son aquellos que se usan en todas las
ciencias y en la filosofía, mientras que los particulares pertenecen o son exclusivos de alguna(s) disciplina(s).
En este apartado trataremos de manera simplificada algunos métodos generales como el análisis, la síntesis,
la inducción, la deducción y la analogía.
El análisis y la síntesis
El análisis y/a síntesis son doy métodos íntimamente relacionados y están en la base de cualquier actividad
científica o filosófica. Se usan muy a menudo en la elaboraci6n de textos, en la observación de un fenómeno y,
en general, en la comprensión de cualquier realidad.
El análisis es un proceso mental que consiste en revisar los diferentes aspectos que conforman una totalidad.
Ante un texto, por ejemplo, nos preguntamos: ¿Cuál es La idea central? ¿Cuáles son las ideas principales y
secundarias? ¿Qué relación existe entre las ideas? ¿Que características tiene cada idea? ¿Son necesarias todas
las ideas primarías y secundarias para explicar la idea central, o son insuficientes?
La síntesis, en cambio, "es la operación intelectual por la cual se otorga unidad a una serie
de datos dispersos". La síntesis sólo se logra después de que la mente ha convivido lo suficiente con un objeto
de estudio como para discriminar sus elementos y lograr un concepto que los defina a todos ellos. Ante una
aglomeración de personas en la calle, uno puede ver a distancia y pensar: "se trata de personas esperando su
camión" o "es un accidente" o "un merolico vende productos". Cada una de esas expresiones define el tipo de
vinculación que se verifica entre los elementos del todo que estamos viendo.
El análisis y la síntesis son dos procesos inseparables en continuo enriquecimiento mutuo. Ante la situación de
personas en la calle se realizan ambas operaciones casi en forma simu1tánea al tiempo que las miro, defino
(sintetizo) lo que de acuerdo con mis impresiones (análisis) esa situación es. Más, conforme me acerco, voy
descubriendo nuevas características (otro análisis) que no pertenecen a lo que yo supuse al principio que
sucedía, por lo que vuelvo a definir la situación con una palabra que represente perfectamente lo que ahora
veo (nueva síntesis).
Un investigador científico es una persona curiosa que, ante una dificultad cotidiana como el aburrimiento de
los alumnos en sus clases escolares, rescata elementos que permanecían hasta ese momento inadvertidos
para la mayoría (analizo) y luego los relaciona de forma novedosa logrando con ellos una definición del
problema allí existente (sintetiza). Claro que para ello echa mano de los conocimientos adquiridos de
antemano con respecto a dicha situación (marco referencial).
Razonamientos inductivo, deductivo y analógico
Una vez que el investigador científico, a través del análisis y síntesis ha definido una dificultad en
proposiciones, intenta construcciones o relaciones lógicas entre esas proposiciones mediante el
razonamiento. Los métodos de razonamiento general son el inductivo, el deductivo y el analógico.
Antes de explicar los métodos generales de razonamiento es conveniente que sepas un poco sobre las formas
que pueden tomar las proposiciones. Las formas del razonamiento según su poder de generalización se
dividen en universales, particulares e individuales y pueden expresarse en juicios afirmativos o negativos de
cada uno de los anteriores niveles.
Con la letra A se simboliza el juicio universal afirmativo; la letra E corresponde al juicio universal negativo; la I
al juicio particular afirmativo y la O representa al juicio particular negativo. Ejemplos de juicios según la letra
que los designa:
A. Todos los hombres son mortales,
E. Ningún hombre es mortal.
L Algunos hombres son mortales.
O. Algunos hombres no son mortales.
Las proposiciones que describen leyes científicas siempre se redactan como juicios universales. Un ejemplo
de ley es el siguiente: "Todo cuerpo persevera en sus estados de reposo o de movimiento uniforme y en línea
recta, salvo en cuanto mude su estado obligado por fuerzas exteriores." Esta es la primera ley de Newton.
Las investigaciones para el desarrollo de la teoría científica suelen tener estas proposiciones, mientras que en
las investigaciones para resolver problemas inmediatos las proposiciones son particulares o individuales.
Ahora bien, ¿cómo se relacionan los métodos de razonamiento con esto? El razonamiento de carácter
inductivo tiene como punto de partida (premisas) juicios individuales o particulares y termina o concluye con
juicios generales o universales; mientras que el razonamiento deductivo va de juicios generales a juicios
particulares; y, por último, el razonamiento analógico inicia con juicios de cualquiera de los niveles
mencionados y termina en ese mismo nivel sólo que con objetos diferentes aunque parecidos.
En realidad todos los días razonamos de alguna de estas maneras. Por ejemplo, si un chico mira que una
madre regaña a su hijo porque se manchó la camisa al estar comiendo, y luego ve que otra regaña a su hijito
porque no toma bien los cubiertos, y más tarde observa a otra madre que le grita a su niño porque se subía
sobre los muebles, este chico puede llegar a la conclusión que "todas las mamás regañan a sus hijos cuando
éstos hacen cosas que a ellas les disgustan". El razonamiento, pues, consistió en partir del análisis de varios
casos para llegar a una generalización de los mismos. Este niño utilizó el método inductivo.
Puede ser que después el niño en cuestión vea a Toñito que antes de realizar sus tareas prende la televisión,
comportamiento que su madre le prohíbe, entonces piense "todas las mamás regañan a sus hijos cuando
éstos hacen cosas que a ellas les disgustan"; "Toñito hizo una cosa que desagrada a su mamá", por lo tanto
puede predecir lo que sucederá entre ellos: su mamá lo regañará". Este tipo de razonamiento es de carácter
deductivo. Un juicio general permite clasificar y predecir acontecimientos particulares que se expresan
mediante juicios particulares: "su mamá lo regañará".
El tercer razonamiento es el analógico. Ejemplo: un alumno de preparatoria ve llegar aun maestro que en su
primera clase se muestra serio y duro en sus expresiones. El alumno tuvo un maestro similar en la secundaria
y recuerda que le fue muy difícil aprobar la materia por lo que ahora con este profesor pronostica que le
ocurrirá lo mismo. Por lo parecido de la situación, el alumno infiere un desenlace similar al conocido. En el
razonamiento analógico se piensa de un juicio particular a un particular o de uno general a otro general:
"maestro de expresión seria, y duro en sus expresiones augura mucho trabajo a los estudiantes". Estos
razonamientos los estudia la ciencia de la lógica que antes formaba parte también de la filosofía.
Los científicos realizan y analizan cada uno de sus juicios con sumo cuidado para luego construir teorías a
partir de ellos. Recuérdese el gran ejercicio de síntesis que llevó Newton para formular juicios que constituyen
la expresión de leyes que gobiernan, tanto el movimiento de los cuerpos celestes, como el de los cuerpos
terrestres. A través de la experimentación y el razonamiento inductivo, llegó a juicios de carácter universal y,
luego, de esos juicios universales, se descubrieron hechos particulares que eran desconocidos, pero
gobernados por la misma ley, por ejemplo el descubrimiento del planeta Neptuno.
MÉTODOS DE INVESTIGACIÓN CIENTÍFICA
Los métodos de investigación científica pueden dividirse en dos: empíricos y teóricos. En realidad en el
proceso de investigación, los métodos empírico y teórico nunca están separados, si aquí los presentamos así,
es sólo para hacer más fácil su comprensión.
La observación del objeto que estudia el investigador está conducida por su esquema referencial. Pero, ¿qué
es el esquema referencial? La respuesta es: "conjunto de experiencias, conocimientos y afectos con los que el
individuo piensa y actúa". El esquema o marco referencial es el perfil del objeto que tiene el investigador; es
lo que él integible del objeto.
Existe a veces la falsa idea de que el científico es un ser que evita la afectividad en la investigación. Esto es
falso. El científico en realidad se apasiona con lo que hace hasta el punto en que a veces olvida comer y
dormir Recuérdese a Newton cuando trabajaba con su obra magna.
Sucede que el científico trata de interpretar sus hallazgos considerando el nivel de distorsión que sus propios
deseos pudieran causar en la interpretación de sus resultados. Los malos científicos son los que niegan la
existencia de una gran afectividad en el investigador y afirman que debe evitarse. Pensar de esta manera nos
lleva a enajenar el producto del científico, ya que se niega la situación real y eminentemente humana en la
que el hallazgo tiene lugar.
Sin embargo, el que se niegue la existencia de la afectividad en el proceso de investigación no impide su
presencia. Por ello, resulta más objetivo aceptarla que negarla ya que, de este modo, se puede evaluar el nivel
de "ruido" o distorsión de la información debido a factores personales del investigador. En otras palabras, se
es más objetivo cuando se acepta la subjetividad del investigador que cuando se la ignora.
Por eso, la teoría y experiencia en general del investigador siempre están presentes en el proceso del
descubrimiento. Hasta en la vida cotidiana resulta imposible despojarse de los conocimientos previos ante las
nuevas situaciones que se nos presentan. Supóngase que miramos aun niño de dos años que corre por un piso
en el que más adelante hay un pequeño charco de aceite. Como los únicos líquidos que conoce el niño son
la leche y el agua, se abalanza sobre el aceite y se cae. A partir de allí, comprobará que este líquido tiene otras
propiedades distintas a del agua. A un adulto no se le ocurriría pisar allí, porque sabe lo que puede ocurrirle.
En la ciencia sucede algo similar. Imagina a Pasteur mirando por el microscopio, muy entretenido e incluso
fascinado por lo que ve allí. Tú te acercas para observar a través de la lente descubres una serie de bolitas o
figuritas raras que se mueven para allá y para acá. Te rascas la cabeza y no le encuentras mayor chiste. La
diferencia entre Pasteur y tú es que él cuenta con un esquema referencial más rico que el tuyo con respecto a
este tipo de fenómenos. De manera que a pesar de que lo ves haciendo una actividad totalmente empírica,
ésta está conducida por la teoría que funciona como referente.
Habiendo aclarado esto, ahora pasaremos a estudiar los métodos de investigación empírica y luego haremos
otro tanto con los métodos de investigación teórica.
Método de investigación empírica
En esta sección nos enfocaremos en el estudio de los métodos de investigación empírica. Ellos son el hecho, la
observación, la medición y el experimento.
El hecho
Dijimos que la ciencia fáctica parte de hechos de manera que conviene aclarar el concepto hecho. El hecho es
un fragmento de realidad objetiva que puede captarse con los instrumentos materiales (como el microscopio
o el telescopio) y teóricos que una determinada disciplina haya desarrollado (ejemplo la física clásica de
Newton o la teoría de la relatividad de Einstein), e incluso, determinados hechos pueden ser captados por los
órganos de los sentidos.
El hecho es el fundamento de la teoría, porque a partir de él se construye una explicación (teórica) del mismo.
Esa explicación, por lo tanto, ha de contrastarse continuamente con los hechos para ratificar la veracidad o
falsedad de sus proposiciones. La contrastabilidad de la teoría con los hechos es el principal criterio de verdad
de una ciencia. Si los enunciados de una teoría no son verificables en los hechos, entonces no podemos
llamarla "teoría científica".
Actualmente al hecho se le atribuyen las siguientes características:
 1. Existe independientemente de que un investigador lo haya descubierto; y de él se parte para la
construcción de teorías científicas.
 2. Los hechos no son parte de la teoría, sino que se encuentran fuera de ella. Sin embargo, sabemos de
ellos a partir de su enunciación teórica. No obstante, lo que sabemos de un hecho (a través de la
teoría) puede ser una distorsión del mismo. Por tanto, el hecho es independiente de la teoría y sirve a
ésta como criterio de verdad.
 3. Los hechos son auténticos y, por eso, ante ellos no puede existir la más mínima duda. El problema
reside en saber si lo que se ve en el hecho es todo lo que éste es en sí.
 4. Los hechos son invariantes: lo que cambia es la manera de percibirlos. Recuérdese la manera en que
fue cambiando la imagen del universo, y cómo, a pesar de que esa imagen sirvió para conducir
la acción de los hombres, ella era falsa. Tal vez ahora mismo nuestra concepción del universo aún se
aleja de la realidad, pero sin embargo es mucho más precisa que las anteriores.
Entonces, el proceso de conocimiento inicia en la elección y definición de los hechos y luego se mueve a su
interpretación (teórica). Lo paradójico consiste en que la elección de los hechos depende de los
conocimientos previos (teoría que sirve de referente).
En síntesis, podemos afirmar que el trabajo del científico consiste en explicar los hechos de la realidad; ellos
son el fundamento de todas las elaboraciones científicas y conforme crece su conocimiento en torno a los
hechos puede ser capaz de diferenciarlos. Este proceso es siempre dinámico: los hechos permiten el
desarrollo de la teoría científica y, al mismo tiempo, la teoría posibilita el descubrimiento de nuevos hechos.
La observación
El primer procedimiento científico de carácter empírico lo constituye la observación. La observación científica
se define:
como la percepción dirigida de los objetos y fenómenos de la realidad. En el acto de la observación se pueden
distinguir: 1) el objeto de la observación; 2) el sujeto de la observación; 3) los medios para la observación; 4)
las condiciones de la observación; y 5) el sistema de conocimientos a partir del cual se formula la finalidad de
la observación y se interpretan los resultados de esta.
Estas distinciones de la observación científica siempre deben tomarse en cuenta en la interpretación de los
resultados o en la descripción de los mismos. Brevemente explicados el punto uno sería el hecho al que se
enfoca el investigador; el punto dos, quién lo está observando; el punto tres, ¿qué instrumentos lo auxilian en
su observación?; punto cuatro, ¿cuáles son las dificultades que se presentan en el objeto y cuáles se
presentan en el sujeto?, ¿son deficientes u óptimas las condiciones de observación?; y finalmente, ¿qué
elementos teóricos sirven para orientar la observación, para saber qué elementos del medio son relevantes y
cuáles no?
Es importante aclarar que el observador al realizar su actividad, compromete tanto sus órganos sensoriales
como su personalidad toda. Comúnmente se piensa que una persona mira con los ojos. Ésa es una verdad a
medias, porque en realidad "se observa con la teoría", sin que por ello se niegue que el hecho se capte con el
ojo. Lo que sucede en realidad es que no es el órgano (en este caso el ojo) el que interpreta lo que mira. En
este sentido el órgano de observación es el sujeto completo. Las imágenes son captadas por los órganos de los
sentidos pero éstas son integradas en la percepción que depende ya no del órgano mismo, sino más bien, de
los conocimientos previos de individuo. La percepción es un acto que involucra la personalidad total del
sujeto. Es interesante observar cómo en ocasiones lo que vemos no lo podemos identificar hasta que
diferenciamos sus características con respecto a otras ya conocidas. Este fenómeno permite comprender el
hecho de que distintas personas pueden observar los mismos hechos pero sus versiones pueden ser
diferentes.
Lo que hemos mencionado nos permite concluir que los hechos sólo pueden reconocerse y diferenciarse a
partir de los conocimientos previos que el sujeto observador posee. Los hechos pueden estar presentes y, sin
embargo, las condiciones actuales del sujeto tal vez le impidan su percepción. De manera que los hechos, a
pesar de estar de manera física al alcance del sujeto, pueden permanecer ocultos a la percepción del sujeto,
pues esta percepción es selectiva y depende de un esquema o marca referencial. De allí que sea necesario,
para el investigador contar can la información obtenida por investigaciones anteriores sobre los hechos que
desea estudiar. La percepción es un acto en que participa la personalidad total del individuo. Ello explica el
hecho de que varias personas, contemplen lo mismo y, sin embargo, lo perciben de modo distinto.
Seguramente si les pedimos su versión de lo que están viendo, comprobaremos que cada una tiene su propio
punto de vista.
La medición
Después de que el investigador ha seleccionado el objeto de estudio (hecho), observa y registra con
minuciosidad todo aquello que, de acuerdo con su teoría, sea relevante. En las ciencias naturales y, en gran
parte de las ciencias sociales, los científicos desean medir cada vez con mayor precisión los variables que les
interesan. A partir del estudio de los hechos, el investigador registra aquello que resulte relevante de acuerdo
con la(s) variable(s) en observación. Los registros que va obteniendo, mediante el método experimental o
cualquier otro, pueden ser organizados según las escalas de medición científica. Los registros son datos que
podemos medir aplicando operaciones lógico-matemáticas según hayan sido clasificados como datos
pertenecientes a la escala nominal, ordinal, de intervalo o de razón. La información así recabada puede ser de
carácter cualitativo y/o cuantitativo.
Métodos de investigación teórica
Ya hemos mencionado que el trabajo científico siempre implica el compromiso entre teoría y experiencia. Sin
embargo, para su análisis y mejor comprensión los hemos separado. Debe tenerse muy presente que esta
separación es artificial, ya que en la práctica de la investigación están ligadas: ningún acto investigación
empírico del investigador está libre de ideas preconcebidas del científico, aunque toda idea científica debe ser
comprobada y demostrada. Así pues, en este apartado privilegiaremos aquello que se conoce corno
investigación teórica, a saber: problemas e hipótesis, leyes y teorías.
Problemas e hipótesis
El proceso de investigación inicia con un problema. Sin embargo, no toda formulación que designa un
problema puede ser investigado por la ciencia. Para que un problema pueda investigarse debe ser formulado
de manera clara y precisa. La parte más confusa y difícil del proceso de investigación es plantear
adecuadamente el problema que se busca resolver.
Existen ideas nacidas ante la observación de cualquier hecho de la realidad que pueden o no transformarse en
problemas de investigación. Al principio esas ideas son vagas y confusas, no se sabe qué es lo que sucede.
Luego, después de pensar mucho y estar en relación continua con el objeto de investigación, se puede lograr
una formulación cada vez más clara de la situación problemática.
En realidad, es muy difícil determinar cómo se llega a realizar buenos planteamientos de problema e
hipótesis, no existen recetas infalibles al respecto. Sin embargo, a partir del estudio detenido de los
problemas científicos que ha, llevado a nuevos descubrimientos, se han encontrado algunos rasgos generales
que permiten por lo menos plantear los criterios que cumplen las buenas formulaciones de problemas. Los
criterios a los que nos referimos para formular un problema son los siguientes
 Se debe presentar el problema con una oración clara y precisa, generalmente interrogativa. Ejemplo:
¿Es la inteligencia un lenguaje interiorizado?
 El problema debe expresar una relación entre dos o más variables: ¿Existe alguna relación entre el
método de enseñanza que implementa el profesor en el salón y el nivel de aprovechamiento que
logran sus alumnos?
 El problema se formula de tal manera que implique la posibilidad de prueba empírica. Los dos
ejemplos anteriores pueden servir.
Una vez que el investigador ha formulado el problema, puede plantear una conjetura que tiene como
finalidad explicar ese problema para resolverlo. La conjetura o proposición resultante recibe el nombre de
hipótesis.
La hipótesis de investigación es el punto de partida en la búsqueda de respuesta a la pregunta planteada, es la
guía que se sigue en el experimento científico. Las hipótesis pueden definirse como explicaciones tentativas
de carácter singular, particular o universal que involucran variables.
El propósito del experimento es precisamente verificar los enunciados hipotéticos que, como dijimos, pueden
ser singulares particulares y generales o universales. Un enunciado hipotético singular podría ser el siguiente:
"El Bul es un perro que cuando come pasto se enferma de diarrea". Si se quiere, se puede formular de manera
particular "Algunos perros cuando comen pasto se enferman de diarrea". De forma universal quedaría así:
"Todos los perros que comen pasto se enferman de diarrea". La formulación de hipótesis implica el
razonamiento, es decir, el uso de la lógica.
Las hipótesis universales son las de mayor valor científico, pero al mismo tiempo, son más difíciles de verificar.
Piensa en la proposición "Todos los perros que comen pasto se enferman de diarrea"; si quisiéramos ponerla a
prueba tendríamos que buscar a todos los perros existentes ahora y a aquellos que van a existir en el futuro
en el mundo entero para hacerlos comer pasto y verificar así la hipótesis. Por eso "cuando una proposición
general (particular o universal) puede verificarse sólo de manera indirecta –esto es, por el examen de algunas
de sus consecuencias- es conveniente llamarla "hipótesis científica". Lo más recomendable es plantear
hipótesis medias: ni muy específicas un muy generales. En última instancia es preferible una hipótesis general
que una demasiado específica. Por tanto, la verificación de una hipótesis siempre es parcial. El científico tiene
que conformarse con la verificación de unos casos significativos.
Para elegir dichos casos usa la estadística. Para verificar el enunciado hipotético del ejemplo, el científico
tendría que delimitar la zona geográfica en la cual va a buscar todos los perros que allí se encuentren y elegir
al azar sólo una cantidad representativa. Realizará con ellos el experimento y los resultados obtenidos los
generalizará al resto de los perros de esa zona geográfica. Claro que siempre correrá el riesgo de que sus
conclusiones no sean exactamente igual a la realidad. Sin embargo, el científico conocerá dentro de
que límites se encuentra el resultado. De manera que la conclusión puede ser una proposición que diga algo
más o menos así: "De los perros que se encuentran en la zona metropolitana de Guadalajara, del 80 al 95 %
padecerá diarrea después de haber comido pasto". La conclusión anterior permite predecir que de cada diez
perros que nosotros miremos en dicho lugar, ocho o nueve se enfermarán si comen pasto.
El conocimiento de las matemáticas permite al científico saber las cantidades de unidad de observación
(perros en este caso) que conformaran la muestra que se someterá al experimento. Esta cantidad variara
según el margen de error que el científico este dispuesto a aceptar en sus resultados. Cuanto mayor sea la
muestra con respecto a la población que representa, mayor será la seguridad de que los resultados estén mas
cerca de la situación real, pero, al mismo tiempo, mayor será el tiempo y dinero que deberá invertir.
Las hipótesis jamás se verifiquen en su totalidad puesto que nunca se ponen a prueba todas sus
consecuencias, sino solo una cantidad determinada. En función del análisis de esa cantidad se llega a otras
proposiciones que cumplen una función predictiva con respecto a nuevos casos o hechos.
Una hipótesis se pone a prueba permanentemente. Si aparecen muchos casos en los que ella no se verifica
como verdadera, entonces se abandona y se sustituye por otra que explique mejor lo que sucede con el hecho
estudiado.
Toda hipótesis científica nace de la observación empírica y de una teoría determinada. Los planteamientos de
problema e hipótesis incluyen supuestos los hechos que estudian. Es decir, que existe desde antes de que se
opere con las unidades de observación, una idea de lo que sucederá cuando se experimente con ellas. A esas
ideas previas que el científico tiene con respecto a lo que estudia se le llama marco teórico referencial. De
manera que el científico procura que su hipótesis sea coherente con la teoría y las observaciones.
Las hipótesis siempre hacen referencia, en primer lugar, a la teoría de la que forman parte y, en segundo
lugar, a los hechos que se refieren. Una exigencia que tiene la hipótesis es ajustarse a ambos aspectos. Debido
a que existen tantas concepciones como teorías existan sobre los problemas, es importante que el científico
defina los conceptos que usa en las variables de las hipótesis que plantea. De ese modo, un segundo científico
que conozca la teoría sobre la cual esas definiciones tienen sentido, puede repetir el experimento y, de ser
éste confiable, llegar a parecidas conclusiones que el primero. Así pues, la hipótesis es un imprescindible
instrumento de indagación científica.
He aquí algunos problemas con los que se han enfrentado los científicos en el pasado. ¿Cómo son capaces los
murciélagos de volar tan hábilmente por la noche a pesar de que sus ojos son muy pequeños y débiles? ¿Por
qué la elevación de un barómetro sencillo es inferior en las grandes altitudes que en las bajas? ¿Por qué se
ennegrecían continuamente las placas fotográficas del laboratorio de Roentgen? ¿Por qué se adelanta el
perihelio del planeta Mercurio? Estos problemas surgen a partir de observaciones más o menos sencillas. (...)
Las observaciones citadas (...) como problemas sólo son problemáticas ala luz de alguna teoría. La primera es
problemática a la luz de la teoría de que los organismos vivos "ven" con los ojos: la segunda era problemática
para los partidarios de las teorías de Galileo porque estaba en pugna con la teoría de la "fuerza del vacío", que
éstos aceptaban como explicación de por qué el mercurio no cae en el tubo de un barómetro; la tercera era
problemática para Roentgen porque en esa época se suponía tácitamente que no existía ningún tipo de
emanación o radiación que pudiera penetrar en el recipiente de las placas fotográficas y oscurecerlas; la
cuarta era problemática porque en incompatible con la teoría de Newton. La afirmación de que el origen de la
ciencia está en los problemas es perfectamente compatible con la prioridad de las teorías sobre la
observación y los enunciados observacionales. La ciencia no comienza con la pura observación.
Análisis crítico en la presentación de resultados de investigación

clasificación del proceso de investigación


Los métodos científicos cumplen una función fundamental en el desarrollo de la ciencia. Los métodos
permiten obtener nuevos conocimientos sobre el fenómeno y desempeñan un papel importante en la
construcción de la teoría científica.
El método científico se puede definir como el conjunto de procedimientos generales por medio del cual se
investiga el objeto de la ciencia.
La metodología es el estudio filosófico de la actividad científica, constituye un conocimiento general del
proceso de investigación científica, de su estructura, de sus elementos y de sus métodos.
En la literatura contemporánea los autores han planteado diferentes criterios de clasificación de las
investigaciones educacionales.
Se clasifican en varios tipos:
• Según su finalidad
• Según su objetivo gnoseológico
• Según su contexto
• Según el control de las variables
• Según su orientación temporal
• Según su generalidad.
Según su finalidad la investigación se clasifica en aplicada ya que persigue la solución de un problema práctico
en el ámbito educacional.
Según su objetivo gnoseológico es descriptiva – explicativa. Descriptiva porque refleja las características
observables y generales con vistas a clasificarlas, establecer relaciones entre las variables etc.; se apoya en
métodos empíricos que permiten lograr estos fines: observación, encuestas, entrevistas.
Explicativa porque en esta se refleja las regularidades generales, estables, esenciales que rigen la dinámica y
desarrollo de los fenómenos educacionales que no son observables directamente por lo que se requiere de
los métodos experimentales, cuasiexperimentales, comparativo- casuales y teóricos (inducción- deducción,
análisis- síntesis, modelación genética). Según su contexto la investigación es natural ya que se realiza en el
contexto en que habitualmente se produce el fenómeno y aunque el control de las variables es menos
riguroso tiene mayor validez externa y sus resultados son más fáciles de transferir a situaciones ajenas.
Según el control de las variables se clasifica en cuasiexperimental porque al igual que en los experimentos
verdaderos se utilizan grupos experimentales y de control para comparar los resultados, existe en los últimos
años una tendencia a utilizar el mismo grupo comparando los resultados de antes y después de la aplicación
de la propuesta metodológica. La particularidad de esta modalidad consiste en que tiene lugar en situaciones
de campos (reales). Se utiliza cuando el investigador encuentra obstáculos para alternar la configuración de
los grupos naturales o considera más apropiado trabajar con estos últimos (sin alterar su configuración
creando grupos artificiales mediante técnicas aleatorias o de otro tipo). En este tipo de diseño el investigador
varía deliberadamente los niveles de la variable independiente para estudiar los efectos de esta en la variable
dependiente pero muchas variables ajenas quedan sin controlar.Según su orientación temporal la
investigación se clasifica en tres ya que está dirigida al estudio del fenómeno objeto de estudio en el pasado
(histórica) se analiza cómo ha sido el desenvolvimiento del mismo en el presente (transversal) y se proyecta
hacia el futuro por lo que es (longitudinal).Según su generalidad se basa fundamentalmente en el paradigma
empírico – analítico y en los métodos cuantitativos.Las investigaciones educacionales tienen gran importancia
social en nuestro país ya que contribuyen a crear las condiciones óptimas para el desarrollo pleno de la
personalidad del educando.

Los métodos de investigación


1.2 Métodos empíricos de la Investigación Científica
Los métodos de investigación empírica con lleva toda una serie de procedimientos prácticos con el objeto y
los medios de investigación que permiten revelar las características fundamentales y relaciones esenciales del
objeto; que son accesibles a la contemplación sensorial.
Los métodos de investigación empírica, representan un nivel en el proceso de investigación cuyo contenido
procede fundamentalmente de la experiencia, el cual es sometido a cierta elaboración racional y expresado
en un lenguaje determinado.
Método de la observación científica
La observación científica como método consiste en la percepción directa del objeto de investigación. La
observación investigativa es el instrumento universal del científico. La observación permite conocer la
realidad mediante la percepción directa de los objetos y fenómenos.
La observación, como procedimiento, puede utilizarse en distintos momentos de una investigación más
compleja: en su etapa inicial se usa en el diagnóstico del problema a investigar y es de gran utilidad en el
diseño de la investigación.
En el transcurso de la investigación puede convertirse en procedimiento propio del método utilizado en la
comprobación de la hipótesis. Al finalizar la investigación la observación puede llegar a predecir las tendencias
y desarrollo de los fenómenos, de un orden mayor de generalización.
La observación científica presenta las siguientes cualidades, que lo diferencian de la observación espontánea y
casual.
 La observación científica es consciente; y se orienta hacia un objetivo o fin determinado. El observador
debe tener un conocimiento cabal del proceso, fenómeno u objeto a observar, para que sea capaz,
dentro del conjunto de características de éste, seleccionar aquellos aspectos que son susceptibles a ser
observados y que contribuyen a la demostración de la hipótesis.
 La observación científica debe ser cuidadosamente planificada donde se tiene en cuenta además de los
objetivos, el objeto y sujeto de la observación, los medios con que se realiza y las condiciones o
contexto natural o artificial donde se produce el fenómeno, así como las propiedades y cualidades del
objeto a observar.
 La observación científica debe ser objetiva: ella debe estar despojada lo más posible de todo elemento
de subjetividad, evitando que sus juicios valorativos puedan verse reflejados en la información
registrada. Para esto hay que garantizar:
a. Mediante la observación se recoge la información de cada uno de los conceptos o variables
definidas en la hipótesis de trabajo, en el modelo. Cuando esto se cumple decimos que existe
validez en la observación.
b. El documento guía de la observación debe ser lo suficientemente preciso y claro para
garantizar que diferentes observadores al aplicar éste, en un momento dado, lo entiendan y
apliquen de la misma manera. Cuando este requisito se cumple decimos que la observación es
confiable.
1.3 Importancia de la observación
Históricamente la observación fue el primer método científico empleado, durante mucho tiempo constituyó el
modo básico de obtención de la información científica. La observación, como método científico, nos permite
obtener conocimiento acerca del comportamiento del objeto de investigación tal y como éste se da en la
realidad, es una manera de acceder a la información directa e inmediata sobre el proceso, fenómeno u objeto
que está siendo investigado.
La observación estimula la curiosidad, impulsa el desarrollo de nuevos hechos que pueden tener interés
científico, provoca el planteamiento de problemas y de la hipótesis correspondiente.
La observación puede utilizarse en compañía de otros procedimientos o técnicas (la entrevista, el
cuestionario, etc.), lo cual permite una comparación de los resultados obtenidos por diferentes vías, que se
cumplimentan y permiten alcanzar una mayor precisión en la información recogida.
La observación como método científico hace posible investigar el fenómeno directamente, en su
manifestación más externa, en su desarrollo, sin que llegue a la esencia del mismo, a sus causas, de ahí que,
en la práctica, junto con la observación, se trabaje sistemáticamente con otros métodos o procedimientos
como son: la medición y el experimento. Por supuesto, para llegar a la esencia profunda del objeto se hace
necesario el uso de los métodos teóricos.
Tanto en las ciencias sociales, naturales y técnicas la observación, como método científico, puede aplicarse de
diferentes formas:
 Observación simple: se realiza con cierta espontaneidad, por una persona de calificación adecuada
para la misma y ésta debe ejecutarse, de forma consciente y desprejuiciada.
 Observación sistemática: requiere de un control adecuado que garantice la mayor objetividad,
realizándose la observación de forma reiterada y por diferentes observadores, inclusive para
garantizar la uniformidad de los resultados de éste.
 Observación participativa: en ella el observador forma parte del grupo observado y participa en él
durante el tiempo que dure la observación.
 Observación no participante: el investigador realiza la observación desde fuera, no forma parte del
grupo investigado.
 Observación abierta: donde los sujetos y objetos de la investigación, conocen que van a ser
observados. Cuando se utiliza este tipo de observación se analiza previamente si el hecho de que los
observados conozcan previamente que su conducta es observada, esto puede afectar los resultados de
la observación. En caso positivo es necesario realizar la observación encubierta, cerrada o secreta.
 Observación encubierta: las personas que son objeto de la investigación no lo saben. El observador
está oculto, se auxilia con medios técnicos los que en la mayoría de los casos no son de fácil obtención.
Esta investigación es más objetiva.
 Organización de la observación. Está determinada por muchos factores como pueden ser: tipo de
objeto sobre el cual se investiga, características personales del observador, métodos, procedimientos y
técnicas que se requiere para la observación, de las propiedades y cualidades del objeto a observar,
medios con que se cuenta para la observación y otros.
Una vez tenido en cuenta todos estos factores, se elabora un plan de observación donde se precisa: objeto,
magnitudes y variables a observar, tiempo de duración de la observación y el resultado esperado. A partir de
esto se elabora un programa de observación, determinado por las interrogantes que tienen que esclarecerse
mediante la misma.
1.4 El método experimental
El experimento dentro de los métodos empíricos resulta el más complejo y eficaz; este surge como resultado
del desarrollo de la técnica y del conocimiento humano, como consecuencia del esfuerzo que realiza el
hombre por penetrar en lo desconocido a través de su actividad transformadora.
El experimento es el método empírico de estudio de un objeto, en el cual el investigador crea las condiciones
necesarias o adecua las existentes, para el esclarecimiento de las propiedades y relaciones del objeto, que son
de utilidad en la investigación.
El experimento es la actividad que realiza el investigador donde:
 Aísla el objeto y las propiedades que estudia, de la influencia de otros factores no esenciales que
puedan enmascarar la esencia del mismo en opinión del investigador.
 Reproduce el objeto de estudio en condiciones controladas.
 Modifica las condiciones bajo las cuales tiene lugar el proceso o fenómeno de forma planificada.
El objetivo del experimento puede ser: esclarecer determinadas leyes, relaciones o detectar en el objeto una
determinada propiedad; para verificar una hipótesis, una teoría, un modelo. Un mismo experimento puede
llevarse a cabo con variados fines.
El experimento siempre está indisolublemente unido a la teoría. En la teoría el problema se formula
esencialmente como un problema teórico, un problema que se refiere al objeto idealizado de la teoría y que
se experimenta para comprobar en un plano dialéctico, los conceptos teóricos pertenecientes a la teoría.
Las condiciones que rodea el objeto son aquellas condiciones naturales o artificiales creadas por el
investigador bajo la cual se realiza el experimento con los medios e instrumentos adecuados para la misma.
El hecho de que en el experimento el investigador provoca el proceso o fenómeno que desea abordar, hace
que el método experimental presente toda una serie de ventajas sobre los restantes métodos empíricos, estas
son:
 Separación y aislamiento de las propiedades en las cuales presta atención para su estudio, del medio
que pueda ejercer influencia sobre ellas.
 Posibilidad de estudio del proceso o fenómeno en condiciones variadas.
 Reproducir el experimento.
La experimentación en el Proceso de la Investigación Científica crea la posibilidad de estudiar
exhaustivamente los nexos o relaciones entre determinados aspectos del mismo, y poner de manifiesto las
causas condicionantes de la necesidad de dicho fenómeno.
1.5 Las diversas clases de métodos de investigación
Podemos establecer dos grandes clases de métodos de investigación: los métodos lógicos y los empíricos. Los
primeros son todos aquellos que se basan en la utilización del pensamiento en sus funciones de deducción,
análisis y síntesis, mientras que los métodos empíricos, se aproximan al conocimiento del objeto mediante sus
conocimiento directo y el uso de la experiencia, entre ellos encontramos la observación y la experimentación.
Método lógico deductivo
Mediante ella se aplican los principios descubiertos a casos particulares, a partir de un enlace de juicios. El
papel de la deducción en la investigación es doble:
a. Primero consiste en encontrar principios desconocidos, a partir de los conocidos. Una ley o principio
puede reducirse a otra más general que la incluya. Si un cuerpo cae decimos que pesa porque es un
caso particular de la gravitación.
b. También sirve para descubrir consecuencias desconocidas, de principios conocidos. Si sabemos que la
formula de la velocidad es v=e/t, podremos calcular la velocidad de un avión. La matemática es la
ciencia deductiva por excelencia; parte de axiomas y definiciones.
Método deductivo directo – inferencia o conclusión inmediata.
Se obtiene el juicio de una sola premisa, es decir que se llega a una conclusión directa sin intermediarios.
Ejemplo:
“Los libros son cultura”
“En consecuencia, algunas manifestaciones culturales son libros”
Método deductivo indirecto – inferencia o conclusión mediata – formal.
Necesita de silogismos lógicos, en donde silogismo es un argumento que consta de tres proposiciones, es
decir se comparan dos extremos (premisas o términos) con un tercero para descubrir la relación entre ellos.
La premisa mayor contiene la proposición universal, la premisa menor contiene la proposición particular, de
su comparación resulta la conclusión. Ejemplo:
“Los ingleses son puntuales”
“William es inglés”
“Por tanto, William es puntual”
Método hipotético-deductivo
Un investigador propone una hipótesis como consecuencia de sus inferencias del conjunto de datos empíricos
o de principios y leyes más generales. En el primer caso arriba a la hipótesis mediante procedimientos
inductivos y en segundo caso mediante procedimientos deductivos. Es la vía primera de inferencias lógico
deductivas para arribar a conclusiones particulares a partir de la hipótesis y que después se puedan
comprobar experimentalmente.
Método lógico inductivo
Es el razonamiento que, partiendo de casos particulares, se eleva a conocimientos generales. Este método
permite la formación de hipótesis, investigación de leyes científicas, y las demostraciones. La inducción puede
ser completa o incompleta.
Inducción Completa. La conclusión es sacada del estudio de todos los elementos que forman el objeto de
investigación, es decir que solo es posible si conocemos con exactitud el número de elementos que forman el
objeto de estudio y además, cuando sabemos que el conocimiento generalizado pertenece a cada uno de los
elementos del objeto de investigación.
Las llamadas demostraciones complejas son formas de razonamiento inductivo, solo que en ellas se toman
muestras que poco a poco se van articulando hasta lograr el estudio por inducción completa. Ejemplo:
“Al estudiar el rendimiento académico de los estudiantes del curso de tercero de administración, estudiamos
los resultados de todos los estudiantes del curso, dado que el objeto de estudio es relativamente pequeño, 25
alumnos. Concluimos que el rendimiento promedio es bueno. Tal conclusión es posible mediante el análisis de
todos y cada uno de los miembros del curso.”
Inducción Incompleta: Los elementos del objeto de investigación no pueden ser numerados y estudiados en su
totalidad, obligando al sujeto de investigación a recurrir a tomar una muestra representativa, que permita
hacer generalizaciones.
Ejemplo:”los gustos de los jóvenes colombianos en relación con la música”
El método de inducción incompleta puede ser de dos clases:
a. Método de inducción por simple enumeración o conclusión probable. Es un método utilizado en objetos de
investigación cuyos elementos son muy grandes o infinitos. Se infiere una conclusión universal observando
que un mismo carácter se repite en una serie de elementos homogéneos, pertenecientes al objeto de
investigación, sin que se presente ningún caso que entre en contradicción o niegue el carácter común
observado.
La mayor o menor probabilidad en la aplicación del método, radica en el número de casos que se analicen, por
tanto sus conclusiones no pueden ser tomadas como demostraciones de algo, sino como posibilidades de
veracidad. Basta con que aparezca un solo caso que niegue la conclusión para que esta sea refutada como
falsa.
b. Método de inducción científica. Se estudian los caracteres y/o conexiones necesarios del objeto de
investigación, relaciones de causalidad, entre otros. Este método se apoya en métodos empíricos como la
observación y la experimentación.
Ejemplo: “Sabemos que el agua es un carácter necesario para todos los seres vivos, entonces podemos
concluir con certeza que las plantas necesitan agua”.
En el método de inducción encontramos otros métodos para encontrar causas a partir de métodos
experimentales, estos son propuestos por Mill:
 Método de concordancia: Compara entre si varios casos en que se presenta un fenómeno natural y
señala lo que en ellos se repite, como causa del fenómeno.
 Método de diferencia: Se reúnen varios casos y observamos que siempre falta una circunstancia que
no produce el efecto, permaneciendo siempre todas las demás circunstancias, concluimos que lo que
desaparece es la causa de lo investigado.
 Método de variaciones concomitantes: Si la variación de un fenómeno se acompaña de la variación de
otro fenómeno, concluimos que uno es la causa de otro.
 Método de los residuos: Consiste en ir eliminando de un fenómeno las circunstancia cuyas causas son
ya conocidas. La circunstancia que queda como residuo se considera la causa del fenómeno.
 Método lógico: Consiste en inferir de la semejanza de algunas características entre dos objetos, la
probabilidad de que las características restantes sean también semejantes. Los razonamientos
analógicos no son siempre validos.
 El método histórico: Está vinculado al conocimiento de las distintas etapas de los objetos en su
sucesión cronológica, para conocer la evolución y desarrollo del objeto o fenómeno de investigación se
hace necesario revelar su historia, las etapas principales de su desenvolvimiento y las conexiones
históricas fundamentales.
Mediante el método histórico se analiza la trayectoria concreta de la teoría, su condicionamiento a los
diferentes períodos de la historia. Los métodos lógicos se basan en el estudio histórico poniendo de
manifiesto la lógica interna de desarrollo, de su teoría y halla el conocimiento más profundo de esta, de su
esencia. La estructura lógica del objeto implica su modelación.
 Método sintético: Es un proceso mediante el cual se relacionan hechos aparentemente aislados y se
formula una teoría que unifica los diversos elementos. Consiste en la reunión racional de varios
elementos dispersos en una nueva totalidad, este se presenta más en el planteamiento de la hipótesis.
El investigador sintetiza las superaciones en la imaginación para establecer una explicación tentativa
que someterá a prueba.
 Método analítico: Se distinguen los elementos de un fenómeno y se procede a revisar ordenadamente
cada uno de ellos por separado. La física, la química y la biología utilizan este método; a partir de la
experimentación y el análisis de gran número de casos se establecen leyes universales. Consiste en la
extracción de las partes de un todo, con el objeto de estudiarlas y examinarlas por separado, para ver,
por ejemplo las relaciones entre las mismas.
Estas operaciones no existen independientes una de la otra; el análisis de un objeto se realiza a partir de la
relación que existe entre los elementos que conforman dicho objeto como un todo; y a su vez, la síntesis se
produce sobre la base de los resultados previos del análisis.
 Método de la abstracción: Es un proceso importantísimo para la comprensión del objeto, mediante
ella se destaca la propiedad o relación de las cosas y fenómenos. No se limita a destacar y aislar alguna
propiedad y relación del objeto asequible a los sentidos, sino que trata de descubrir el nexo esencial
oculto e inasequible al conocimiento empírico.
 Método de la concreción: Mediante la integración en el pensamiento de las abstracciones puede el
hombre elevarse de lo abstracto a lo concreto; en dicho proceso el pensamiento reproduce el objeto
en su totalidad en un plano teórico.
Lo concreto es la síntesis de muchos conceptos y por consiguiente de las partes. Las definiciones abstractas
conducen a la reproducción de los concreto por medio del pensamiento. Lo concreto en el pensamiento es el
conocimiento más profundo y de mayor contenido esencial.
 Método genético: Implica la determinación de cierto campo de acción elemental que se convierte en
célula del objeto, en dicha célula están presentes todos los componentes del objeto así como sus leyes
más trascendentes.
 Método de la modelación: Es justamente el método mediante el cual se crean abstracciones con vistas
a explicar la realidad. El modelo como sustituto del objeto de investigación. En el modelo se revela la
unidad de lo objetivo y lo subjetivo. La modelación es el método que opera en forma práctica o teórica
con un objeto, no en forma directa, sino utilizando cierto sistema intermedio, auxiliar, natural o
artificial.
 Método sistémico: Está dirigido a modelar el objeto mediante la determinación de sus componentes,
así como las relaciones entre ellos. Esas relaciones determinan por un lado la estructura del objeto y
por otro su dinámica.
 Método dialéctico: La característica esencial del método dialéctico es que considera los fenómenos
históricos y sociales en continuo movimiento. Dio origen al materialismo histórico, el cual explica las
leyes que rigen las estructuras económicas y sociales, sus correspondientes superestructuras y el
desarrollo histórico de la humanidad.
Aplicado a la investigación, afirma que todos los fenómenos se rigen por las leyes de la dialéctica, es decir que
la realidad no es algo inmutable, sino que está sujeta a contradicciones y a una evolución y desarrollo
perpetuo. Por lo tanto propone que todos los fenómenos sean estudiados en sus relaciones con otros y en su
estado de continuo cambio, ya que nada existe como un objeto aislado.
Este método describe la historia de lo que nos rodea, de la sociedad y del pensamiento, a través de una
concepción de lucha de contrarios y no puramente contemplativa, más bien de transformación. Estas
concepciones por su carácter dinámico exponen no solamente los cambios cuantitativos, sino los radicales o
cualitativos.
Aunque no existen reglas infalibles para aplicar el método científico, Mario Bunge considera las siguientes
como algunas de las más representativas:
 Formulación precisa y específica del problema
 Proponer hipótesis bien definidas y fundamentadas
 Someter la hipótesis a una contrastación rigurosa
 No declarar verdadera una hipótesis confirmada satisfactoriamente
 Analizar si la respuesta puede plantearse de otra forma.
1.6 El método de la Medición
La observación fija la presencia de una determinada propiedad del objeto observado o una relación entre
componentes, propiedades u otras cualidades de éste. Para la expresión de sus resultados no son suficientes
con los conceptos cualitativos y comparativos, sino que es necesaria la atribución de valores numéricos a
dichas propiedades y relaciones para evaluarlas y representarlas adecuadamente.
Cuando se inicia el estudio de una región de procesos o fenómenos totalmente desconocidos se comienza por
la elaboración de conceptos cualitativos, lo que permite una clasificación de los objetos de la región
estudiada. Posteriormente se establecen determinadas relaciones entre los conjuntos de objetos semejantes
con el auxilio de conceptos comparativos, lo que permite clasificarlos en conjuntos que tengan cualidades
semejantes.
El uso de conceptos comparativos puede servir de base para la introducción de conceptos cuantitativos, es
decir, conceptos que designan la cualidad medida. El tránsito de los conceptos cualitativos a los comparativos
y de estos a los cuantitativos se realiza solo mediante proposiciones teóricas.
La medición es el método que se desarrolla con el objetivo de obtener información numérica acerca de una
propiedad o cualidad del objeto, proceso o fenómeno, donde se comparan magnitudes medibles y conocidas.
El valor numérico de una propiedad va a estar dada por la diferencia de valores entre las magnitudes
comparadas. Se denominará medición al proceso de comparación de una propiedad con una magnitud
homogénea tomada como unidad de comparación.
Se puede decir que la medición es la atribución de valores numéricos a las propiedades de los objetos.
Aunque la medición constituye una de las formas del conocimiento empírico, los procedimientos de medición
se determinan por consideraciones teóricas. En la medición es necesario tener en cuenta el objeto y la
propiedad que se va a medir, la unidad y el instrumento de medición, el sujeto que realiza la misma y los
resultados que se pretenden alcanzar.
El uso de los conceptos cuantitativos y la introducción en ella de los métodos cuantitativos exactos de la
investigación indican el nivel de desarrollo de la ciencia. En las ciencias sociales es cada vez más necesario
predecir con mayor exactitud el curso de los procesos sociales así como lograr la expresión uniforme de los
resultados en la investigación, lo cual se puede alcanzar, en alguna medida, mediante la expresión numérica
de los mismos.
En las ciencias sociales, naturales y técnicas no basta con la realización de las mediciones; sino que es
necesaria la aplicación de diferentes procedimientos que permitan revelar las tendencias, regularidades, y las
relaciones en el proceso o fenómeno objeto de estudio, uno de estos procedimientos son los estadísticos. En
las ciencias sociales, los procedimientos estadísticos más importantes son los descriptivos e inferenciales.
Los procedimientos de la estadística descriptiva permiten organizar y clasificar los indicadores cuantitativos
obtenidos en la medición revelándose a través de ellos las propiedades, relaciones y tendencias del proceso,
que en muchas ocasiones no se perciben a simple vista de manera inmediata.
Las formas más frecuentes de organizar la información en éste caso es en tablas de distribución de
frecuencias, gráficos y las medidas de tendencia central como: la mediana, la media, la moda y otros.
Los procedimientos de la estadística inferencial se emplean en la interpretación y valoración cuantitativa de
las magnitudes del proceso o fenómeno que se estudia, donde se determinan las regularidades y relaciones
cuantitativas entre propiedades sobre la base del cálculo de la probabilidad de ocurrencia.
Entre las técnicas más aplicadas de la estadística inferencial tenemos la prueba chi-cuadrada, el análisis
factorial, la correlación, la regresión lineal y otros. En la valoración de determinadas cualidades del proceso o
fenómeno que se estudia, es frecuente la presentación de las mismas en forma de escalas, es decir convertir
una serie de hechos cualitativos en cuantitativos.
El procedimiento de las escalas puede ser utilizado de diferentes formas: numerando las posibles respuestas a
una pregunta o asignándole un número de diversas magnitudes a una misma propiedad.

Análisis critico en la presentación de resultados


Revisión de investigaciones realizadas
La revisión de literatura es una de las formas más sencillas de economizar esfuerzos en una investigación.
Consiste en el repaso y reconstrucción de trabajos ya realizados por otros y tiene como fin el detectar,
obtener y consultar la bibliografía y otros materiales que pueden ser útiles a los propósitos del estudio, así
como extraer y recopilar la información relevante y necesaria que atañe a nuestro problema de investigación
(disponible en distintos tipos de documentos).
Esta revisión es selectiva; teniendo en cuenta que cada año se publica en muchas partes del Mundo gran
cantidad de artículos de revista, libros y otras clases de materiales dentro de las diferentes áreas del
conocimiento, será importante seleccionar las relevantes y las más recientes informaciones. Sin embargo, no
debe inferirse que todos los materiales publicados son fuentes adecuadas o fidedignas de información. Los
errores que pueden contener de resultados subjetivos o incompetencia del recopilador o investigador
deberán utilizarse, primordialmente, como guía para las segundas fuentes originales y, siempre que sea
posible, proceder a la comprobación de las primeras respecto a los datos necesarios.
Las fuentes de información para la revisión de la literatura serán:
FUENTE PRIMARIA: Libros, artículos, monografías, tesis, documentos, trabajos de investigación presentados
en conferencias, congresos y seminarios. FUENTE SECUNDARIA: Resúmenes y listados de referencias
publicados en un área específica de conocimiento. Cualquier fuente secundaria que se utilice tendrá que ser
objeto de comprobación de cualquier factor que puedan afectar la exactitud o la validez de la información.
OTRAS FUENTES: Documentos, títulos de revistas, simposios, boletines, conferencias. Por lo tanto se trata de
hacer una cuidadosa revisión de los estudios teóricos y prácticos que ya se han realizado y que tienen relación
con el problema planteado. Esta revisión se debe hacer porque no existe campo del conocimiento,
completamente nuevo o inexplorado.
Todo estudio debe tomar elementos del pasado y reconocer lo que otras personas o investigadores han
hecho. No realizar una exhaustiva revisión de la literatura conduce a errores graves y a desaprovechar la
oportunidad de hacer un trabajo más original y metodológicamente más objetivo.
Por eso la revisión de la literatura puede iniciarse directamente en el acopio de las fuentes primarias,
situación que ocurre cuando el investigador conoce la ubicación de la información y se encuentra
familiarizado con el campo de estudio.
Sin embargo se dan casos en los que hay poco material en hemerotecas número reducido de centros de
información, donde muchas veces las colecciones de revistas son incompletas o no se encuentran actualizadas
y no disponen de documentos muy fiables.
Cuando se determinen cuáles son los documentos o libros e investigaciones teóricas o prácticas en la revisión
de literatura hay que tener en cuenta lo siguiente:
Título y subtítulo del trabajo y/o artículos, etc., nombre de los autores, objetivos de que partieron los
investigadores, qué tratamiento teórico le dieron al trabajo, investigación o artículos; A qué conclusión
llegaron, luego un comentario o idea global del trabajo, de los documentos, artículos, etc., consultados.
Las clases de fuentes que se utilicen y el fin a que obedezca la recopilación de materiales deberán asimismo
determinarse, si se quiere evaluar debidamente los datos.
Al utilizar cualquiera de las fuentes publicadas, tanto si son de orden primario como secundario, tienen que
analizarse los datos, dentro de los límites que permitan los métodos de recopilación.
A menos que se les haya comprendido claramente, se hace imposible de precisar si los datos son o no
aplicables al problema para el que se le está examinando. Por lo tanto, el investigador deberá formarse una
actitud crítica frente a todas las fuentes publicadas, y analizar y evaluar cuidadosamente cualquier fuente que
consulte.

Aspectos económicos, políticos y sociales

Pendiente
El proceso de aprender, hacer, ser y convivir
 APRENDER A CONOCER: Este pilar consiste en que cada uno en aprenda a comprender y a interpretar
el mundo que le rodea, de manera que le permita vivir con dignidad, desarrollar sus capacidades
profesionales y comunicarse con los demás. Por lo que la educación obligatoria debe la formación
inicial debe proporcionar a todos los alumnos los instrumentos, conceptos y modos de referencia
resultantes del progreso científico y de los paradigmas de la época.
 APRENDER A HACER: Este pilar consiste en que cada uno aprenda a hacer, y por tanto este saber hacer
está estrechamente vinculado al primer pilar que es aprender a conocer, por lo que van unidos y tiene
el sentido de poner en práctica los conocimientos que se van adquiriendo.
 APRENDER A VIVIR JUNTOS: También llamado aprender a vivir con los demás. Este pilar consiste en
que cada uno aprenda a relacionarse con los demás, de manera que evite los conflictos y la violencia, y
los solucione de manera pacífica, fomentando el conocimiento de los demás, de sus culturas, de sus
lenguas, de sus tradiciones, etc. Siendo más tolerantes, inclusivos y por tanto multiculturales e
interculturales, para poder vivir en un entorno pacífico fomentando una educación para la paz y la no-
violencia, respetando las diferencias que es lo que nos enriquece e intentando no fomentar más
desigualdades.
 APRENDER A SER: Este pilar consiste en que cada uno se desarrolle en toda su riqueza, su complejidad,
sus expresiones y sus compromisos, siendo ciudadano y productor, inventor de técnicas, durante toda
su vida, para ello se necesita el autoconocimiento, por lo que la educación debe ser ante todo un viaje
interior, cuyas etapas corresponden a las de la maduración constante de la personalidad y del carácter.

Introducción a las ciencias sociales


INTERDISCIPLINARIEDAD EN LAS CIENCIAS SOCIALES
Aquí se analiza detenidamente como surgen las ciencias sociales desde que en sus orígenes luchaban por ser
disciplinas con territorio propio, luego cuando comienzan a especializarse para lograr mayores ventajas y
alcances en sus propósitos científicos, y propiamente cuando se inicia a trabajar con otras disciplinas de modo
inter o multidisciplinario.
Una vez que han detenido su territorio. Cada disciplina comienza ahora a tragmentar su objeto de estudio: las
ciencias como disciplinas autónomas demandan teorías o conceptos mas específicos, e incluso, métodos y
técnicas mas depuradas. Así por muestra tenemos que la historia ya no se hace solo de las naciones sino
también del arte, de la tecnología de la acción militar, etc.
Via de la Interdisciplinariedad
Es donde no solo se reúnen distintos científicos para dar su versión, sino que comienza a formar un enfoque
diferente, producto de la efectiva combinación entre disciplinas. Aquí por ejemplo la pobreza, ya no solo se
aborda por sociólogos y antropólogos, sino que además se da un enfoque socio-antropológico que permite
mostrar nuevos datos y aspectos del problema.
Esta nueva critica de las ciencias sociales se expresa también en que las distintas disciplinas no solo se están
abriendo a la colaboración entre ellas, sino que están replanteándose, si acaso deben abrirse o no otras
cuestiones; Un ejemplo del enfoque interdisciplinario podría ser: ¿Por qué se están extinguiendo las
especies?; aquí se tiene que recurrir a los conocimientos de historia (para hacer); de la biología (tipo de
especies), de la sociología (como el nombre ha contribuido), etc.
Elementos metodológicos en la interdisciplina
Especialización entre ciencias
La especialización es una profundización posterior de la etapa en que las ciencias sociales acababan de
establecer sus propios campos de estudio.

Ventajas del proceso de especialización:


1._ Se logra precisión y profundidad en el conocimiento.
2._ Se constituyen conceptos particulares muy tiles para explicar su subtema de esa ciencia.
3._ Se desarrollan y afinan métodos y técnicas para captar con mayor confiabilidad los datos necesarios para
ese subcampo de investigación.
4._ Se adquiere mayor prestigio y solidez.

Teoría critica de habermas


Es uno de los filósofos y sociólogos vivos más importantes de la actualidad.

Su contacto con la Teoría Crítica le sirvió para ampliar sus intereses intelectuales y adentrarse en dos
corrientes de pensamiento que han marcado su obra: el marxismo y el psicoanálisis.
Dentro de su estudio filosófico criticista, propone un enfoque de la Teoría Crítica del Conocimiento, como una
Teoría Crítica de la Sociedad.
Teoría Critica
Habermas propone un sistema kantiano que analiza las ciencias como acción instrumental por finalidad. asi
pues, la acción instrumental está dada por el entendimiento, mientras la finalidad se constituye en desarrollar
de manera libre los ideales del hombre.
Planteamientos principales
Se ubica en un contexto amplio y relacionado con la reflexión sobre el sentido del hombre en la sociedad y en
una historia determinada
Busca mostrar la posibilidad de una teoría critica del conocimiento que se desarrolla en la perspectiva de la
historia de la especie, conservando como elementos principales la producción material y el autorreflexión.
PLANTEAMIENTOS PRINCIPALES
Uno de los principios de la teoría critica es que se opone a la separación entre sujeto y realidad. Todo
conocimiento depende de malas prácticas de la época y la experiencia.
No existe una teoría pura que pueda sostenerse a lo largo de la historia.

Estudio de la política neoliberal


Tiene sus antecedentes en el liberalismo inglés del siglo XIX que es la base teórica del capitalismo. El
capitalismo creció alimentado por la Revolución industrial y la expansión colonial inglesa que produjo una
gran cantidad de mercancías, obreros en busca de empleo y fábricas buscando trabajadores.Uno de los
grandes pensadores de ese liberalismo que hablamos fue
Adam Smith.El neoliberalismo surge aproximadamente por 1970, donde aparece como una “revisión” del
antiguo liberalismo de Smith y como reacción contra lo que se conoce como el “estado benefactor”. Este
último modelo había surgido en 1929 como reacción a la crisis económica mundial. Neoliberalismo -
Intervención mínima del Estado en la economía.
- El Estado sólo debe promover las inversiones y los empleos.
- Eliminación de los subsidios a los sectores estratégicos de la economía como el gas, luz y gasolina.
- Privatización de las empresas controladas por el Estado. Las características del neoliberalismo podrían
resumirse de la siguiente manera: Adam Smith Quien escribió un libro llamado "La riqueza de las naciones" en
donde se manifiesta en contra de todo tipo de control por parte del gobierno de la economía. El liberalismo
de Smith, inspirado en las ideas de otro liberal llamado Francois Quesnay, promovía por una total libertad de
circulación e intercambio de bienes, libre competencia de capitales, propiedad privada y la exaltación del
individualismo, es decir, la exaltación de las iniciativas económicas personales, como la creación de empresas
y negocios. El liberalismo de Smith, inspirado en las ideas de otro liberal llamado Francois Quesnay, promovía
por una total libertad de circulación e intercambio de bienes, libre competencia de capitales, propiedad
privada y la exaltación del individualismo, es decir, la exaltación de las iniciativas económicas personales,
como la creación de empresas y negocios. El neoliberalismo es una ideología y también una estrategia que se
presenta como un fomento del individualismo como eje central de la libertad, también pide una mínima
intervención del gobierno en asuntos económicos para que el intercambio libre de bienes y servicios sea casi
completo y satisfagan las necesidades del mercado cuyo principio básico es la libre competencia.

Esta ideología económica fue aplicada a partir de 1980, cuando se empezó a desmantelar el estado
benefactor, dejando sin apoyo estatal incluso a aquellas áreas de bienestar social con la idea de que la ley de
la oferta y la demanda debía de operar libremente.

Una de las razones de este cambio fue que, según los teóricos neoliberales, esto permitiría a todas las
iniciativas particulares que pudieran ayudar al desarrollo de la sociedad, sin que la responsabilidad cayera
solamente en el Estado. Esta política ha sido seriamente cuestionada en los países en vías de desarrollo
porque ha provocado desatención hacia los sectores más desprotegidos, generando pobreza y mucha
desigualdad.

En este sistema solo los más importantes y poderosos son los que mandan y toman decisiones. Desempleo Y
Pobreza En las sociedades en general, el sector secundario que representa la producción industrial es muy
importante, ya que genera el escenario para que se dé la circulación de dinero y mercancías, además de que
es un área primordial para la producción de empleos y prestaciones a los obreros. Sin embargo, en países
poco desarrollados como lo es México y los demás países de América Latina, la industria es un sector menor
que depende de empresas y corporaciones extranjeras que llevan sus establecimientos al exterior, donde
saquen ganancias, entre otras razones, por causa de que los salarios a los obreros son más bajos que en sus
países de origen y las ganancias mayores. El hecho de que haya un débil sector industrial en los países de
América Latina las hace vulnerables no sólo por los salarios, sino porque el empleo que las empresas
extranjeras ofrecen dependería de la voluntad e intereses del exterior.
Ante esta situación no resulta difícil saber cómo la población busca actividades que le permitan sobrevivir a
partir de actividades informales, como el autoempleo o el comercio ambulante. De acuerdo con los censos,
para principios del siglo XXI se identifica una cantidad de desocupados de 34,154,854, de los cuales sólo el
1.25% están sin ninguna ocupación, esto muestra el gran desplazamiento hacia actividades informales e
incluso ilegales. Desempleo: Pobreza: Hay que tratar de entender lo que es la pobreza. Desde el punto de vista
socioeconómico, se dice que entra en la categoría de pobre aquél que no logra satisfacer las necesidades
básicas de alimentación, vivienda, vestido y salud.
Una de las críticas que se hace al neoliberalismo es que cada vez es más difícil que la gente acceda a los
beneficios que supuestamente esta estrategia trae consigo. Una población que no puede tener los beneficios
económicos necesarios para cubrir sus necesidades, no puede tener una vida digna. Bastará hacer un
recorrido por cualquier comunidad rural mexicana para observar la gran pobreza en la que está sumergido
nuestro país.

Ética y valores1
La eticidad: característica esencial del ser humano
El ser humano, a diferencia de los animales, posee una doble naturaleza: es un ser biológico y un ser
espiritual. Pues si bien el hombre es una especie dentro de la escala zoológica que se rige por impulsos e
instintos, su capacidad intelectual y espiritual le permite suprimir sus instintos y mejorar para poder edificar
un mundo mejor. La historia de la cultura no es otra cosa que lo que el hombre ha venido haciendo para
realizar su propia esencia, para perfeccionar el mundo a través de su capacidad intelectual. Mientras que el
animal se rige por sus instintos, el hombre puede ser dueño de sí mismo, es capaz de modificar el mundo
circundante y modelar libremente su vida, porque el hombre tiene un ser íntimo y propio, que es consciente
de sí mismo, que produce y genera ideas, y que es capaz de adoptar una conducta ante la vida, además de
que a través del libre albedrío puede reprimir sus impulsos e instintos y superarlos y dirigirlos para desarrollar
actividades intelectuales y espirituales.
Los valores son fruto de la evolución del espíritu e intelecto del hombre: a través del tiempo han permitido
que el ser humano desarrolle sus potencialidades para “ser” y no simplemente existir, diferenciándose así de
los demás animales, por tanto, eticidad es una característica esencial del ser humano.
“La actividad humana más importante es la actividad ética, que es la realización desinteresada del bien. La
ética tiene valor porque perfecciona al ser humano.”

Características del multiculturalismo


¨Las palabras “multiculturalidad” y “multiculturalismo” han saltado al primer plano del debate público en la
década de los noventa del siglo XX. Desde entonces estas palabras aparecen cada vez más reiteradamente en
los medios de comunicación relacionadas con el debate sobre la emigración y sobre las políticas públicas que
los gobiernos han adoptado o se proponen adoptar al respecto.
característica
Una de las principales características del multiculturalismo es que tiende a combinar elementos de diversas
culturas en una nueva expresión cultural que es diferente y novedosa. Comprendido en este sentido, el
culturalismo es altamente igualador ya que se dejan de lados representaciones discriminatorias que son
generalmente provocadas por miedo o por desconocimiento al otro. Al mismo tiempo, el multiculturalismo
admite la existencia de todas las culturas y no reniega de ninguna ya que en este aspecto todas ellas pueden
contribuir de igual manera en la generación de una nueva expresión cultural.
multiculturalismo
origen
clasificación
consecuencia
¿Puede justificarse bajo alguna circunstancia la agresión a la esposa? Según algunos en Australia, sí; si el
marido es musulmán. La Oficina de Asesoría Multicultural de la Policía de Australasia ha publicado y
distribuido 50.000 ejemplares de un manual de 82 páginas para oficiales de policía australianos en el que se
les orienta acerca de cómo tratar con gente procedente de culturas extrañas.
conceptos
¨Se conoce como multiculturalismo a aquel fenómeno que supone la coexistencia de varias culturas en un
mismo espacio territorial y nacional. El multiculturalismo es muy común de nuestra época ya que gracias a los
importantes avances tecnológicos, al desarrollo de las comunicaciones y a la interconexión de diferentes
partes del mundo, todas las sociedades pueden recibir información sobre otras
el multiculturalismo
evolución

Ciencia y tecnología
La ciencia y la ética
La ética tiene como objetivo llegar a la razón de ser de los hechos y acciones humanas. Y seguro te
preguntaras si la ética y la ciencia guardan alguna relación. La ciencia debe efectuarse bajo ciertos parámetros
donde la ética entra en acción, pues esta estudia y reflexiona pero sin causar daños, entonces el ejercicio de la
ciencia esta regulada, puede hacerse todo tipo de práctica científica siempre y cuando esta no cause daños a
los seres vivos y sus ecosistemas, al contrario, se espera que todo lo que se descubra y se cree en el ámbito
científico, sea en beneficio de los seres humanos, la ciencia tiene como finalidad mejorar la calidad de vida de
las personas y llegar a la verdad, pero si tuviera facultad absoluta podría por su pasión perder el equilibrio. Así
que podríamos decir que la ética estudia y reflexiona sobre los efectos que la práctica científica pueda generar
en cuanto a si son correctos o incorrectos. Ya que en el ejercicio científico se enfrentaran situaciones en las
cuales entran en juego los principios éticos. Y puede clasificarse en dos la ética interna y externa:
“La ética interna es necesaria para el funcionamiento mismo de la ciencia. Consta de reglas no escritas, pero
bien reconocidas y aceptadas por la comunidad científica, que ningún científico puede violar sin arriesgarse a
perder el derecho a ser considerado parte de dicha comunidad”.
“La ética externa de la ciencia es la que se relaciona con los efectos de ésta en la sociedad o el ambiente.
Incluye reglas como la que impide experimentar con humanos, o la que exige reducir al mínimo el sufrimiento
de los animales de laboratorio o los daños que se causen a un ecosistema al estudiarlo”.

Tecnología y tecnociencia
Tecnociencia
La tecnociencia es un proceso cognitivo donde la producción de conocimiento científico se caracteriza por ser
un proceso hiper-tecnologizado, delegado fundamentalmente en instrumentos técnicos, permitiendo una
mayor aceleración y mayor escala de producción de conocimientos con aplicación inmediata para solucionar
problemáticas específicas.
Tecnología
El desarrollo tecnológico alcanzado permitió a la humanidad abandonar por primera vez la superficie terrestre
en la década de 1960, con lo que inició la exploración del espacio exterior.
La tecnología es la ciencia aplicada a la resolución de problemas concretos. Constituye un conjunto de
conocimientos científicamente ordenados, que permiten diseñar y crear bienes o servicios que facilitan la
adaptación al medio ambiente y la satisfacción de las necesidades esenciales y los deseos de la humanidad. Es
una palabra de origen griego, τεχνολογία, formada por téchnē (τέχνη, arte, técnica u oficio, que puede ser
traducido como destreza) y logía (λογία, el estudio de algo).
Aunque hay muchas tecnologías muy diferentes entre sí, es frecuente usar el término tecnología en singular
para referirse al conjunto de todas, o también a una de ellas. La palabra tecnología también se puede referir a
la disciplina teórica que estudia los saberes comunes a todas las tecnologías, y en algunos contextos, a
la educación tecnológica, la disciplina escolar abocada a la familiarización con las tecnologías más
importantes.

Conflictos entre ciencia-técnica y la ética


La ciencia y la técnica necesitan una ética de la responsabilidad que analice y evalúe sus consecuencias. El
autor señala que la reflexión ética debe generarse dentro del discurso científico y técnico. En el artículo se
plantean una serie de interrogantes cuyas respuestas generan nuevas preguntas sobre la ética y el desarrollo
científico y técnico.
Science and technology need ethics of responsibility that analyze and evaluate its consequences, The author
points out that the ethic reflection must be carried out within the scientific and technical discourse. In the
article he makes a series of questions whose answers generate new questions about ethic and scientific and
technical development.
En el mundo actual tan complejo, en el que la antigua división entre técnica y ciencia ha quedado obsoleta y
en la que otra componente inexcusable de la investigación científica es la económica, tanto en el aspecto de
inversión y fuentes de financiación como en el problema, también ético, de selección de objetivos, se debe
hablar ante todo de la responsabilidad social del científico. Con ello surge una amplia problemática sobre la
evaluación, exigida por una ética de la responsabilidad, de las consecuencias directas e indirectas de la ciencia
y de la técnica.
Encontramos en esta problemática un primer nivel que podríamos denominar de tematización del
problema que exige una colaboración interdisciplinaria entre científicos y técnicos de la especialidad en
cuestión, en contacto con juristas, filósofos y teólogos. A título de ejemplo citaría como ámbitos concretos los
de la física nuclear, la biogenética y la medicina, el impacto de las industrias y de ciertos productos químicos
en el medio ambiente, la elaboración electrónica de la información, la selección de objetivos económicos y la
asignación de recursos, etc. En este nivel se fijaría claramente el problema para comprender de la mejor
manera posible los datos fácticos de la situación y sus previsibles consecuencias. El aspecto ético se centraría
en el riguroso estudio de la complejidad de este tema, sin reduccionismos ni aplicación precipitada de
principios éticos generales. La reflexión ética se debe hacer desde dentro del discurso científico o técnico
directamente afectado.
El segundo nivel presenta características especiales que merecen una reflexión distinta, más difícil. Al entrar
en el terreno de forma explícita, directamente ético, se nos propone una difícil cuestión epistemológica por
tratar ya específicamente de la evaluación ética del problema tematizado englobando en él sus
consecuencias. La dificultad estriba en la fundamentación seria, rigurosa, de las valoraciones éticas necesarias.
Cuando en la comunidad científica se discute un problema, se establece un debate público y racional. La
argumentación se estructura sobre proposiciones científicas que pueden ser controladas mediante el análisis
lógico y la observación empírica. Con esta piedra de toque, las proposiciones científicas deben ser aceptadas
por cualquier persona libre, imparcial y mentalmente sana. Si alguien no las acepta podemos intentar
convencerle apelando a la predictabilidad de tales proposiciones. Si la predicción se cumple, se evidencian
como verdaderas. Desde el punto de vista cognitivo, con la apertura al debate racional, la ciencia presenta un
balance claramente positivo.
Otro es el estatuto epistemológico de la ética. Para muchas personas, los juicios morales son tan sólo la
expresión de preferencias subjetivas y de posiciones personales. La razón es muy simple: los juicios éticos no
se pueden controlar de la misma manera que las proposiciones científicas y si las queremos presentar como
deducción de unos principios morales, trasladamos la dificultad a ese otro nivel: tampoco los principios son
controlables por ninguno de los métodos de investigación científica. La conclusión es, a primera vista,
catastrófica: en una sociedad pluralista y de juicios morales contrapuestos, cuando se da entre diferentes
personas una coincidencia en la admisión de ciertos principios, nos parece más el fruto del azar que de la
razón e incluso un suceso excepcional.
Para eludir este escollo, en la práctica se suele admitir que el aspecto ético de la valoración, y de sus criterios,
se muestra por sí mismo una vez captados correctamente los datos fácticos de la situación actual y de sus
consecuencias.
Así parecen actuar quienes apelan, por ejemplo, en última instancia, a la supervivencia humana. Esta
alegación plantea muchos problemas epistemológicos: ¿es la supervivencia un principio último o lo es una
supervivencia digna? ¿Qué quiere decir digna? ¿Afectaría la supervivencia de igual manera a todos los grupos?
En casos de consecuencias ecológicas graves, ¿deberían abstenerse de ciertas actividades los grupos actuales
en aras de los riesgos que afectarían a sus descendientes? Pero, más radicalmente, ¿es que cualquier
consecuencia puramente material, por favorable que sea, es éticamente buena? Esto no lo aceptaría ni el
utilitarismo más extremado ni esquivaríamos el engorroso escollo de la falacia naturalista, es decir, de dar el
salto lógico del «ser» al «debe ser», de cualquier bien fáctico al bien moral. Entonces, ¿qué criterios tenemos
para clasificar las consecuencias en éticamente buenas y malas? ¿Una pura intuición subjetiva? ¿Una pura
decisión fáctica, sin más? ¿Cómo conseguir entonces el consenso? ¿Sería deseable una imposición dictatorial,
aunque fuera pronunciada por un senado de «sabios», para toda la humanidad, comprometiendo incluso el
futuro? ¿No sería esto una decisión puramente técnica, no moral, y, desde el punto de vista de este aspecto,
sin fundamento racional?
El recurso a criterios jusnaturalísticos padece de las mismas limitaciones: confundir el comportamiento
mecánico de la naturaleza con una guía moral y entender esa guía moral desde la intuición de bondad ética de
los procesos naturales que nadie puede legitimar. Y si se legitiman desde la comprensión de un dios creador,
con voluntad de crear un mundo paradigmáticamente guía de la acción moral, esta fe, no fundamentable
teológicamente, no ofrece garantías de ser compartida por quienes no comulguen en la misma.
Ya tenemos, pues ante nosotros un doble desafío, uno externo y otro interno, que resume muy bien Karl-Otto
Appel:
«El desafío externo consiste, evidentemente, en las consecuencias prácticas éticas de las ciencias en la
sociedad industrial contemporánea, que pueden conducir a una crisis nuclear y ecológica o a una violación
programada y sin obstáculos de la privacidad humana. Por primera vez en la historia humana, este desafío
plantea la urgencia de algo como una macroética, a nivel universal, de la responsabilidad de la solidaridad
humana. El desafío interno de los fundamentos de la ética de parte de la ciencia procede del hecho de que el
paradigma de la racionalidad científica, fundado en la lógica y el recurso de la experiencia, y que parece ser el
único abierto al debate público, no es aplicable a la argumentación ética.»
La paradoja se da en la relación contradictoria entre el desafío externo e interno. Podríamos sintetizarlo así:
el desafío externo consiste en que la racionalidad no valorativa de la ciencia o de la técnica garantiza una
eficacia operativa que exige, sin embargo, hoy más que nunca, una valoración racional ética de las
consecuencias directas e indirectas de la acción.
El desafío interno se expresaría de esta manera: si la racionalidad de la ciencia no valorativa es realmente
también el modelo de la racionalidad ética, ésta, que no se puede ajustar a ese modelo, no puede proveernos
de los criterios universales para valorar racionalmente las consecuencias.
Por tanto, las mismas ciencia y técnica, que reclaman una ética de la responsabilidad y se presentan como
modelo indiscutible de debate racional, parecen demostrar la imposibilidad de una ética racional de la
responsabilidad.
Obviamente que, cuando se nos muestra la ética como imposible, lo es en la hipótesis de que el paradigma de
la racionalidad científico-técnica fuera el único posible. Pienso, sin embargo, que esta exclusividad no es tal. El
éxito del método experimental y la aplicabilidad de la matemática a las ciencias de la naturaleza llevaron al
hombre de la Ilustración a considerar el paradigma científico exclusivo de todo saber que supera el
resbaladizo terreno de la opinión.
Para el hombre de la Ilustración, «la naturaleza estaba escrita en lenguaje matemático». La matemática podía
expresar mediante fórmulas las leyes de la naturaleza inducidas a partir de la experimentación. Las relaciones
lógicas que el espíritu podía determinar infaliblemente, porque se referían a combinaciones que el espíritu
producía según sus propias leyes, reaparecían en el juego de las fuerzas de la naturaleza. Las leyes más
profundas de la razón coincidían con las leyes de los movimientos físicos. Parecía que se había colmado el
abismo que asustaba a Platón entre la inteligencia pura de los sentidos, entre la lógica, y la experiencia
sensible.
La filosofía de la ciencia actual no es tan optimista. Ni siquiera se atreve a decir que las leyes científicas
expresan la «verdad» de la naturaleza. Ya no la retratan, tan sólo nos acercan a ella, son provisionales y útiles
mientras que no se demuestre que los hechos experimentales se les resistan, momento en que convendrá
dejarlas de lado o limitarlas en sus pretensiones, como ha sucedido en las leyes de Newton tras los
planteamientos de Einstein (Popper). O ni siquiera eso, un paradigma científico (por ejemplo, el copernicano)
se escoge no porque sea verdadero, sino porque es más sencillo y más fecundo (Kuhn). Ni siquiera desde
dentro de un sistema matemático se puede decidir más que su coherencia. (Gödel).
Ante ello cabe plantearse la cuestión en los siguientes términos. La racionabilidad propia de la ética es la
racionalidad práctica de la que nos habla Aristóteles, no es la racionalidad teórica la que se debe imponer al
debate ético; sí que se puede, sin embargo, tomar como modelo de argumentación ética el esquema de la
argumentación científica.
Digamos en pocas palabras qué es para Aristóteles la racionalidad práctica. Para el filósofo griego, el espíritu,
como específicamente humano, tiene dos actividades, una por la que contempla las esencias de las cosas, a la
cual llama racionalidad teórica o científica y otra que contempla lo que se puede producir, y ello según dos
aspectos, el objeto producible o racionalidad técnica, y la acción que lo produce racionalidad práctica como
tal. Ésta se fija en la acción en cuanto que perfecciona a su agente, al hombre, que tiene como último fin
alcanzar la plenitud de su naturaleza. Así como el cálculo o deliberación en la técnica consiste en establecer la
oportuna secuencia de medios para construir el objeto previsto, en la ética, el cálculo consistirá en ver si
aquella acción o secuencia de acciones contribuye al perfeccionamiento humano, tanto del agente como
implícitamente (dada la pretensión de la universabilidad de las proposiciones éticas) de toda la humanidad. El
bien del hombre como tal, no como artesano o como ser animal o como esteta, que serían bienes parciales, es
el que tiene, por tanto, que justificarse racionalmente. Con la racionalidad no de la matemática y sus
exigencias lógicas, o de la ciencia controlada por la experiencia, sino con la racionalidad de lo que en el ámbito
humano se considera que contribuye al bien del hombre genérico e individual, entendido en su integridad.
Esta afirmación plantea a su vez algunas nuevas preguntas. Implica sencillamente que si hablamos del «bien
humano» introducimos un nuevo problema: ¿qué es el bien humano? ¿quién lo va a decidir?
El bien humano parece un concepto vago. Pero lo podemos connotar suficientemente. Podríamos decir que es
«bien humano» el que cumple estas dos condiciones:
• En una situación histórica determinada, bien humano es el que mejor contribuye a liberar el hombre de las
servidumbres impuestas por la naturaleza externa y le hacen avanzar hacia el dominio racional de ésta, que
excluye, por tanto, todo abuso sobre la misma.
• En esa misma situación pertenece al bien humano aquella acción o secuencia de acciones que más
contribuyen a la realización de relaciones interhumanas basadas en/y productoras de plena libertad, equidad
y paz para todos los individuos, sin olvidar las futuras generaciones.
Con estas dos condiciones podríamos establecer, grosso modo, un paralelismo entre:
a) la argumentación científica y
b) la argumentación ética.
a) La argumentación científica en su expresión más genérica se rige por este esquema:
La proposición (x) es verdadera porque viene garantizada por una ley general (x') basada en repetidos
experimentos de laboratorio que han permitido formularla (x").
b) La argumentación ética se rige por este esquema:
La proposición ética (y) es válida porque la garantiza una norma moral general (y') fundada en un principio
universal (y''), basado a su vez en una concepción minimalista del hombre común en todas las culturas (y''').
Como es suficientemente obvio el modelo de la argumentación científica, pondré un ejemplo de la
argumentación ética:
«Es éticamente reprobable derramar productos gravemente contaminantes en el río R (y) porque hay una
norma moral que prohíbe perjudicar los bienes públicos (y'), fundada en el principio general de que no se
debe hacer mal a nadie (y'') y que todo hombre y en cualquier lugar preferirá una sociedad en la que se
garantizare el uso público del agua de calidad, ya que ésta es necesaria para la vida, tanto directamente
(bebida) como indirectamente (riego), etc. frente a otra sociedad en la que no hubiere tales garantías.»
Como se aprecia, esta argumentación es racional, o mejor, razonable, puesto que se pueden presentar
argumentos inteligibles y defendibles, no atiende a las motivaciones personales de cumplimiento que pueden
ser religiosas, ideológicas, etc. y establece unos mínimos compartibles por toda persona mentalmente sana y
de buena voluntad.
Establecemos una distinción entre principios y normas. Los principios sólo son dos, el de no maleficencia y el
de justicia. El de no maleficencia se despliega de mayor a menor obligatoriedad en las siguientes
formulaciones:
Principio de no maleficiencia
a) no se debe hacer el mal
b) se debe impedir el mal
c) se debe eliminar el mal
d) se debe hacer y promover el bien.
En esta consideración, junto con las acciones se deben tener en cuenta unas consecuencias, con lo cual se
excluye la negligencia. Finalmente, como puede haber conflictos entre normas derivadas del mismo principio
en los grados de obligatoriedad se debe tener en cuenta el principio de doble efecto.
El principio de justicia se reconoce básico en toda sociedad. Se formula según dos aspectos: «la obligación de
devolver lo que se debe» y «la retribución a cada cual en proporción a sus méritos». Se expresa en
ordenaciones que apliquen estos criterios imparcial e igualmente a todos y cada uno de los miembros de la
sociedad.
Estos principios, que presuponen el de autonomía de la persona y su consecuencia de que ésta siempre debe
ser mirada como fin y no como medio, constituyen el último recurso de la argumentación ética junto con
aquella concepción minimalista del hombre enunciada anteriormente y son irrenunciables.
Las normas, derivadas de los principios, son modificables según el entorno cultural y constituyen la base
deontológica de las sociedades o de los grupos, por ejemplo, las corporaciones profesionales. Los casos
concretos se deben discutir según este ascenso: del caso a la norma, de la norma al principio, del principio a la
preferencia social (un tipo de sociedad mejor al servicio de la persona que se funda en última instancia en una
concepción del hombre que expuesta en sus exigencias mínimas todos pueden aceptar).
Creemos, ahora ya en una última derivación pedagógica, que desde este punto de vista se puede defender un
debate racional y público de las implicaciones éticas de cualquier decisión técnica y que aquellos dos criterios
de bien humano señalado nos pueden centrar la tematización que indicábamos al principio.
Por ejemplo, política de inversiones empresariales, organización de la empresa/cuál favorecería mejor una
eficacia unida a un desarrollo humano y a un modelo más excelso de técnico o investigador); relación de la
empresa con el medio ambiente/problema ecológico, selección de objetivos, localización del trabajo, espíritu
de colaboración, equipo de consulta multidisciplinaria, política de promoción de personal, manipulación de
datos reservados, confidencialidad, etc. Esto en el ámbito de la ética empresarial. Análogamente podríamos
hacerlo en cuestiones que afecten a la bioética o a las específicas ramas de la ciencia y la técnica.
Lo más importante es que así se ofrece un método de paso singular a la norma y de la norma al principio. Al
mismo tiempo en decisiones ante una difícil situación, se proveería al agente del bagaje suficiente para decidir
con fundamento y seriedad.

Educación ambiental para el desarrollo sustentable


Dimensión ética de la relación hombre-naturaleza
1. Es imprescindible comenzar por tomar conciencia de los graves ataques que a la tierra se dirigen, en
aras de un mal entendido sentido del verdadero “progreso”.Es urgente la tarea de adoptar actitudes
de ética básicas de cara al respeto a la ecología natural en todos los sentidos.
2. 2. Ecología • Por ecología se entiende el estudio de la relación natural que se establece entre los
organismos y su medio ambiente físico y biológico.
3. 3. Medio Ambiente • El término medio ambiente denota el conjunto de elementos abióticos (energía
solar, suelo, agua y aire), y bióticos (organismos vivos) que integran la delgada capa de la tierra
llamada biosfera, sustento y hogar de los seres vivos.
4. 4. Fenómeno natural • Se refiere a cualquier expresión que adopta la naturaleza como resultado de su
funcionamiento interno. Ejemplo lluvias torrenciales, maremotos , temblores, huracanes, etc. Tsunami
5. 5. PROBLEMAS AMBIENTALES Reducción de la Biodiversidad Contaminación Y extinción de especies y
Escasez de Agua Cambio Climático Desertificación y Deforestación Contaminación Atmosférica
6. 6. Desarrollo Sostenible • Desarrollo sostenible es un término aplicado al desarrollo económico y social
que permite hacer frente a las necesidades del presente sin poner en peligro la capacidad de futuras
generaciones para satisfacer sus propias necesidades
7. 7. Educación Ambiental • Con el término Educación Ambiental se identifica el proceso que consiste en
reconocer valores y aclarar conceptos con el objeto de fomentar las aptitudes y actitudes necesarias
para comprender las interrelaciones entre el hombre, su cultura y su medio físico.
8. 8. Ciudadanía ambiental • “Toda persona tiene derecho a un medio ambiente adecuado para su
desarrollo y bienestar” • Art. 4º fracc. Tercera de la Constitución Mexicana Reserva Biosfera El Cielo,
Tamps.
9. 9. Códigos Éticos Ambientales Protocolo de La Declaración y la Protocolo de Kioto Montreal
convención de Río • Relativo al uso de • 1992 Río de • Entra en vigor el sustancias que Janeiro Brasil,
16 de Febrero del agotan la capa de llamaba a todas 2005 tiene por ozono, entró en las naciones a
finalidad que los vigor en Junio de colaborar en la países más 1989 protección y industrializados
restauración del reduzcan sus medio ambiente emisiones de gases contaminantes

Ámbito: individual, social e internacional


Individual: el hombre para vivir necesita transformar la naturaleza por el medio del trabajo produce un
mundo más allá de lo natural. Debe cuidar la naturaleza.
La naturaleza tiene todo para que el ser humano se alimente, viva, se reproduzca, pero el hombre a su vez no
hace lo suficiente para cuidarla, como individuo hay que tomar conciencia y buscar opciones para que la
ecología mantenga su equilibrio.
Hemos transformado esa naturaleza para vestir, calzar, comer, beber, la naturaleza nos ha dado la materia
prima sin embargo lo que hemos hecho para con ella, es ensuciar los mares y ríos, contaminando bosques,
haciendo un desequilibrio en el ecosistema.
Para poder contribuir y mantener esa ética con la naturaleza como individuo:
Reciclar, reutilizar, reducir, evitar.
Reducir: la cantidad de productos que consumimos. para fabricar todo lo que utilizamos necesitamos materias
primas, agua, energía, minerales, que pueden agotarse o tardar muchísimo tiempo en renovarse.
Reutilizar: Cuantos más objetos volvamos a utilizar menos basura produciremos y menos recursos tendremos
que gastar. –
Reciclar: El papel y el cartón, el vidrio y los restos de comida o materia orgánica pueden reciclarse sin
problemas. Para esto, hay que separar cada residuo en diferentes contenedores en color azul - para el papel -
o en color verde - para el vidrio -.
Evitar: si dejamos de comprar y utilizar este tipo de productos dañinos para el medio ambiente y empezamos
a pedir productos que respeten más la naturaleza, consuman menos energía y puedan reutilizarse o
reciclarse, la industria y los comerciantes tendrán que empezar a cambiar.
Internacional
El ser humano, como ser social, posee una moral expresada en sus acciones tanto hacia sus semejantes, como
al medio, aislado de los cuales realmente no podría vivir. Los únicos seres racionales que habitan nuestro
planeta tierra, somos nosotros los seres humanos, por ello hemos transformado el entorno de acuerdo a
nuestras necesidades y creado una serie de aditamentos para facilitar el trabajo, creyendo obviamente que de
esta manera mejoramos las relaciones con el medio ambiente; sin embargo ninguna relación puede ser
sostenible si no es reciproca, de acuerdo a esto y si analizamos un poco la relación ser humano –
medioambiente, observaremos que es el primero quien siempre se ha beneficiado a costa del segundo,
¿cómo ha sucedido esto?
Bueno, primero se comienzan a extraer todo tipo de recursos naturales, sin preocuparnos por la relación de
respeto y cuidado a quien nos provee de todo cuanto necesitamos y utilizamos: la naturaleza. Ahora por
medio del desarrollo de máquinas, que si bien han facilitado el trabajo y acortado las distancias, no se ha
tenido consideración de las toneladas de gases tóxicos que arrojadas al medio causan el efecto invernadero y
el agrandamiento de los hoyos de la capa de ozono, lo cual acumulado por décadas, causa tal contaminación
atmosférica que genera cambios en el clima global. De ahí los tornados y huracanes que están atacando
agresivamente a las zonas costeras del caribe y la lluvia ácida y sus efectos sobre los cultivos o construcciones
milenarias en donde se han observado sus secuelas.
No obstante nos quejamos de las inclemencias climáticas, de que llueve en época de verano, de que las
inundaciones causan efectos negativos sobre la producción agrícola, sobre la calidad de vida de los habitantes
de las zonas afectadas; olvidando que en algunas ocasiones estas inundaciones se deben a que los mismos
vecinos de ríos, quebradas, caños y humedales vierten sus basuras directamente en ellos, tapando sin
consideración las tuberías o acabando los cuerpos de agua, causando desastres que en el mejor de los casos
tienen únicamente impactos materiales.
El comportamiento del hombre ante la naturaleza a partir del desarrollo científico-técnico deviene
preocupación para la humanidad, lo que puede conducir, según Delgado (2007), “a un tránsito de una
sociedad del conocimiento, como se le ha llamado a la era actual, a una sociedad del riesgo”, dado por la
aplicación, pudiéramos decir irresponsable que se hace de la ciencia por determinados grupos de la sociedad.
Lo anterior permite comprender que es inminente hacer uso del lenguaje y la comunicación para producir
conocimientos que se dirijan al logro de la responsabilidad social, la ética y los valores que tanto necesita la
humanidad.
Desde este punto de vista hay que pensar con profundidad en el valor de la información que se genera y se
expone mediante las diferentes vías de acceso al discurso público y la implicación de esta en la regulación de
los modos de actuación de los hombres y su conducta ante la naturaleza, dejando claro que la actitud
irresponsable ante ella lo conduce a su propia desaparición como especie humana.
La agudización de las políticas de guerra y de posesionamiento que invaden a todo el universo en este sigloXXI
y el acelerado auge del conocimiento y saberes universales, exigen un diálogo permanente y profundo entre
las sociedades; un diálogo que se dirija el desarrollo creciente de las relaciones humanas desde una
perspectiva holística, pero donde se tomen en consideración las diferencias de culturas y valores que
caracterizan a las comunidades, sin querer imponer las ideologías, políticas, costumbres y creencias de unos
en otros; es esta sed de apoderamiento y visión del equilibrio lo que conduce a la destrucción de la
humanidad.
La sociedad debe organizarse y funcionar en la órbita de un sistema de valores instituidos y reconocidos
oficialmente. Es necesario que se contribuya a reforzar la conciencia ambiental en los individuos, llamados a
formar una personalidad socialmente activa, consciente y altamente moral que no retroceda en circunstancias
difíciles, sino que actúe de modo racional y adopte decisiones correctas en defensa del medio natural. 


Por lo pronto, la humanidad necesita de una comunicación que vaya más allá del conocimiento científico
para acceder a la cotidianidad y la espiritualidad; se han de remover las luchas sociales en defensa de lo
propio, de lo particular y lo singular para detener la exclusión y la marginalidad creada por el propio hombre
en busca de una falsa equidad.
La incoherencia entre el discurso y el comportamiento moral, merece un
marco propicio que consolide los saberes pertinentes ante el contexto actual, en buena medida, el origen de
las contradicciones y ambigüedades del comportamiento de los seres humanos con su medio, han tenido
como base la carencia de un diálogo profundo y de acercamiento a las realidades a las que se exponen los
hombres en su contexto habitual.
Posición de los países menos desarrollados
El punto de vista de los países menos desarrollados (PMD) no es homogéneo. Pero a parte de esto, lo cierto es
que hay unas ciertas posiciones comunes.
Joao Augusto de Araujo Castro, Representante Parlamentario que fue de Brasil en las Naciones Unidas, ha
sido uno de los mayores portavoces de los PMD.
Araujo sostiene que, los principales problemas ecológicos se dan en los países industriales (PI), en los cuales,
en muy poco se ha pasado de la más completa despreocupación por el entorno a una especie de verdadero
culto a la naturaleza.
Por otro lado, el problema fundamental no es el que identifica la crítica, que en general lo polariza todo en el
crecimiento demográfico en los PMD, sino que radica en la sostenible y creciente contaminación de la
abundancia, característica de los PI, así como en el despilfarro en gastos militares.
Por todo ello, una política ecológica de ámbito mundial, requiere al propio tiempo todo un compromiso
mundial al desarrollo, que tenga en cuenta la relación existente entre la preservación del medio ambiente y la
urgente necesidad de acelerar el progreso socioeconómico en los PMD, a fin de lograr, en definitiva, que se
atiendan simultáneamente ambos aspectos.
Hoy la cuestión ecológica ha tomado tales dimensiones que implica la responsabilidad de todos. Los
verdaderos aspectos de la misma, indican la necesidad de esfuerzos concordados, a fin de establecer los
respectivos deberes y los compromisos de cada uno: de los pueblos, de los Estados y de la Comunidad
internacional. Esto no sólo coincide con los esfuerzos por construir la verdadera paz, sino que objetivamente
los confirma y afianza. Incluyendo la cuestión ecológica en el más amplio contexto de la causa de la paz en la
sociedad humana, uno se da cuenta mejor de cuán importante es prestar atención a lo que nos relevan la
tierra y la atmósfera: en el universo existe un orden que debe respetarse; la persona humana, dotada de la
posibilidad de libre elección, tiene una grave responsabilidad en la conservación de este orden, incluso con
miras al bienestar de las futuras generaciones.
Social
La naturaleza es una parte muy importante para todo ser vivo, en los seres humanos es necesario
transformar la naturaleza por medio de trabajo, produciendo algo más allá de lo natural, pero es muy
importante que toda acción sea pensando en no dañar el ecosistema, desafortunadamente a la gran mayoría
de los seres humanos no les importa hacerle daños, lo ``importante´´es generar dinero para su alimentación y
darse una vida de lujos y sin pensar que con el paso del tiempo todo nuestro medio ambiente se mira
afectado acortando su periodo de vida, un ejemplo muy claro que podemos hacer notorio es el sobre
calentamiento global y la extinción de varias especies animales.
Hay muchísimas maneras de cuidar la naturaleza, es algo muy bello que tenemos en este mundo y está por
todos lados, pero desgraciadamente la estamos desgraciando.
Unos pasos para cuidar nuestra naturaleza son:
-Reciclar
-No desperdiciar agua
-Tratar de usar el auto lo menos posible (No comprar autos que usen mucho gas)
-Proteger bosques (Plantar árboles en lugar de cortarlos)
-Proteger la fauna
-Ahorrar energía
-Envolverte en actividades ambientales
-Compartir tu deseo de cuidar esta tierra con otros.

Concepto y categorías para el análisis de la relación hombre-naturaleza


No cabe duda que uno de los temas más importantes que en la actualidad se discuten, tanto en foros
internacionales como en círculos académicos y políticos, es el del medio ambiente. La inquietud por estos
problemas conquistó su lugar en el debate público, limitándose básicamente a los problemas de la
contaminación. Con esta visión restringida de la problemática ambiental se iniciaron las discusiones previas a
la Conferencia de Estocolmo sobre el Medio Ambiente Humano (1972), entre cuyas actividades preparatorias
fue de especial significado la reunión de Founex (Ginebra, 1971). Fue allí donde por primera vez se intentó
establecer un vínculo entre medio ambiente y desarrollo.
La pregunta que se planteaba en ese momento podría formularse en los siguientes términos: ¿son medio
ambiente y desarrollo dos conceptos excluyentes?, ¿existe una dicotomía entre ambos? O más bien, ¿tiene
que considerarse el medio ambiente como parte integral del desarrollo?
De ser correctas las dos primeras formulaciones, nos enfrentan a una disyuntiva: la de elegir entre los
objetivos del desarrollo o la meta de la protección y el mejoramiento del medio ambiente. En cambio, la
tercera formulación asigna a la dimensión ambiental implicaciones socioeconómicas y políticas que obligan a
reexaminar los conceptos de desarrollo y medio ambiente y su interrelación mutua.
Por consiguiente, la aceptación de esta última postura --la que concibe el medio ambiente como parte integral
del desarrollo-- plantea la necesidad de definir cómo y a través de qué elementos, estructuras, acciones y
fenómenos se hace manifiesta la relación medio ambiente-sociedad-desarrollo.
Uno de los logros más importantes de la Conferencia de Estocolmo fue justamente demostrar que las políticas
aisladas o las medidas ad hoc, dirigidas a la solución parcial de los problemas ambientales, estaban destinadas
al fracaso a largo plazo. Ello se ha hecho evidente en algunas de las llamadas crisis --por ejemplo, las de
energía y alimentos--, en que las interrelaciones entre componentes ambientales y sociopolíticos se
manifiestan concretamente.
El enfoque iniciado en Founex y Estocolmo, que se hiciera explícito más tarde en la declaración de Cocoyoc
(México, 1974) y que culmina con el informe Brutland, ha ido clarificando cada vez más la relación orgánica
existente entre el medio ambiente físico y los aspectos económicos, sociales y políticos que definen un
determinado uso de la naturalea y de los recursos naturales. Tal relación se manifiesta en estructuras e
instituciones, en objetivos y políticas, en planes y estrategias, tanto a nivel nacional como internacional.
El desarrollo humano se ha caracterizado por un constante incremento de la capacidad cognsocitiva del
hombre y de su poder para actuar sobre la naturaleza. Sin embargo, dicho poder se ha visto enfrentado a un
encadenamiento dinámico de fenómenos y situaciones que paulatinamente se ha hecho más evidente,
planteándole nuevas exigencias en cuanto a sus acciones e instrumentos, así como en cuanto a su manera de
concebir y conceptualizar la realidad. Preservar en un conocimiento «lineal», compuesto de innumerables
disciplinas paralelas, no alcanza a cumplir ya sus objetivos científicos ni prácticos. El indispensable proceso de
desarrollo supone complementariedades y transformaciones que se dan en universos interdependientes. Las
políticas tendentes a frenar la creciente acumulación de desechos de todo tipo, las aglomeraciones urbanas
irracionales o el agotamiento de recursos básicos, no pueden ir contra el proceso de desarrollo, sino más bien
orientarlo, armonizándolo y adecuándolo al medio ambiente, el cual es, en último término, el que determina
las posibilidades del desarrollo social y expansión económica en el largo plazo.
La complejidad creciente de las interrelaciones entre fenómenos ha hecho que la relación sociedad-medio
ambiente se plantee cada vez más como un problema mundial que, desbordando lo puramente físico y
natural, atañe por igual a todos los sistemas socioeconómicos y a todos los grupos sociales; esta complejidad
también preocupa a todas las ideologías. Es, asimismo, una relación cuya comprensión sobrepasa el ámbito de
las ciencias particulares, exigiendo un constante esfuerzo de integración interdisciplinaria. Como señala Daniel
P. Moynihan, «tal vez el concepto de interdependencia ha llegado a ser el principal elemento de una nueva
conciencia en la sociedad mundial».1
La relación hombre-naturaleza como fenómeno social
El comportamiento obtuso de los hombres
frente a la naturaleza condiciona
su comportamiento obtuso entre sí.
Karl Marx.
La relación hombre-medio ambiente natural es, antes que nada, una relación unitaria, que implica una
interacción recíproca entre ambas entidades, que aisladas de su dialéctica carecen de sentido. No existe un
medio ambiente natural independiente del hombre: la naturaleza sufre siempre su acción transformadora y a
su vez lo afecta y determina en un proceso dialéctico de acciones e interacciones.
La historia del hombre ha sido la búsqueda constante de instrumentos y formas de establecer relaciones con
la naturaleza y, a través de este proceso histórico, la ha ido utilizando y adaptando a sus necesidades. Dicha
modificación permanente de la naturaleza afecta al mismo tiempo al hombre, originando cambios en sus
condiciones de vida y en las relaciones con sus semejantes.
Dentro de este proceso dialéctico de influencias recíprocas, la relación hombre-naturaleza no se da en
términos abstractos, sino del hombre en tanto grupo social, parte de un determinado sistema social, en un
medio ambiente específico. La relación del hombre con la naturaleza y la transformación que deriva de esta
relación es así un fenómeno social. No existe, por lo tanto, una escisión entre sociedad y naturaleza o, mejor
dicho, entre sistema social y sistema natural, debiendo éstos ser concebidos como partes de un todo, como
dos subsistemas interrelacionados, integrados a un sistema mayor.
El contexto general dentro del cual se mueve el hombre está determinado, por un lado, por aquellos
fenómenos físicos, geofísicos, biolóicos, químicos, etc., que plasman una realidad ambiental y cuya dinámica
es la de los fenómenos naturales. Y, por otro lado, por la presencia de la actividad humana, que define la
realidad social, realidad que --al transcurrir en una dimensión histórica-- trasciende el medio natural.
Si se acepta esta interdependencia hombre-sociedad-medio ambiente, entonces surge la necesidad de
enfrentar la problemática ambiental dentro de sistemas analíticos comprensivos, que representen, en forma
adecuada, esa realidad que históricamente se ha ido integrando hasta alcanzar una dimensión planetaria.
A lo largo de la historia, la acción del hombre sobre los procesos naturales se ha ido materializando en lo que
podría llamarse un medio ambiente construido, que se superpone al medio ambiente natural: el proceso
social-histórico se lleva a cabo en un lugar dado, en un espacio que preexiste a la vida humana y a cualquier
sociedad. Se trata del espacio físico, natural o, en su acepción más común, del medio ambiente. Con el
devenir histórico se va creando otro espacio que está básicamente determinado por las relaciones humanas y
por su modo de organización social. Junto al espacio físico preexistente se construye así un espacio social.
Ambos están estrechamente interrelacionados, a tal punto que no es posible distinguir el uno del otro de no
madiar un proceso analitico.
Estas consideraciones permiten concebir la relación medio ambiente-sociedad dentro de una dimensión
espacial. Al mismo tiempo, es importante tener presente la dimensión temporal subyacente a la interacción
entre ambas entidades: la relación sociedad-naturaleza no tiene sentido único; se trata de un proceso
esencialmente recíproco y cambiante. La intevención del hombre sobre el medio ambiente y las
consecuencias que de ello se derivan no son hechos o fenómenos aislados, sino que transcurren dentro de un
continuo temporal. Es preciso entonces conocer las relaciones en sus movimientos, en su dinamismo,
teniendo en cuenta que la acción del sistema social está ligada a su historia y a los tipos de organización que el
grupo adopta en un momento específico.
Al abordar la dimensión temporal, la existencia de dos tipos de tiempos se hace evidente: el tiempo en que
transcurre la sociedad humana y el de los sistemas naturales. El primero corresponde a la realidad social, que
va generando su propia sucesión a través de un proceso dialéctico, originando nuevas relaciones entre los
individuos y, por lo tanto, nuevos mecanismos de regulación del proceso social y natural. Este recurso
temporal está organizado en secuencias, cuyo término está definido por el cambio cualitativo que resulta de
la interacción dialéctica producida en su seno.
El proceso social se lleva a cabo dentro del ámbito natural representado por el conjunto materia-energía,
constituyentes de la biósfera. Este conjunto tiene también su tempo determinado por la duración de los
fenómenos biológicos, físicos, geofísicos y químicos. Su realidad temporal es anterior a la de los fenómenos
sociales y su ritmo es diferente.
Por lo general, las manifestaciones naturales son de muy largo transcurso, en cuanto a cambio cualificativo se
refiere, pero también pueden ser súbitas y violentas, alterando por completo un proceso y afectando
profundamente la base natural sobre la que se asienta la vida humana. Po otro lado, la realidad social y la
acción humana van modificando la naturaleza a un ritmo determinado de gestación y maduración previa a su
manifestación percibible. Se gestan así cambios en el sistema natural acordes a una realidad temporal propia
del sistema social.
La realidad social es regulada y modificada por el grupo de acuerdo con su forma de organización, su sistema
económico y su universo valórico. La realidad natural es regulada a su vez por la dinámica de los fenómenos
naturales.
Entre los sistemas sociales y el medio nautral existe un mediador: la tecnología. Cada vez en mayor medida el
grupo social se sirve de este mediador para obtener los bienes que requiere la satisfacción de sus
necesidades. Dichas necesidades cambian, dependiendo de las pautas culturales, de las estructuras
económicas, de las características políticas del sistema social en cada momento histórico y del proceso de
desarrollo. Se va produciendo así una progresiva diversificación y una complejidad creciente en las
necesidades sociales, que requieren, para ser satisfechas, un proceso productivo más sofisticado. Con ello, la
relación sociedad-medio ambiente se torna más intrincada e interdependiente.
La mayor complejidad de las relaciones medio ambiente-sociedad se manifiesta históricamente en distintas
formas de producción y en una red cada vez más estrecha de relaciones entre ellas. La creciente integración
del sistema mundial introduce en este proceso dinámico un nuevo elemento. En efecto, las acciones del
hombre sobre un determinado ecosistema natural, en un espacio geográfico definido, afectan otros sistemas
naturales, a veces muy distantes. Y, lo que es aún más importante, el proceso decisional en el mundo de hoy
se lleva a cabo en espacios sociales, económicos y naturales a menudo diferentes y geográficamente distantes
de aquellos en los que prácticamente se ejecutará.
Se conforman así sistemas más globales de relaciones en los que la dinámica entre medio ambiente y
sociedad deja de ser inmediata para verse afectada, influida o determinada por las acciones de otros grupos
sociales distantes, tanto espacial como temporalmente.
De lo anterior se deduce que medio ambiente y sociedad no sólo se deben analizar en su dimensión espacial,
sino también en función de los periodos históricos por los que atraviesan y por las formas de organización
social que se adoptan en cada uno de ellos. Espacio y tiempo son, pues, las dimensiones en que coexisten el
sistema social y el sistema natural, no en tanto categorías abstractas, sino como entidades reales de un
proceso concreto. En este contexto, periodos históricos y sistemas espaciales de relaciones generan sus
propias estructuras conceptuales que, en el marco de formas de producción específicas, dictan estrategias de
desarrollo y procesos de gestión del medio ambiente.
No existe una ciencia que sea independiente de un determinado contexto ideológico, sino más bien una
relación funcional entre ciencia e ideología. Por lo tanto, en el estudio de esa relación, hay que explicar cuáles
son los objetivos subyacentes de la forma de conceptualización utilizada para definir la relación sociedad-
medio ambiente.
Aunque tradicionalmente las ciencias económicas no se han ocupado en forma explícita de dicha relación,
ésta subyace, ya sea en la interpretación o en el análisis del fenómeno económico y en los supuestos que en él
se adoptan. Por otra parte, el concepto de desarrollo es también un tópico relativamente reciente, no
definido por los clásicos, ignorado por los neoclásicos y asimilado al crecimiento económico por los
Keynesianos. Pero no cabe duda que las políticas que se derivan de las diferentes doctrinas suponen un
proceso de desarrollo, una intención en relación con el futuro.
En general, las ciencias económicas reflejan una determinada ideología y responde a la interpretación que, en
función de esa ideología, se hace de una específica situación histórica cada doctrina económica ha estado
condicionada por la circunstancia de su tiempo.
La relación entre la realidad y el pensamiento económico se concibe así como un proceso dialéctico, que hace
que el contenido doctrinal de la ciencia económica vaya cambiando a medida que cambia la sociedad.
Si la realidad está constituida por lo natural y lo social en su interrelación mutua, entonces la relación medio
ambiente-desarrollo es ineludible, íntima e inseparable. Esto implica que no es posible interpretar el
fenómeno del desarrollo prescindiendo de la dimensión ambiental y, consecuentemente, que no es posible
alcanzar objetivos y metas del desarrollo sin explicar la dimensión ambiental.
Toda concepción de desarrollo que proponga y orinte la actividad económica y social hacia determinados
objetivos, ignorando el contexto ambiental del sistema social, tarde o temprano llevará a un proceso de
deterioro del medio natural que, en el largo plazo, frustra el logro de los objetivos socioeconómicos. Por
consiguiente, en el largo plazo, las consideraciones de orden ambiental no pueden ser ignoradas so peligro de
que el proceso de desarrollo se vea comprometido. Por otra parte, una concepción estrictamente ecologista o
ambientalista, que haga abstracción del sistema social, sus conflictos en términos de poder, sus desigualdades
y sus desequilibrios, ocasionará también un deterioro del medio ambiente, al no considerar los factores
causales de orden socal y económico que dan origen a este deterioro y al aplicar criterios de racionalidad
ecológica ajenos muchas veces a los objetivos sociales. Así, por un lado, la sociedad opulenta explotará al
máximo el medio ambiente para satisfacer necesidades suntuarias o superfluas, mientras que los más
necesitados lo deteriorarán en su afán de proverse con el mínimo requerido para subsistir.
Los objetivos de desarrollo económico y social deben sustentarse en un manejo adecuado del medio. Más
aún, el medio ambiente es el conjunto de recursos que pueden ser explotados con racionalidad económico-
social y ambiental, para el logro de objetivos de desarrollo válidos a largo plazo.
Aceptando este enfoque, se llega a un concepto de desarrollo que implica la necesidad de un proceso
armonioso con el medio ambiente que, al mismo tiempo, no sacrifica sus objetivos sociales fundamentales.
Esta concepción de desarrollo exige no sólo una revisión del concepto mismo, con vista a considerar la
dimensión ambiental, sino también del alcance de otros conceptos que han sido asimilados al de desarrollo, a
fin de poner de manifiesto la ideología implícita en cada uno de ellos y los modos de gestión y acción son los
siguientes. En ellos se han subrayado --dependiendo de quién utiliza el término-- uno o más aspectos del
problema, pero nunca su totalidad. Es importante destacar que cada interpretación del término conlleva una
política definida, es decir, la aceptación de un determinado concepto presupone una orientación en la acción
futura. De ahí la necesidad de precisar la concepción de desarrollo frente a otros conceptos que pertenecen a
cuerpos teóricos diversos.
Así, desarrollo y riqueza son conceptos similares para algunos. Para otros, desarrollo equivale a riqueza e
industrialización. Otros más identifican desarrollo con riqueza y tienden a definir una política que maximice la
riqueza, mientras que los que asocian el desarrllo con la industrialización propiciarán la creación de industrias,
y quienes identifican desarrollo y crecimiento promoverán un proceso de expansión económica. Cada uno de
estos conceptos tiene sus raíces en interpretaciones económicas elaboradas en determinados momentos
históricos, para responder a problemáticas específicas y propias de la coyuntura, y reflejarán además la
ideología de quienes teorizaron y racionalizaron una situación dada, con vistas a justificar la acción política.

Ética y valores 2
3. Globalización y desarrollo de las naciones
Antecedentes
Aunque el término, como se ha visto, es de origen reciente, la idea general de la globalización es mucho más
antigua. En cierto sentido podría decirse que cuando Alejandro Magno extendió su imperio hasta arribar a la
India o cuando los fenicios recorrían las costas mediterráneas para realizar su comercio, por medio del
intercambio de mercancías, costumbres y cultura, de alguna forma se dio un incipiente proceso globalizador.
De la misma manera, el nacimiento de Cristo durante el primer siglo de la era cristiana tuvo lugar también
dentro de un evidente proceso de globalización suscitado por la influencia y poderío del Imperio Romano.
Probablemente la fe cristiana no habría prosperado a la velocidad que lo hizo de no ser por dicho proceso. La
predicación de Jesús se produjo en Palestina, en el lugar estratégico y en el momento histórico oportuno para
difundirse con rapidez entre las principales culturas de la época. No debe olvidarse que nuestro Dios es el
mejor estratega del universo que influyó decisivamente en la venida de Cristo a la Tierra, en su humanización,
así como en la elección del lugar exacto y la fecha idónea para su nacimiento. En este sentido, el apóstol San
Pablo escribe: “Pero cuando vino el cumplimiento del tiempo, Dios envió a su Hijo,...” (Gá. 4:4). O sea, en el
momento oportuno. El lugar y la época no fueron elegidos al azar sino muy sabiamente. La globalización
impuesta por las armas del Imperio Romano perduró durante algunos años pero se derrumbó con la invasión
de los bárbaros. Durante la Edad Media y en épocas posteriores hubo también intentos de crear grandes
imperios pero, en realidad, nada de esto era una verdadera globalización en el sentido actual del término sino
más bien tímidos esfuerzos de unificación por el poderío militar. El primer proceso globalizador basado
principalmente en razones económicas fue el que se dio a finales del siglo XIX y principios del XX. Los
economistas de hoy distinguen dos procesos de globalización: uno que abarcaría desde 1870 hasta 1914,
coincidiendo con la revolución industrial, y otro generado a partir de 1950 y que llegaría hasta el momento
presente. Lo que ocurrió en la primera globalización fue el abaratamiento de los costes energéticos y del
transporte. Esto fue consecuencia de la expansión de las redes del ferrocarril entre 1820 y 1850, del desarrollo
de las calderas de vapor en las industrias y de las mejoras en el transporte marítimo. Tales acontecimientos
fueron los principales motores del progreso así como en la actualidad puedan serlo la aviación, las
telecomunicaciones o el Internet. Si en 1830 el velero más rápido tardaba 48 días en viajar desde Europa a los
Estados Unidos, diez años después los vapores lo hacían tan sólo en 14 días. Esto supuso un gran adelanto al
que se le unió el invento del telégrafo. A partir de 1860 las principales ciudades del mundo estaban ya unidas
por este revolucionario sistema de comunicación. La revolución industrial contribuyó a crear un desequilibrio
entre los países que aportaban las materias primas y los industrializados que las necesitaban. Al mismo
tiempo se produjo una sobreoferta de productos innecesarios en los mercados que no podían venderse, a
menos que se fomentara de alguna manera su exportación al exterior más allá de las fronteras de los propios
países productores. Así apareció el concepto de liberalismo o librecambismo como la mejor solución a todos
los males económicos del planeta. Las fronteras se empezaron a abrir y hubo un gran intercambio de bienes y
mano de obra. Sin embargo, la cosa no funcionó. Al principio, la demanda creció y empezó a haber fuertes
movimientos migratorios desde Europa a los Estados Unidos, donde los obreros eran necesarios. Pero a
medida que la inmigración y la oferta de mano de obra fueron aumentando en Norteamérica, los salarios
empezaron a disminuir y se produjo la paradoja de que los obreros que habían permanecido en Europa
ganaban más que los que se habían marchado a América. El poder y el capital se fueron concentrando en las
grandes empresas, mientras que los perdedores acabaron resucitando el temido fantasma del
proteccionismo. Se empezó a impedir la importación de productos extranjeros y la experiencia acabó en el
desastre económico. La primera globalización dio marcha atrás y sólo duró 44 años. Después de unas décadas
oscuras en las que proliferaron los nacionalismos, el mundo se sumergió en la Primera Guerra Mundial. Se
produjo la Gran Depresión de 1929 y al poco tiempo sobrevino otro gran conflicto armado, la Segunda Guerra
Mundial. El segundo proceso globalizador que empezó en los años cincuenta y ha llegado hasta nuestros días,
no se desarrolló con tanta rapidez como el primero pero, por lo pronto, ya ha durado más tiempo que su
predecesor. También se ha visto frenado temporalmente por importantes crisis financieras como la de México
en 1994 que acabó extendiéndose a toda Latinoamérica y la del sudeste asiático de 1998, que se inició en
Tailandia y terminó afectando a vecinos tan alejados como Rusia y América Latina. No obstante, la
globalización económica actual ha venido superando hasta ahora todos los obstáculos con los que ha
tropezado. La mayoría de los expertos cree que seguirá avanzando de manera imparable porque, a diferencia
del proceso anterior, la globalización de hoy se apoya sobre fundamentos mucho más sólidos. El primero de
tales apoyos viene determinado por la increíble movilidad que posee el capital en la actualidad. Los adelantos
de las telecomunicaciones permiten que la globalización de los mercados financieros sea casi completa. Las
sumas billonarias que se mueven diariamente de unos países a otros en cuestión de minutos dejarían perplejo
a cualquier economista de principios de siglo. El segundo fundamento viene de la mano de los grandes
organismos e inmensos bloques comerciales. Instituciones internacionales de cooperación económica, como
el Banco Mundial o el Fondo Monetario Internacional (FMI) que suavizan los efectos que puedan causar las
crisis momentáneas de un determinado país o de muchos. La tercera razón de la actual estabilidad económica
global es la mayor interdependencia de las empresas. En la primera globalización se fomentó el
librecambismo de mercancías pero no el de las empresas. Sin embargo, hoy las compañías multinacionales
constituyen el soporte principal que permite el desarrollo del proceso globalizador. Ya no se trata sólo de
adquirir una materia prima barata cambiándola por productos manufacturados caros, sino que la producción
se traslada al propio país donde además la mano de obra es también más barata. Así, los distintos
componentes de un determinado producto se pueden fabricar en diferentes partes del mundo y ser
ensamblados en otra. El desarrollo de la tecnología es el cuarto punto de apoyo de la segunda globalización. El
mundo se ha convertido en una “aldea global”, en palabras de McLuhan (1990), que ya no requiere de 80 días
para ser recorrida por completo según pronosticaba Julio Verne en su famosa novela. Si el coste de una
llamada de tres minutos desde Nueva York a Londres era de 300 dólares, en el año 1930, actualmente
mediante el correo electrónico es prácticamente gratis. Los cambios experimentados en el mundo de los
transportes y de la comunicación permiten suponer que el actual proceso globalizador no tiene marcha atrás.
Estas dos últimas globalizaciones que acabamos de ver describen procesos económicos de la historia reciente,
sin embargo cuando en la actualidad se habla de globalización parece que se hace referencia a la etapa que
empieza a finales de los noventa durante el siglo XX. En 1989 la guerra fría mantenida durante años entre el
bloque capitalista y el bloque soviético se acabó porque uno de los dos, el capitalista, ganó la batalla. Para ser
más exactos, se podría decir que el día en que cayó el muro de Berlín empezó la globalización. Los EE.UU.
defendían un sistema de mercado capitalista centrado en la propiedad privada, mientras que la URSS
pretendía un sistema burocrático de planificación centralizada. En realidad, se trataba más de una guerra
entre los intereses económicos enfrentados de las dos grandes potencias mundiales que de un conflicto entre
principios morales o ideológicos. Estados Unidos venció en esta lucha y con su victoria se inició el proceso de
norteamericanización del mundo que caracteriza la actual globalización. El mismo invento informático de los
militares que hizo posible ganar la guerra fría, el Internet, es el que ha permitido después la globalización
especulativa.

5. educación ambiental para el desarrollo sustentable


La ecología
La ecología es la rama de la biología que estudia las relaciones de los diferentes seres vivos entre sí y con su
entorno: «la biología de los ecosistemas» (Margalef, 1998, p. 2). Estudia cómo estas interacciones entre los
organismos y su ambiente afectan a propiedades como la distribución o la abundancia. En el ambiente se
incluyen las propiedades físicas y químicas que pueden ser descritas como la suma de factores abióticos
locales, como el clima y la geología, y los demás organismos que comparten ese hábitat (factores bióticos). Los
ecosistemas están compuestos de partes que interactúan dinámicamente entre ellas junto con los
organismos, las comunidades que integran, y también los componentes no vivos de su entorno. Los procesos
del ecosistema, como la producción primaria, la pedogénesis, el ciclo de nutrientes, y las diversas actividades
de construcción del hábitat, regulan el flujo de energía y materia a través de un entorno. Estos procesos se
sustentan en los organismos con rasgos específicos históricos de la vida, y la variedad de organismos que se
denominan biodiversidad. La visión integradora de la ecología plantea el estudio científico de los procesos que
influyen en la distribución y abundancia de los organismos, así como las interacciones entre los organismos y
la transformación de los flujos de energía. La ecología es un campo interdisciplinario que incluye a la biología y
las ciencias de la Tierra.
Los antiguos filósofos griegos, como Hipócrates y Aristóteles, sentaron las bases de la ecología en sus estudios
sobre la historia natural. Los conceptos evolutivos sobre la adaptación y la selección natural se convirtieron en
piedras angulares de la teoría ecológica moderna transformándola en una ciencia más rigurosa en el siglo XIX.
Está estrechamente relacionada con la biología evolutiva, la genética y la etología. La comprensión de cómo la
biodiversidad afecta a la función ecológica es un área importante enfocada en los estudios ecológicos. Los
ecólogos tratan de explicar:
 Los procesos de la vida, interacciones y adaptaciones
 El movimiento de materiales y energía a través de las comunidades vivas
 El desarrollo sucesional de los ecosistemas
 La abundancia y la distribución de los organismos y de la biodiversidad en el contexto del medio
ambiente.
Hay muchas aplicaciones prácticas de la ecología en biología de la conservación, manejo de los humedales,
manejo de recursos naturales (la agroecología, la agricultura, la silvicultura, la agroforestería, la pesca), la
planificación de la ciudad (ecología urbana), la salud comunitaria, la economía, la ciencia básica aplicada, y la
interacción social humana (ecología humana). Los organismos (incluidos los seres humanos) y los recursos
componen los ecosistemas que, a su vez, mantienen los mecanismos de retroalimentación biofísicos son
componentes del planeta que moderan los procesos que actúan sobre la vida (bióticos) y no vivos (abióticos).
Los ecosistemas sostienen funciones que sustentan la vida y producen el capital natural como la producción
de biomasa (alimentos, combustibles, fibras y medicamentos), los ciclos biogeoquímicos globales, filtración de
agua, la formación del suelo, control de la erosión, la protección contra inundaciones y muchos otros
elementos naturales de interés científico, histórico o económico.

CIENCIAS EXPERIMENTALES MODULO 5


Matemáticas 1
1. INTRODUCCION AL ALGEBRA
Números reales
En matemáticas, el conjunto de los números reales (denotado por ℝ) incluye tanto a los números
racionales (positivos, negativos y el cero) como a los números irracionales;1 y en otro
enfoque, trascendentes y algebraicos. Los irracionales y los trascendentes2 (1970) no se pueden expresar
mediante una fracción de dos enteros con denominador no nulo; tienen infinitas cifras decimales aperiódicas,
tales como: √5, π, el número real log2, cuya trascendencia fue enunciada por Euler en el siglo XVIII.2
Los números reales pueden ser descritos y construidos de varias formas, algunas simples aunque carentes del
rigor necesario para los propósitos formales de matemáticas y otras más complejas pero con el rigor necesario
para el trabajo matemático formal.
Durante los siglos XVI y XVII el cálculo avanzó mucho aunque carecía de una base rigurosa, puesto que en el
momento prescindían del rigor y fundamento lógico, tan exigente en los enfoques teóricos de la actualidad, y
se usaban expresiones como «pequeño», «límite», «se acerca» sin una definición precisa. Esto llevó a una
serie de paradojas y problemas lógicos que hicieron evidente la necesidad de crear una base rigurosa para la
matemática, la cual consistió de definiciones formales y rigurosas (aunque ciertamente técnicas) del concepto
de número real.3 En una sección posterior se describirán dos de las definiciones precisas más usuales
actualmente: clases de equivalencia de sucesiones de Cauchy de números racionales y cortaduras de
Dedekind.
Razones y proporciones
Razón o relación de dos cantidades es el resultado de comparar esas dos cantidades.
Dos cantidades pueden compararse de dos maneras: restándolas o dividiéndolas.
Por ello, hay dos clases de razones: razón aritmética o por diferencia y razón geométrica o por cociente.
Razón aritmética o por diferencia
Es la diferencia indicada en dichas cantidades.
Se pueden escribir de dos maneras: separando las dos cantidades con el signo – o con un punto. Ejemplo:

Los términos de la razón se llaman antecedente el primero y consecuente el segundo.


En el ejemplo anterior 6 es el antecedente y 4 el consecuente.

Razón geométrica o por cociente


La razón geométrica o por cociente de dos cantidades es el cociente indicado de dichas cantidades. Se pueden
escribir de dos maneras: en forma de fracción o separadas por el signo de división (÷), que muchas veces se
sustituye por dos puntos(:).

Proporciones
PROPORCIÓN EQUIDIFERENCIA
Es la igualdad de dos diferencias o razones aritméticas. Es decir, dos razones que son iguales.

PROPORCIÓN EQUICOCIENTE.
Es la igualdad de dos razones geométricas o por cociente. Es decir, dos razones que son iguales.

Los términos de cada una de las razones de la proporción equidiferencia y de la proporción equicociente
reciben los nombres de medios y extremos.
Propiedades fundamentales de las proporciones aritméticas
1.- En toda proporción equidiferencia, un extremo es igual a la suma de los medios menos el otro extremo.

2.- En toda proporción equidiferencia, un medio es igual a la suma de los extremos menos el otro medio.

Propiedad fundamental de las proporciones geométricas


En toda proporción equicociente, el producto de los extremos es igual al producto de los medios.

Ejemplos resueltos con razones y proporciones


ALGORITMOS GEOMÉTRICOS Y ARITMÉTICOS
Un algoritmo es un conjunto ordenado y finito de operaciones que permiten hallar la solución de un
problema. Los algoritmos sirven para ejecutar una tarea y resolver problemas matemáticos. Para enlistar los
elementos de una sucesión, sea geométrica o aritmética, se hace uso de los algoritmos.
Series y sucesiones
Una sucesión es un conjunto ordenado de números formados de acuerdo con una regla dada. Si una sucesión
tiene un último término se le llama sucesión finita; si el número de términos es ilimitado, se le llama sucesión
infinita. La suma de los términos de una sucesión recibe el nombre de serie; una serie puede ser finita o
infinita, dependiendo de la sucesión que la genera.
Ejemplos de sucesiones y su correspondiente regla:
1. 5, 25,125, 625,… Cada elemento se multiplica por 5, para encontrar el siguiente.
2. 3, 5, 4, 6, 5, 7, 6,… Se suma 2, se resta 1, así sucesivamente.
3. 2, 3, 5, 7, 11,… Sucesión de números primos.
4. 4, 15, 224, 50175,… Al cuadrado, menos uno.
5. 1, 5, 2, 10, 3, 15, 4, 20,… Es una sucesión alterna, la posición impar corresponde a nú-meros naturales y la
posición par son múltiplos de 5.
Casos especiales de sucesiones son las progresiones aritméticas y geométricas.
Progresión aritmética
Una progresión aritmética es una sucesión de números tal, que cada uno de los términos posteriores a otro se
obtiene añadiendo al término anterior una cantidad fija llamada diferencia de la progresión.

2. Ecuaciones de primer grado


Ecuaciones de primer grado con una incógnita
Una ecuación es una igualdad entre dos expresiones algebraicas, denominadas miembros, en las que
aparecen valores conocidos o datos, y desconocidos o incógnitas, relacionados mediante operaciones
matemáticas. Se dice que una ecuación es de primer grado cuando la variable (x) no está elevada a ninguna
potencia, es decir, su exponente es 1. A continuación, en un Como te explicamos paso por paso como resolver
una ecuación de primer grado de forma sencilla.
Pasos a seguir:
1. Para resolver la ecuación agrupa los números a un lado del símbolo = todos los términos que tengan la
incógnita (x) y junta en el otro todos los términos que no tienen (x).
Para hacer esta transposición los signos que van delante de cada número cambian. Así, el que está sumando
en un lado pasa al otro restando y viceversa; y el que está multiplicando en un lado pasa al otro dividiendo.
Ejemplo:
Ecuación: 4x + 1= 2x + 7
Transposición: 4x - 2x = 7 - 1
2. Resuelve de forma separada las operaciones de cada lado del igual. Es decir para resolver la ecuación de
primer grado deber formular las operaciones hasta dejar un número a cada lado del igual.
Ecuación: 4x - 2x = 7 - 1
Resultado: 2x = 6
3. Finalmente para resolver la ecuación de primer grado el número que está multiplicando a la x pasa a dividir
el valor del otro lado del igual, en nuestro caso:
Ecuación: 2x = 6
Resultado x=6/2
Resultado final x=3

Sistemas de ecuaciones simultaneas lineales con 2 incógnitas


Métodos de resolución
 Método de sustitución
Es aconsejable en sistemas en los que aparecen coeficientes o .

1. Despejamos la de la primera ecuación:

2. Sustituimos en la otra ecuaciñon:


3. Resolvemos la ecuacón resultante:

4. Para averiguar el valor de sustituimos el valor de en la expresión obtenida el el paso 1

 Método de igualación

1. Despejamos la misma variable de ambas ecuaciones

2. Igualamos las dos expresiones anteriores

3. Resolvemos la ecuación resultante

4. Para calcular el valor de x sustituimos en cualquiera de las expresiones obtenidas en el


paso 1

 Método de reducción
Combinación lineal de ecuaciones: se multiplica una ecuación por ún número, la otra por otro número y se
suman. La ecuación resultante de una combinación lineal es equivalente a las ecuaciones originales del
sistema.
El método de reducción consiste en eliminar una incógnita del sistema.

1. Vamos a eliminar la . Para ello multiplico la ecuación de arriba por 3 y la de abajo por 2:

2. Sumando ambas ecuaciones desaparecen las x y nos queda

3. Para calcular x sustituimos en cualquiera de las ecuaciones originales. Sustituyendo en la


primera nos queda

Un sistema de 2 ecuaciones simultáneas con 2 incógnitas es un par de ecuaciones que tienen exactamente las
mismas 2 incógnitas. Este tipo de sistemas de ecuaciones simultáneas es muy común que aparezca en
problemas donde se plantean 2 sucesos distintos con las mismas cosas. De cada suceso se obtiene una
ecuación y las dos ecuaciones involucran las mismas cosas (mismas variables o incógnitas).
Un ejemplo clásico es el siguiente: Un niño es 25 años menor que su padre, dentro de 18 años el niño tendrá
la mitad de la edad del padre ¿Cuántos años tiene el niño y el padre? La solución, como puede verificarse, es
que el niño tiene 7 años y el padre 32.
Este tipo de problemas se suelen plantear como retos en reuniones y muy comúnmente son los niños los que
plantean este tipo de preguntas... ¡mas vale responderlas correctamente si no se quiere quedar como tonto!
Los métodos de solución de este tipo de sistemas son varios y muy diferentes entre sí. El más ampliamente
utilizado es el de “suma y resta”, pero hay métodos más sencillos que son de bastante utilidad cuando se
pueden plantear correctamente.
http://www.vadenumeros.es/tercero/sistemas-de-ecuaciones.htm

Sistemas de ecuaciones con 3 incógnitas


RESOLUCION DE UN SISTEMA DE TRES INCOGNITAS CON TRES INCOGNITAS
Para resolver un sistema de 3 ecuaciones con 3 incógnitas se procede de este método:
1) Se combinan dos de las ecuaciones dadas y se elimina una de las incógnitas (lo más sencillo es eliminarla por
suma y resta) y con ellos se obtiene una ecuación con 2 incógnitas.
2) Se combina la tercera ecuación con cualquiera de las otras dos ecuaciones dadas y se elimina entre ellas la misma
incógnita que se eliminó antes, obteniéndose otra ecuación con dos incógnitas.
3) Se vuelve el sistema formado por las ecuaciones con dos incógnitas que se han obtenido, hallando de este modo
dos de las incógnitas.
4) Los valores de las incógnitas obtenidos se sustituyen en una de las ecuaciones dadas de tres incógnitas, con lo cual
se halla la tercera incógnita.
EJEMPLO:
Resolver el sistema. x + 4y – z = 6 (1)
2x + 5y – 7z = -- 9 (2)
3x – 2y + z = 2 (3)

Combinamos las ecuaciones (1) y (2) y vamos a eliminar la x. Multiplicando la ecuación (1) por 2, se tiene:
2x + 8y – 2z = 12
-- 2x – 5y + 7z = 9
-----------------------
3y + 5z = 21 (4)

Combinamos la tercera ecuación (3) con cualquiera de las otras dos ecuaciones dadas. Vamos a combinarla con (1)
para eliminar la x. Multiplicando (1) por 3 tenemos:

3x + 12y – 3z = 18
--3x + 2y – z = -- 2
--------------------------
14y – 4z = 16 (5) Dividiendo entre 2:
7y – 2z = 8

Ahora tomamos las dos ecuaciones con dos incógnitas que hemos obtenido (4) y (5), y formamos un sistema:
3y + 5z = 21 (4)
7y – 2z = 8 (5)

Resolvemos este sistema. Vamos a eliminar la z multiplicando (4) por 2 y (5) por 5:

6y + 10z = 42
35y – 10z = 40
--------------------
41y = 82
y=2

Sustituyendo y = 2 en (5) se tiene:

7(2) – 2z = 8
14 – 2z = 8
– 2z = -- 6
z=3

Sustituyendo y = 2, z = 3 en cualquiera de las tres ecuaciones dadas, por ejemplo en (1), se tiene:
x + 4(2) – 3 = 6 x=1, y=2, z=3 R.
x+8–3=6
x=1

Resolver el sistema.

z – 4 + (6x – 19) / 5 = -- y
10 – (x – 2z) / 8 = 2y – 1
4z + 3y = 3x – y
Quitando denominadores:
5z – 20 + 6x – 19 = -- 5y
80 – x + 2z = 16y – 8
4z + 3y = 3x – y
Transponiendo y reduciendo:
6x + 5y + 5z = 39 (1)
– x – 16y + 2z = -- 88 (2)
– 3x + 4y + 4z = 0 (3)

Vamos a eliminar x. Combinamos (1) y (2) y multiplicamos (2) por 6:

6x + 5y + 5z = 39
–6x – 96y + 12z = -- 528
--------------------------------
– 91y + 17z = -- 489 (4)
Combinamos (2) y (3). Multiplicando (2) por 3 y cambiándole el sino:

3x + 48y – 6z = 264
– 3x + 4y + 4z = 0
--------------------------
52y – 2z = 264
Dividiendo por 2:
26y – z = 132 (5)

Combinemos (4) y (5):

– 91y + 17z = -- 489 (4)


26y – z = 132 (5)

Multiplicando (4) por 2 y (5) por 7:


– 182y + 34z = -- 978
182y – 7z = 924
--------------------------
27z = -- 54
z = -- 2
Sustituyendo z = --2 en (5):
26y – (-- 2) = 132
26y + 2 = 132
26y = 130
y=5

Sustituyendo y = 5, z = -- 2 en (3):

– 3x + 4(5) + 4(-- 2) = 0
–3x + 20 –8 =0
– 3x = -- 12
x=4

MATEMATICAS 2
1. ANGULOS Y TRIANGULOS
Clasificación de los ángulos por sus medidas
Un ángulo es la abertura formada por dos rayos que parten de un punto común llamado
vértice.
1. Clasificación de ángulos según su medida
2. Tipos de ángulos
Los ángulos se miden en grados (°) y según su medida se clasifican en:
1) Ángulo agudo: es aquel que mide más de 0° y menos de 90°.

2) Ángulo recto: es aquel que mide 90°.


3) Ángulo obtuso: es aquel que mide más de 90° y menos de 180°.

4) Ángulo extendido: es aquel que mide 180°.

5) Ángulo completo: es aquel que mide 360°.

Clasificación de los triángulos por la amplitud de sus ángulos


Triangulo Acutángulo: Este tipo de triángulos tienen sus tres ángulos menores de 90°.
Triangulo Rectángulo: Un triángulo rectángulo es aquel en el que uno de sus ángulos es recto,
los otros dos son agudos. Llamaremos catetos a los lados que forman el ángulo recto, siendo

la hipotenusa el lado opuesto a ese ángulo.


Triangulo Obtusángulo:
Un triangulo obtusángulo tiene un Angulo obtuso y dos ángulos agudos

Suma de ángulos interiores y exteriores


Ángulo interior: Un ángulo interior o ángulo interno es un ángulo formado por dos lados de un polígono que
compartiendo un extremo común, está contenido dentro del polígono. Un polígono simple tiene sólo un
ángulo interno por cada vértice y está situado del lado opuesto del polígono.
Angulo exterior: Un ángulo exterior es el ángulo formado por un lado de un polígono y la prolongación del
lado adyacente. En cada vértice de un polígono es posible crear dos ángulos exteriores, que poseen la misma
amplitud.
Suma de ángulos interiores y exteriores de un triangulo
En un triángulo existen dos tipos de ángulos: los ángulos interiores lo forman dos lados y los ángulos
exteriores lo forman un lado y su prolongación.
Sus propiedades son:
1. La suma de los ángulos interiores de un triángulo es igual a 180°.
A + B + C = 180º
2. El valor de un ángulo exterior de un triángulo es igual a la suma de los dos interiores no adyacentes.
α=B+C
3. Un ángulo interior y exterior de un triángulo son suplementarios, es decir, suman 180º.
α = 180º – A

En un triángulo existen dos tipos de ángulos:


 Los ángulos interiores lo forman dos lados.
 Los ángulos exteriores lo forman un lado y su prolongación.

Sus propiedades son:


1. La suma de los ángulos interiores de un triángulo es igual a 180°.
A + B + C = 180º

2. El valor de un ángulo exterior de un triángulo es igual a la suma de los dos interiores no adyacentes.
α=B+C

3. Un ángulo interior y exterior de un triángulo son suplementarios, es decir, suman 180º.


α = 180º - A

Teorema de Pitágoras
Pitágoras estudió los triángulos rectángulos, y las relaciones entre los catetos y la hipotenusa de un triángulo rectángulo,
antes de derivar su teoría.
El teorema de Pitágoras

Si a y b son las longitudes de los catetos de un triángulo rectángulo y c es la longitud de la


hipotenusa, entonces la suma de los cuadrados de las longitudes de los catetos es igual al
cuadrado de la longitud de la hipotenusa.

Esta relación se representa con la fórmula:

En el recuadro anterior, habrás notado la palabra “cuadrado,” así como los 2s arriba de las letras en Elevar
al cuadrado un número significa multiplicarlo por sí mismo. Entonces, por ejemplo, elevar al cuadrado el número 5,
multiplicas 5 • 5, y para elevar al cuadrado el número 12, multiplicas 12 • 12. Algunos números comunes elevados al
cuadrado se muestran en la siguiente tabla.

Número multiplicado
Número Cuadrado
por sí mismo

1 12 = 1 • 1 1

2 22 = 2 • 2 4

3 32 = 3 • 3 9

4 42 = 4 • 4 16

5 52 = 5 • 5 25

10 102 = 10 • 10 100
Cuando ves la ecuación , puedes pensar en esto como “la longitud del lado a multiplicada por sí misma,
mas la longitud del lado b multiplicada por sí misma es igual a la longitud de c multiplicada por sí misma.”

Intentemos el Teorema de Pitágoras con un triángulo.

El teorema es válido para este triángulo rectángulo — la suma de los cuadrados de los catetos es igual al cuadrado de la
hipotenusa. Y, de hecho, es válido para todos los triángulos rectángulos.

El Teorema de Pitágoras puede también representarse en términos de área. En un triángulo rectángulo, el área del
cuadrado de la hipotenusa es igual a la suma de las áreas de los cuadrados de los catetos. Puedes ver la ilustración
siguiente para el mismo triángulo rectángulo 3-4-5.

Observa que el Teorema de Pitágoras sólo funciona para triángulos rectángulos.


Encontrando la longitud de la hipotenusa

Puedes usar el Teorema de Pitágoras para encontrar la longitud de la hipotenusa de un triángulo rectángulo si conoces la
longitud de los otros dos lados del triángulo, llamados catetos. Puesto de otra manera, si conoces las longitudes de a y b,
puedes encontrar c.

En el triángulo anterior, tenemos las medidas de los catetos a y b: 5 y 12, respectivamente. Puedes usar el Teorema de
Pitágoras para encontrar el valor de la longitud de c, la hipotenusa.

El Teorema de Pitágoras.

Sustituir los valores conocidos para a y b.

Evaluar.

Simplificar. Para encontrar el valor de c, piensa sobre

un número que, cuando se multiplica por sí mismo,

es igual a 169. ¿Funciona el 10? ¿O el 11? ¿12? ¿13?

(Puedes usar una calculadora para multiplicar los

números que no son familiares)

13 = c La raíz cuadrada de 169 es 13

Usando la fórmula, puedes encontrar que la longitud de c, la hipotenusa, es 13.


En este caso, no conocías el valor de c — tenías el cuadrado de la longitud de la hipotenusa, y la tuviste que encontrar de
ahí. Cuando se te da una ecuación como y se te pide el valor de c, a esto se le llama encontrar la raíz
cuadrada de un número. (Nota que encontraste un número, c, cuya raíz cuadrada fue 169.)

Encontrar la raíz cuadrada requiere algo de práctica, pero también toma ventaja de la multiplicación, la división, y un
poco de prueba y error. Observa la tabla siguiente.

Número y el cual, cuando se multiplica


Número x Raíz cuadrada y
por sí mismo, es igual al número x

1 1•1 1

4 2•2 2

9 3•3 3

16 4•4 4

25 5•5 5

100 10 • 10 10

Es buen hábito familiarizarse con los cuadrados de los números del 0 al 10, porque son frecuentes en matemáticas. Si
puedes recordar estos números — o si puedes usar una calculadora para encontrarlos — calcular las raíces cuadradas
será cuestión de recordar.

¿Para cuál de estos triángulos es ?

A)

B)
C)

D)

Mostrar/Ocultar Respuesta

Encontrando la longitud de un cateto

Puedes usar la misma fórmula para encontrar la longitud del cateto de un triángulo si te proporcionan las medidas de la
hipotenusa y del otro cateto. Considera el siguiente ejemplo.

Ejemplo
Problema Encuentra la longitud del lado a del triángulo siguiente. Usa una calculadora para
estimar la raíz cuadrada para una posición decimal.

a=? En este triángulo rectángulo, te


proporcionan las medidas de la
b=6
hipotenusa, c, y de un cateto, b. La
c=7 hipotenusa está siempre opuesta al
ángulo recto y siempre es el lado
más largo del triángulo

Para encontrar la longitud del


cateto a, sustituye los valores
conocidos en el Teorema de
Pitágoras.

Resuelve a2. Piensa: ¿Qué número,


cuando se le suma 36, resulta en
49?

Usa una calculadora para encontrar


la raíz cuadrada de 13. La
calculadora te da la respuesta
3.6055…, que se puede redondear a
3.6 (Como estás aproximando,
utilizas el símbolo .)

Respuesta

¿Cuál de las siguientes operaciones utiliza correctamente el Teorema de Pitágoras para encontrar
el lado faltante, x?
A)

B) x + 8 = 10

C)

D)

Mostrar/Ocultar Respuesta

Usando el teorema para resolver problemas del mundo real

El Teorema de Pitágoras es tal vez una de las fórmulas más usadas que verás en matemáticas porque hay muchas
aplicaciones en el mundo real. Los arquitectos e ingenieros usan esta fórmula extensivamente cuando construyen
edificios, puentes, y rampas. Observa los siguientes ejemplos.

Ejemplo

Problema Los dueños de una casa quieren convertir los escalones de la entrada en una rampa. El
porche mide 3 pies por encima del suelo, y debido a regulaciones de construcción, la
rampa debe empezar a una distancia de 12 pies de la base del porche. ¿Qué tan larga
será la rampa?

Usa una calculadora para encontrar la raíz cuadrada, y redondea tu respuesta a la


décima más cercana.

Para resolver un problema como este, es buena idea dibujar un diagrama simple que
muestre los catetos y la hipotenusa del triángulo.

a=3 Identifica los catetos y la hipotenusa del


triángulo. Sabes que el triángulo
b = 12
es rectángulo porque el suelo y la porción
c=? del porche son perpendiculares — esto
significa que puedes usar el Teorema de
Pitágoras para res o ver el problema.
Identifica a, b, y c.

Usa el Teorema de Pitágoras para


encontrar la longitud de c.

12.4 = c Usa una calculadora para encontrar c. La


raíz cuadrada de 153 es 12.369…, por lo
que puedes redondear eso a 12.4.

Respuesta La rampa medirá 12.4 pies.

Ejemplo

Problema Un barco tiene una vela con forma de triángulo rectángulo. El lado más largo
de la vela mide 17 yardas, y el lado de abajo de la vela mide 8 yardas. ¿Qué tan
alta es la vela?
Dibuja la imagen para ayudarte a
visualizar el problema. En un triángulo
rectángulo, la hipotenusa siempre será
el lado más largo, entonces debe ser de
17 yardas. El problema también te dice
que el lado inferior del triángulo mide 8
yardas.

Aplica el Teorema de Pitágoras.

a = 15 15 • 15 = 225, entonces a = 15.

Respuesta La altura de la vela es 15 yardas.

Sumario

El Teorema de Pitágoras dice que en cualquier triángulo rectángulo, la suma de los cuadrados de los catetos es igual al
cuadrado de la hipotenusa. El teorema se representa con la fórmula . Es decir, si conoces la longitud de dos
de los lados de un triángulo rectángulo, puedes aplicar el Teorema de Pitágoras para encontrar la longitud del tercer lado.
Recuerda, este teorema sólo funciona para triángulos rectángulos.

2. PROBABILIDAD Y ESTADÍSTICA
Conceptos básicos, población muestra variable y dato experimento, parametro
Conceptos básicosPoblaciónEs el total de objetos bajo consideración. Es el grupo o conjunto sobre el cual se quiere hacer
una inferencia. La población puede ser grande o pequeña, eso depende de lo que se quiere estudiar o investigar. Por
ejemplo, la población de todos los habitantes de Puerto Rico es grande ya que en Puerto Rico habitan casi 4 millones de
personas. Sin embargo, la población de personas mayores de 80 años que viven en pueblo de Juncos es mucho más
pequeña que la población de todos los habitantes de Puerto Rico.

4 Conceptos básicosMuestraAunque el investigador se interesa, la mayor parte de las veces en la población, muy pocas
veces puede llegar a toda ella. Para hacer cualquier estudio se ve obligado a seleccionar parte de la población. La muestra
es la porción de la población seleccionada para la investigación. La selección se hace porque generalmente el costo, el
tiempo y los recursos son limitados para hacer la investigación con toda la población. Partiendo de los resultados del
estudio con la muestra (si ésta es verdaderamente representativa de la población), el investigador puede hacer
inferencias sobre la población.

5 Conceptos básicosVariableEn un proceso de observación o en un cuestionario se observan o se hacen preguntas sobre


ciertas características de los sujetos o sobre ciertos fenómenos. Estas características que se tratan de medir en la
investigación se llaman variables. Una variable es una característica de los sujetos que puede asumir más de un valor. Los
valores que asumen las variables en cada uno de los sujetos son los datos. Por ejemplo, en un estudio en que se trata de
determinar el aprovechamiento de los estudiantes en una escuela, una de las variables puede ser la nota obtenida en el
curso de estadísticas. Los datos son, en este caso, las notas obtenidas en estadísticas por cada uno de los estudiantes que
han tomado el curso.

6 Conceptos básicosDatosLos datos pueden definirse como la información recogida, organizada y analizada por los
estadísticos.

Estadístico y Parámetro

Un estadístico o una estadística es una medida que se utiliza para describir una característica numérica de la muestra. La
estadística inferencial sirve para determinar cómo una estadística y un parámetro se relacionan.

Un parámetro es la medida de una característica numérica de la población. (Media, mediana, varianza, etc.) . Es un
elemento descriptivo de la población.

Experimento

EXPERIMENTO

Un experimento, en estadística, es cualquier proceso que proporciona datos, numéricos o no numéricos.


Un conjunto cuyos elementos representan todos los posibles resultados de un experimento se llama espacio muestral y
se representa como S. El espacio muestral de un experimento siempre existe y no es necesariamente único pues,
dependiendo de nuestra valoración de los resultados, podemos construir diferentes espacios muestrales.
Los elementos del espacio muestral se llaman puntos muestrales y son los distintos resultados del experimento.
Si consideramos el conjunto de las partes de (P(S)) sus elementos son los sucesos. Un suceso, por tanto, es un
subconjunto del espacio muestral.
Existen dos tipos de sucesos:
· Sucesos simples, que son aquellos que comprenden un sólo punto muestral.
· Sucesos compuestos, que son los que engloban más de un punto del espacio muestral. Todo suceso compuesto se
puede considerar como unión de puntos del espacio muestral o unión de sucesos simples.

Distribución de frecuencias y datos


En estadística, se le llama distribución de frecuencias a la agrupación de datos en categorías mutuamente
excluyentes que indican el número de observaciones en cada categoría.1 Esto proporciona un valor añadido a la
agrupación de datos. La distribución de frecuencias presenta las observaciones clasificadas de modo que se
pueda ver el número existente en cada clase.
Frecuencia absoluta[editar]
La frecuencia absoluta es el número de veces que aparece un determinado valor en un estudio estadístico. Se
representa por fila. La suma de las frecuencias absolutas es igual al número total de datos, que se representa
por N. Para indicar resumidamente estas sumas se utiliza la letra griega Σ (sigma mayúscula) que se lee suma o
sumatoria.
Frecuencia relativa[editar]
Se dice que la frecuencia relativa es el cociente entre la frecuencia absoluta de un determinado valor y el
número total de datos. Se puede expresar en tantos por ciento y se representa por hi. La suma de las
frecuencias relativas es igual a 1.
Frecuencia relativa (hi) es el cociente entre la frecuencia absoluta y el tamaño de la muestra (N). Es decir:

siendo el fi para todo el conjunto i. Se presenta en una tabla o nube de puntos en una distribución de
frecuencias.
Si multiplicamos la frecuencia relativa por 100 obtendremos el porcentaje o tanto por ciento (pi).
Frecuencia acumulada[editar]
La frecuencia acumulada es la suma de las frecuencias absolutas de todos los valores inferiores o iguales al
valor considerado.
La frecuencia acumulada es la frecuencia estadística F(XXr) con que el valor de un variable aleatoria (X) es
menor que o igual a un valor de referencia (Xr).
La frecuencia acumulada relativa se deja escribir como Fc(X≤Xr), o en breveFc(Xr), y se calcula de:
Fc (Hr) = HXr / N
donde MXr es el número de datos X con un valor menor que o igual a Xr, y N es número total de los datos. En
breve se escribe:
Fc = M / N
Cuando Xr=Xmin, donde Xmin es el valor mínimo observado, se ve que Fc=1/N, porque M=1. Por otro lado,
cuando Xr=Xmax, donde Xmax es el valor máximo observado, se ve que Fc=1, porque M=N.
En porcentaje la ecuación es:
Fc(%) = 100 M / N
Frecuencia relativa acumulada[editar]
La frecuencia relativa acumulada es el cociente entre la frecuencia acumulada de un determinado valor y el
número total de datos. Se puede expresar en tantos por ciento. Ejemplo:
Durante el mes de julio, en una ciudad se han registrado las siguientes temperaturas máximas:
32, 31, 28, 29, 33, 32, 31, 30, 31, 31, 27
Distribución de frecuencias agrupadas[editar]
La distribución de frecuencias agrupadas o tabla con datos agrupados se emplea si las variables toman un
número grande de valores o la variable es continua. Se agrupan los valores en intervalos que tengan la misma
amplitud denominados clases. A cada clase se le asigna su frecuencia correspondiente. Límites de la clase. Cada
clase está delimitada por el límite inferior de la clase y el límite superior de la clase.
La amplitud de la clase es la diferencia entre el límite superior e inferior de la clase. La marca de clase es el
punto medio de cada intervalo y es el valor que representa a todo el intervalo para el cálculo de algunos
parámetros. En caso de que el primer intervalo sea de la forma (-∞,k], o bien [k,+∞) donde k es un número
cualquiera, en el caso de (-∞,k], para calcular la marca de clase se tomará la amplitud del intervalo adyacente a
el (ai+1), y la marca de clase será ((k-ai+1) +k)/2. En el caso del intervalo [k,+∞) también se tomará la amplitud
del intervalo adyacente a el (ai-1) siendo la marca de clase ((k+ai-1)+k)/2.
Construcción de una tabla de datos agrupados:
3, 15, 24, 28, 33, 35, 38, 42, 43, 38, 36, 34, 29, 25, 17, 7, 34, 36, 39, 44, 31, 26, 20, 11, 13, 22, 27, 47, 39, 37, 34,
32, 35, 28, 38, 41, 48, 15, 32, 13.
1. Se localizan los valores menor y mayor de la distribución. En este caso son 3 y 48.
2. Se restan y se busca un número entero un poco mayor que la diferencia y que sea divisible por el
número de intervalos que queramos establecer.
Es conveniente que el número de intervalos oscile entre 6 y 15.
En este caso, 48 - 3 = 45, incrementamos el número hasta 50 : 5 = 10 intervalos.
Se forman los intervalos teniendo presente que el límite inferior de una clase pertenece al intervalo, pero el
límite superior no pertenece al intervalo, se cuenta en el siguiente intervalo.

Intervalo ci ni Ni fi Fi

[0, 5) 2.5 1 1 0.025 0.025

[5, 10) 7.5 1 2 0.025 0.050

[10, 15) 12.5 3 5 0.075 0.125

[15, 20) 17.5 3 8 0.075 0.200

[20, 25) 22.5 3 11 0.075 0.275

[25, 30) 27.5 6 17 0.150 0.425


[30, 35) 32.5 7 24 0.175 0.600

[35, 40) 37.5 10 34 0.250 0.850

[40, 45) 42.5 4 38 0.100 0.950

[45, 50) 47.5 2 40 0.050 1

Total: 40 1

Medidas tendencia central


Al describir grupos de diferentes observaciones, con frecuencia es conveniente resumir la información con un
solo número. Este número que, para tal fin, suele situarse hacia el centro de la distribución de datos se
denomina medida o parámetro de tendencia central o de centralización. Cuando se hace referencia únicamente
a la posición de estos parámetros dentro de la distribución, independientemente de que esté más o menos
centrada, se habla de estas medidas como medidas de posición.1 En este caso se incluyen también
los cuantiles entre estas medidas.
Entre las medidas de tendencia central tenemos:
 Media aritmética
 Media ponderada
 Media geométrica
 Media armónica
 Mediana
 Moda
Se debe tener en cuenta que existen variables cualitativas y variables cuantitativas, por lo que las medidas de
posición o medidas de tendencia se usan de acuerdo al tipo de variable que se está observando, en este caso se
observan variables cuantitativas.
Índice
[ocultar]
 1La media aritmética
o 1.1Definición formal
o 1.2Propiedades
o 1.3Inconvenientes de su uso
o 1.4Media aritmética ponderada
o 1.5Media muestral
 2Moda
o 2.1Propiedades
o 2.2Inconvenientes
 3Mediana
o 3.1Cálculo de la mediana para datos agrupados
o 3.2Propiedades e inconvenientes
 4Véase también
 5Referencias
 6Enlaces externos
La media aritmética[editar]
Artículo principal: Media aritmética
La media aritmética es el valor obtenido por la suma de todos sus valores dividida entre el número de
sumadores.
Por ejemplo, las notas de 5 alumnos en una prueba:
niño nota
1 6,0 ·Primero, se suman las notas:
2 5,4 6,0+5,4+3,1+7,0+6,1 = 27,6
3 3,1 ·Luego el total se divide entre la cantidad de alumnos:
4 7,0 27,6/5=5,52
5 6,1
· La media aritmética en este ejemplo es 5,52
La media aritmética es, probablemente, uno de los parámetros estadísticos más extendidos.2 Se le llama
también promedio o, simplemente, media.
Definición formal[editar]
Dado un conjunto numérico de datos, x1, x2, ..., xn, se define su media aritmética como

Esta definición varía, aunque no sustancialmente, cuando se trata de variables continuas, esto es, también
puede calcularse para variables agrupadas en intervalos.
Propiedades[editar]
Las principales propiedades de la media aritmética son:3
 Su cálculo es muy sencillo y en él intervienen todos los datos.
 Su valor es único para una serie de datos dada.
 Se usa con frecuencia para comparar poblaciones, aunque es más apropiado acompañarla de una
medida de dispersión.
 Se interpreta como "punto de equilibrio" o "centro de masas" del conjunto de datos, ya que tiene la
propiedad de equilibrar las desviaciones de los datos respecto de su propio valor:

 Minimiza las desviaciones cuadráticas de los datos respecto de cualquier valor prefijado, esto es, el

valor de es mínimo cuando . Este resultado se conoce como Teorema de König. Esta
propiedad permite interpretar uno de los parámetros de dispersión más importantes: la varianza.
 Se ve afectada por transformaciones afines (cambios de origen y escala), esto es, si

entonces , donde es la media aritmética de los , para i = 1, ..., n y a y b números reales.


 Es poco sensible a fluctuaciones muestrales, por lo que es un parámetro muy útil en inferencia
estadística.
Inconvenientes de su uso[editar]
Este parámetro, aún teniendo múltiples propiedades que aconsejan su uso en situaciones muy diversas, tiene
también algunos inconvenientes, como son:
 Para datos agrupados en intervalos (variables continuas) su valor oscila en función de la cantidad y
amplitud de los intervalos que se consideren.
La estatura media como resumen de una población homogénea (abajo) o heterogénea (arriba).
 Es una medida a cuyo significado afecta sobremanera la dispersión, de modo que cuanto menos
homogéneos sean los datos, menos información proporciona. Dicho de otro modo, poblaciones muy
distintas en su composición pueden tener la misma media.4 Por ejemplo, un equipo de baloncesto con
cinco jugadores de igual estatura, 1,95 m, evidentemente, tendría una estatura media de 1,95 m, valor
que representa fielmente a esta población homogénea. Sin embargo, un equipo de jugadores de
estaturas más heterogéneas, 2,20 m, 2,15 m, 1,95 m, 1,75 m y 1,70 m, por ejemplo, tendría también,
como puede comprobarse, una estatura media de 1,95 m, valor que no representa a casi ninguno de
sus componentes.
 En el cálculo de la media no todos los valores contribuyen de la misma manera. Los valores altos tienen
más peso que los valores cercanos a cero. Por ejemplo, en el cálculo del salario medio de una empresa,
el salario de un alto directivo que gane 10.000 € tiene tanto peso como el de diez empleados
"normales" que ganen 1.000 €. En otras palabras, se ve muy afectada por valores extremos.
 No se puede determinar si en una distribución de frecuencias hay intervalos de clase abiertos.
Media aritmética ponderada[editar]
A veces puede ser útil otorgar pesos o valores a los datos dependiendo de su relevancia para determinado
estudio. En esos casos se puede utilizar una media ponderada.

Si son nuestros datos y son sus "pesos" respectivos, la media ponderada se define de la siguiente
forma:

Media muestral[editar]
Esencialmente, la media muestral es el mismo parámetro que el anterior, aunque el adjetivo "muestral" se
aplica a aquellas situaciones en las que la media aritmética se calcula para un subconjunto de la población
objeto de estudio.
La media muestral es un parámetro de extrema importancia en la inferencia estadística, siendo de gran utilidad
para la estimación de la media poblacional, entre otros usos.
Moda[editar]
Artículo principal: Moda (estadística)
La moda es el dato más repetido de la encuesta, el valor de la variable con mayor frecuencia absoluta.5 En
cierto sentido la definición matemática corresponde con la locución "estar de moda", esto es, ser lo que más se
lleva.
Su cálculo es extremadamente sencillo, pues solo necesita un recuento. En variables continuas, expresadas en
intervalos, existe el denominado intervalo modal o, en su defecto, si es necesario obtener un valor concreto de
la variable, se recurre a la interpolación.
Por ejemplo, el número de personas en distintos vehículos en una carretera: 5-7-4-6-9-5-6-1-5-3-7. El número
que más se repite es 5, entonces la moda es 5.
Hablaremos de una distribución bimodal de los datos, cuando encontremos dos modas, es decir, dos datos que
tengan la misma frecuencia absoluta máxima. Cuando en una distribución de datos se encuentran tres o más
modas, entonces es multimodal. Por último, si todas las variables tienen la misma frecuencia diremos que no
hay moda.
Cuando tratamos con datos agrupados en intervalos, antes de calcular la moda, se ha de definir el intervalo
modal. El intervalo modal es el de mayor frecuencia absoluta.
La moda, cuando los datos están agrupados, es un punto que divide el intervalo modal en dos partes de la
forma p y c-p, siendo c la amplitud del intervalo, que verifiquen que:

Siendo la frecuencia absoluta del intervalo modal y y las frecuencias absolutas de los intervalos
anterior y posterior, respectivamente, al intervalo modal.
Las calificaciones en la asignatura de Matemáticas de 39 alumnos de una clase viene dada por la siguiente tabla
(debajo):

Calificaciones 1 2 3 4 5 6 7 8 9

Número de alumnos 2 2 4 5 8 9 3 4 2

Propiedades[editar]
Sus principales propiedades son:
 Cálculo sencillo.
 Interpretación muy clara.
 Al depender solo de las frecuencias, puede calcularse para variables cualitativas. Es por ello el
parámetro más utilizado cuando al resumir una población no es posible realizar otros cálculos, por
ejemplo, cuando se enumeran en medios periodísticos las características más frecuentes de
determinado sector social. Esto se conoce informalmente como "retrato robot".6
Inconvenientes[editar]
 Su valor es independiente de la mayor parte de los datos, lo que la hace muy sensible a variaciones
muestrales. Por otra parte, en variables agrupadas en intervalos, su valor depende excesivamente del
número de intervalos y de su amplitud.
 Usa muy pocas observaciones, de tal modo que grandes variaciones en los datos fuera de la moda, no
afectan en modo alguno a su valor.
 No siempre se sitúa hacia el centro de la distribución.
 Puede haber más de una moda en el caso en que dos o más valores de la variable presenten la misma
frecuencia (distribuciones bimodales o multimodales).
Mediana[editar]
Artículo principal: Mediana (estadística)
La mediana es un valor de la variable que deja por debajo de sí a la mitad de los datos, una vez que éstos están
ordenados de menor a mayor.7 Por ejemplo, la mediana del número de hijos de un conjunto de trece familias,
cuyos respectivos hijos son: 3, 4, 2, 3, 2, 1, 1, 2, 1, 1, 2, 1 y 1, es 2, puesto que, una vez ordenados los datos: 1,
1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 4, el que ocupa la posición central es 2:

En caso de un número par de datos, la mediana no correspondería a ningún valor de la variable, por lo que se
conviene en tomar como mediana el valor intermedio entre los dos valores centrales. Por ejemplo, en el caso
de doce datos como los siguientes:

Se toma como mediana


Existen métodos de cálculo más rápidos para datos más numerosos (véase el artículo principal dedicado a este
parámetro). Del mismo modo, para valores agrupados en intervalos, se halla el "intervalo mediano" y, dentro
de éste, se obtiene un valor concreto por interpolación.
Cálculo de la mediana para datos agrupados[editar]
Primero hallamos las frecuencias absolutas acumuladas Fi (ver tabla del margen derecho). xi fi Fi
Así, aplicando la fórmula asociada a la mediana para n impar, obtenemos X(39+1)/2 = X20 y
basándonos en la fórmula que hace referencia a las frecuencias absolutas: 1 2 2

Ni-1< n/2 <Ni = N19 < 19.5 < N20 2 2 4


Por tanto la mediana será el valor de la variable que ocupe el vigésimo lugar. En nuestro
3 4 8
ejemplo, 21 (frecuencia absoluta acumulada para Xi = 5) > 19.5 con lo que Me = 5 puntos (es
aconsejable no olvidar las unidades; en este caso como estamos hablando de calificaciones, 4 5 13
serán puntos)
La mitad de la clase ha obtenido un 5 o menos, y la otra mitad un 5 o más. 5 6 19 = 19

Ejemplo (N par) 6 9 28
Las calificaciones en la asignatura de Matemáticas de 38 alumnos de una clase viene dada por la
7 4 32
siguiente tabla (debajo):
8 4 36
Calificaciones 1 2 3 4 5 6 7 8 9
9 2 38
Número de alumnos 2 2 4 5 6 9 4 4 2
Cálculo de la Mediana:
Primero hallamos las frecuencias absolutas acumuladas Fi (ver tabla margen derecho).
Si volvemos a utilizar la fórmula asociada a la mediana para n par, obtenemos X(38/2) = X19 y basándonos en la
fórmula que hace referencia a las frecuencias absolutas --> Ni-1< n/2 < Ni = N18 < 19 < N19
Con lo cual la mediana será la media aritmética de los valores de la variable que ocupen el decimonoveno y el
vigésimo lugar.
En nuestro ejemplo, el lugar decimonoveno lo ocupa el 5 y el vigésimo el 6, (desde el vigésimo hasta el
vigésimo octavo)
con lo que Me = (5+6)/2 = 5,5 puntos.
Propiedades e inconvenientes[editar]
Las principales propiedades de la mediana son:8
 Es menos sensible que la media a oscilaciones de los valores de la variable. Un error de transcripción en
la serie del ejemplo anterior en, pongamos por caso, el último número, deja a la mediana inalterada.
 Como se ha comentado, puede calcularse para datos agrupados en intervalos, incluso cuando alguno de
ellos no está acotado.
 No se ve afectada por la dispersión. De hecho, es más representativa que la media aritmética cuando la
población es bastante heterogénea. Suele darse esta circunstancia cuando se resume la información
sobre los salarios de un país o una empresa. Hay unos pocos salarios muy altos que elevan la media
aritmética haciendo que pierda representatividad respecto al grueso de la población. Sin embargo,
alguien con el salario "mediano" sabría que hay tanta gente que gana más dinero que él, como que gana
menos.
Sus principales inconvenientes son que en el caso de datos agrupados en intervalos, su valor varía en función
de la amplitud de estos. Por otra parte, no se presta a cálculos algebraicos tan bien como la media aritmética.

Medidas de dispersión
Las medidas de dispersión muestran la variabilidad de una distribución, indicándolo por medio de un número, si
las diferentes puntuaciones de una variable están muy alejadas de la media. Cuanto mayor sea ese valor, mayor
será la variabilidad, cuanto menor sea, más homogénea será a la media. Así se sabe si todos los casos son
parecidos o varían mucho entre ellos.
Medidas[editar]
Las medidas de dispersión son números reales no negativos, su valor es igual a cero cuando los datos son
iguales y este se incrementa a medida que los datos se vuelven más diversos.
Para calcular la variabilidad que una distribución tiene respecto de su media, se calcula la media de las
desviaciones de las puntuaciones respecto a la media aritmética. Pero la suma de las desviaciones es siempre
cero, así que se adoptan dos clases de estrategias para salvar este problema. Una es tomando las desviaciones
en valor absoluto (desviación media) y otra es tomando las desviaciones al cuadrado (varianza).
Medidas dimensionales[editar]
La mayoría de las medidas de dispersión se encuentran en las mismas unidades de la cantidad que está siendo
medida. Entre ellas se encuentran principalmente:
 Desviación típica: La desviación típica informa sobre la dispersión de los datos respecto al valor de la
media.
 Rango: En estadística el es la diferencia entre el valor máximo y el valor mínimo en un grupo de
números aleatorios. Se le suele simbolizar con R.
 Medio rango: el rango medio o extremo medio de un conjunto de valores de datos estadísticos es la
media aritmética de los valores máximos y mínimos de un conjunto de datos.
 Rango intercuartílico: es una medida de dispersión estadística, igual a la diferencia entre los percentiles
75 y 25.
 covarianza: es un estadístico que indica la relación de las puntuaciones entre sí
 Desviación media absoluta (MAD): es una medida sólida de la variabilidad de una muestra univariable
de datos cuantitativos.
 Diferencia media absoluta (univariante) es una medida de dispersión estadística igual a la diferencia
media absoluta de dos valores independientes extraídos de una distribución de probabilidad.
 Desviación media
Medidas adimensionales[editar]
Otras medidas de dispersión son adimensionales. Ejemplos de ellas son:
 coeficiente de correlación de Pearson: permite saber si el ajuste de la nube de puntos a la recta de
regresión obtenida es satisfactorio.
 Diferencia absoluta media relativa
 Entropía: Mientras que la entropía de una variable discreta es de ubicación-invariante y escala-
independiente, y por lo tanto no es una medida de dispersión en el sentido anterior, la entropía de una
variable continua es invariante de ubicación y aditivo en escala.
 Coeficiente de variación

Probabilidad de sucesos simples


Espacio muestral
Un espacio muestral es un conjunto de sucesos posibles, como los que podrían resultar al lanzar un dado:

espacio_muestral = [1, 2, 3, 4, 5, 6]

Se refiere como punto muestral a cada elemento en un espacio muestral. La cantidad de puntos muestrales
se denota por tal que para el espacio muestral , .
n = len(espacio_muestral)

Sucesos simples y compuestos


Un suceso, es un conjunto de resultados dentro de un espacio muestral. Por ejemplo:

 el lanzamiento de un dado es un suceso


 la probabilidad de que en dicho lanzamiento salga el número 5, es un suceso simple y
es excluyente: si sale 5, no puede simultáneamente salir ningún otro número.
 la probabilidad de que en el lanzamiento salga un número impar, es el suceso
compuesto que dependerá a su vez de los sucesos simples
excluyentes , y

Asignación de probabilidades
La asignación de probabilidades es aquella que provee modelos matemáticos para calcular las posibilidades
de que sucesos específicos ocurran o no.

La probabilidad de un suceso se denota por .


Los sucesos pueden ser:

 simples o compuestos
 mutuamente excluyentes o independientes

Sucesos simples mutuamente excluyentes


Si se considera un espacio muestral , cada uno de los puntos muestrales , quedará denotado por y la
probabilidad de éstos, designada como , quedará determinada por:

probabilidad = 1.0 / n

En Python, se requiere que al menos un elemento de la ecuación sea un número real si lo que se requiere
como resultado es un número real.
La probabilidad de cada punto muestral, como sucesos excluyentes entre sí, es la misma para cada suceso.

Sucesos compuestos por sucesos simples mutuamente excluyentes


Cuando los sucesos simples que conforma al suceso compuesto son mutuamente excluyente, la
probabilidad del suceso compuesto estará dada por la suma de las probabilidades de cada suceso
simple , tal que:

Por ejemplo, para estimar la probabilidad de que en un único lanzamiento de dado, salga un número par, se
obtiene el suceso , dado por suma de las probabilidades de cada uno de sucesos
simples del espacio muestral tal que:

En el primer resultado (en el segundo paso, antes de hallar el máximo común divisor [MCD] y reducir la

fracción a ), el denominador es equivalente a la cantidad de sucesos simples dentro del suceso compuesto
«números pares» y se denota por . El denominador, , es , el total de todos los sucesos del espacio
muestral. De esta forma, la probabilidad de un suceso compuesto por sucesos mutuamente excluyentes
queda dada por el cociente de y tal que:

numeros_pares = [i for i in espacio_muestral if i % 2 is 0]


h = len(numeros_pares)
probabilidad = float(h) / n

Un suceso compuesto se puede denotar por la unión de sus sucesos simples (símbolo , leído como "o"), tal
que:

Por ejemplo, para el caso del suceso «números pares», se obtiene que:

Tal que es un suceso y , y son las probabilidades de los tres sucesos que lo
componen. En un nuevo contexto, puede ser tratado como un suceso .

Funciones

# Probabilidad de sucesos simples mutuamente excluyentes


pssme = lambda e: 1.0 / len(e)

# Probabilidad de sucesos compuestos mutuamente excluyentes


def pscme(e, sc):
n = len(e)
return len(sc) / float(n)

BIOLOGÍA 1
1. Composición química de los seres vivos
BIOELEMENTOS
BIOELEMENTOS: Son los componentes orgánicos que forman parte de los seres vivos. El 99% de la masa de la
mayoría de las células está constituida por cuatro elementos, carbono (C), hidrógeno (H), oxígeno (O) y
nitrógeno (N), que son mucho más abundantes en la materia viva que en la corteza terrestre. Se agrupan en
tres categorías: primarios, secundarios y oligoelementos.
3. TIPOS DE BIOELEMENTOS
3.1.1 BIOELEMENTOS PRIMARIOS. Son los elementos mayoritarios de la materia viva (glúcidos, lípidos, proteínas
y ácidos nucleicos), constituyen el 95% de la masa total y son indispensables para formar las biomoléculas. Son
cuatro; carbono, hidrógeno, oxígeno y nitrógeno (CHON). Forman parte de la materia viva debido a sus
propiedades físico-químicas.
HIDROGENO: Forman grupos funcionales con otros elementos químicos. Es uno de los elementos que
conforman el agua. Se encuentra en la atmósfera pero en menor cantidad. Es esencial en los hidrocarburos y
los ácidos.
OXIGENO: Forma parte de las biomoléculas y es un elemento importante para la respiración. También es un
elemento en la formación del agua, causante de la combustión y produce la energía del cuerpo. El oxígeno, es
el elemento químico más abundante en los seres vivos. Forma parte del agua y de todo tipo de moléculas
orgánicas. Como molécula, en forma de O2, su presencia en la atmósfera se debe a la actividad fotosintética de
primitivos organismos. Al principio debió ser una sustancia tóxica para la vida, por su gran poder oxidante.
Todavía ahora, una atmósfera de oxígeno puro produce daños irreparables en las células.
Pero el metabolismo celular, se adaptó a usar la molécula de oxígeno como agente oxidante de los alimentos
abriendo así, una nueva vía de obtención de energía mucho más eficiente que la anaeróbica.
La reserva fundamental de oxígeno utilizable por los seres vivos, está en la atmósfera. Su ciclo está
estrechamente vinculado al del carbono, pues el proceso por el que el carbono es asimilado por las plantas
(fotosíntesis), supone también devolución del oxígeno a la atmósfera, mientras que el proceso
de respiración ocasiona el efecto contrario.
Otra parte del ciclo del oxígeno que tiene un notable interés indirecto para los seres vivos de la superficie de la
Tierra es su conversión en ozono. Las moléculas de O2, activadas por las radiaciones muy energéticas de onda
corta, se rompen en átomos libres de oxígeno que reaccionan con otras moléculas de O2, formando O3
(ozono). Esta reacción es reversible, de forma que el ozono, absorbiendo radiaciones ultravioletas vuelve a
convertirse en O2.
CARBONO: Tiene una función estructural y aparece en todas las moléculas orgánicas. Es un elemento escaso de
la naturaleza. Es la sucesión de transformaciones que sufre el carbono a lo largo del tiempo. Es un ciclo
biogeoquímico de gran importancia para la regulación del clima de la Tierra, y en él se ven implicadas
actividades básicas para el sostenimiento de la vida. El ciclo comprende dos ciclos que se suceden a distintas
velocidades.
Ciclo biológico: comprende los intercambios de carbono (CO2) entre los seres vivos y la atmósfera, es decir,
la fotosíntesis, proceso mediante el cual el carbono queda retenido en las plantas y la respiración que lo
devuelve a la atmósfera.
Ciclo biogeoquímico: regula la transferencia de carbono entre la atmósfera y la litosfera (océanos y suelo). El
CO2 atmosférico se disuelve con facilidad en agua, formando ácido carbónico que ataca los silicatos que
constituyen las rocas, resultando iones bicarbonato. Estos iones disueltos en agua alcanzan el mar, son
asimilados por los animales para formar sus tejidos, y tras su muerte se depositan en los sedimentos. El retorno
a la atmósfera se produce en las erupciones volcánicas tras la fusión de las rocas que lo contienen. Este último
ciclo es de larga duración, al verse implicados los mecanismos geológicos. Además, hay ocasiones en las que la
materia orgánica queda sepultada sin contacto con el oxígeno que la descomponga, produciéndose así
la fermentación que lo transforma en carbón, petróleo y gas natural.
NITROGENO: Forma parte de las biomoléculas pero destaca su presencia en proteínas y lípidos y ácidos
nucleicos (bases nitrogenadas). No entra directamente al cuerpo y es consumido en alimentos. Mediante las
bacterias nitrificantes, las plantas se proporcionan de este compuesto. La reserva principal de nitrógeno es la
atmósfera (el nitrógeno representa el 78 % de los gases atmosféricos). La mayoría de los seres vivos no pueden
utilizar el nitrógeno elemental de la atmósfera para elaborar aminoácidos ni otros compuestos nitrogenados,
de modo que dependen del nitrógeno que existe en las sales minerales del suelo.
Por lo tanto, a pesar de la abundancia de nitrógeno en la biosfera, muchas veces el factor principal que limita el
crecimiento vegetal es la escasez de nitrógeno en el suelo. El proceso por el cual esta cantidad limitada de
nitrógeno circula sin cesar por el mundo de los organismos vivos se conoce como ciclo del nitrógeno.
AMONIFICACION
Gran parte del nitrógeno del suelo proviene de la descomposición de la materia orgánica. Estos compuestos
suelen ser degradados a compuestos simples por los organismos que viven en el suelo (bacterias y hongos).
Estos microorganismos utilizan las proteínas y aminoácidos para formar las proteínas que necesitan y liberar el
exceso de nitrógeno como amoníaco (NH3) o amonio (NH+4).
Nitrificación
Algunas bacterias comunes en los suelos oxidan el amoníaco o el amonio. En ella se libera energía, que es
utilizada por las bacterias como fuente energética. Un grupo de bacterias oxida el amoníaco (o amonio) a
nitrito(NO-2). Otras bacterias oxidan el nitrito a nitrato, que es la forma en que la mayor parte del nitrógeno
pasa del suelo a las raíces.
Asimilación
Una vez que el nitrato está dentro de la célula de la planta, se reduce de nuevo a amonio. Este proceso se
denomina asimilación y requiere energía. Los iones de amonio así formados se transfieren a compuestos que
contienen carbono para producir aminoácidos y otras moléculas orgánicas nitrogenadas que la planta necesita.
Los compuestos nitrogenados de las plantas terrestres vuelven al suelo cuando mueren las plantas o los
animales que las han consumido; así, de nuevo, vuelven a ser captados por las raíces como nitrato disuelto en
el agua del suelo y se vuelven a convertir en compuestos orgánicos.
3.1.2 BIOELEMENTOS SECUNDARIOS. Forman parte de todos los seres vivos y en una proporción del 4,5%.
Desempeñan funciones vitales para el funcionamiento correcto del organismo. Son el azufre, fósforo,
magnesio, calcio, sodio, potasio y cloro.
El AZUFRE es uno de los más destacados constituyentes de los aminoácidos. El azufre es captado en forma de
sustratos desde las raíces (en superficies terrestres) y por medio de la pared celular (en medios acuáticos) por
las plantas (terrestres y acuáticas), las que pasan a ser alimentos de los animales. Tras la muerte de estos, el
azufre retorna al suelo induciendo un nuevo ciclo del azufre. En la atmósfera los óxidos de nitrógeno y azufre
son convertidos en ácido nítrico y sulfúrico que vuelven a la tierra con las precipitaciones de lluvia o nieve (lluvia
ácida). Otras veces, aunque no llueva, van cayendo partículas sólidas con moléculas de ácido adheridas
(deposición seca).
El FOSFORO participa activamente en las relaciones energéticas que ocurren al interior de los organismos,
forma parte de los fosfolípidos de las membranas celulares e integra las materias primas de huesos y dientes de
los seres vivos. La principal reserva de este elemento está en la corteza terrestre. Por medio de los procesos
de meteorización de las rocas o por la expulsión de cenizas volcánicas se libera, pudiendo ser utilizado por las
plantas. Con facilidad es arrastrado por las aguas y llega al mar, donde una porción importante se sedimenta en
el fondo y forma rocas. Todas ellas tardarán millones de años en volver a emerger y liberar, paulatinamente,
sales de fósforo.
4. LOS OLIGOELEMENTOS
Están presentes en los organismos en forma vestigial, pero que son indispensables para el desarrollo armónico
del organismo. Son 14 y constituyen el 0,5%: hierro, manganeso, cobre, zinc, flúor, iodo, boro, silicio, vanadio,
cromo, cobalto, selenio, molibdeno y estaño.

MOLECULAS INORGANICAS DE INTERES BIOLOGICO


Dentro de los organismos vivos se pueden encontrar moléculas inorgánicas, generalmente no contienen
carbono, como es el caso del agua, pero se puede encontrar algunas moléculas inorgánicas con presencia de
carbono, como es el caso de bióxido de carbono (CO2).
Las principales moléculas inorgánicas presentes en los seres vivos son: el agua y las sales minerales
Agua:
Constituye alrededor del 70 por 100 del peso de las células Aunque la cantidad de agua depende de:
El tipo de organismo
La edad del organismo
El tipo de tejido
La mayoría de las reacciones químicas ocurren en medio acuoso, y participa en las reacciones químicas como
reactivo, pudiéndose descomponer en H2O ---- H + OH. En la molécula de agua H2O, los dos átomos de
hidrógeno están unidos al oxigeno por enlaces covalentes. La molécula es fuertemente polar, porque el oxígeno
atrae más a los electrones que a los átomos de hidrógeno, por lo que la molécula actúa como un dipolo y posee
una alta electronegatividad. Las moléculas de agua forman entre sí puentes de hidrógeno, que se crean y se
destruyen constantemente, estos puentes son más débiles que los enlaces covalentes y de corta duración, sus
efectos determinan las propiedades típicas del agua.
Sales minerales:
Son elementos que el cuerpo requiere en cantidades bastante pequeñas. Su función es reguladora, no aportan
energía. Los macrominerales (calcio, fósforo, sodio, cloro, magnesio, hierro y azufre) son minerales esenciales y
se necesitan en mayor proporción que otras sales. Los microminerales o elementos traza son también
esenciales, pero el organismo los requiere en menor cantidad (cinc, cobre, yodo, cromo, selenio, cobalto,
molibdeno, manganeso y flúor), por lo que no hay tanta posibilidad de que se produzcan déficits.

Biomoléculas organicas:carbohidratos lípidos proteínas y acidos nucleicos

Las moléculas que forman parte de los seres vivos son sorprendentemente similares entre sí en estructura y
función, de hecho todos los organismos que conocemos contienen proteínas, ácidos nucleicos, y todos
dependen de agua para sobrevivir. Nuestro parentesco con plantas y bacterias se puede verificar si observamos
que sus moléculas y las muestras tienen mucho en común.

Los elementos que forman parte de los seres vivos se conocen como elementos biogenèsicos y se clasifican
enbioelementos primarios y secundarios. Los bioelementos primarios son indispensables para la formación de
las biomolèculas fundamentales, tales como carbohidratos, lípidos, proteínas y ácidos nucleicos. Estos
elementos constituyen aproximadamente 97% de la materia viva y son: carbono, hidrógeno, oxígeno,
nitrógeno, fósforo y azufre. Los bioelementos secundarios son todos los elementos biogenèsicos restantes. Se
pueden distinguir entre ellos los que tienen una abundancia mayor a 0.1% como el calcio, sodio, potasio,
magnesio, cloro y los llamados oligoelementos, los cuales se encuentran en concentraciones por debajo de
0.1% en los organismos, esto no significa que sean poco importantes, ya que una pequeña cantidad de ellos es
suficiente para que el organismo viva, sin embargo la ausencia de alguno puede causar la muerte.

Los CARBOHIDRATOS son moléculas biológicas muy abundantes. Se les conoce con el nombre de azúcares y
están formadas por carbono, hidrógeno y oxigeno. Los carbohidratos o azúcares se pueden encontrar en
diferentes formas:

Monosacáridos.- Son la unidad más pequeña de los azúcares.


Oligosacàridos.-Estos carbohidratos están formados por la unión de dos a diez unidades de azúcar.
Polisacáridos.- Como su nombre lo dice, son largas cadenas formadas por varias unidades de azúcar, incluso
cientos.

Los monosacáridos están formados por una cadena de tres a siete átomos de carbonos. De acuerdo al número
de carbonos se les llama triosa (3 carbonos), tetrosa (4 carbonos), pentosa (5 carbonos) y así sucesivamente, la
glucosa que está formada por 6 carbonos, es una hexosa, lo mismo que la fructosa o azúcar de las frutas. La
glucosa no se encuentra en la naturaleza en forma lineal, sino que tiende a formar anillos
Algunos ejemplos de monosacáridos son:
-Ribosa.- es una pentosa que forma parte del ARN o acido ribonucleico, que participa en los procesos de
elaboración de proteínas.
-Desoxirribosa.- Es también una pentosa y forma parte del ADN, la molécula de la herencia.
Fructosa.- Es el azúcar de de las frutas, se encuentra en la miel y se utiliza como edulcolorante de muchos
refrescos.
-Glucosa.- Es el monosacárido más abundante en los seres vivos, esta formada por seis carbonos, se produce
por la fotosíntesis de las plantas, circula en nuestra sangre y la encontramos en muchos productos dulces.
-Galactosa.- Es una hexosa que forma parte del azúcar de la leche.
Oligosacàridos la sacarosa es el azúcar que ponemos en la mesa todos los días, se obtiene de la caña de azúcar
o remolacha. Los disacáridos están formados por dos monosacáridos. En la sacarosa se une una molécula de
glucosa y una de fructosa. Otro disacárido familiar es la lactosa, que es el azúcar de la leche, está formada de la
unión de la glucosa y la galactosa. La maltosa está formada por la unión de dos moléculas de glucosa.

Polisacáridos.- son polímeros formados por la unión de muchos monosacáridos, algunos funcionan como
reserva energética tanto en plantas como en animales mientras que otros cumplen funciones estructurales, es
decir, que dan forma y firmeza a ciertos organismos por ejemplo:

Almidón.- Es el polisacárido de reserva de las plantas está formado por cientos de unidades de glucosa. Cuando
las células de las hojas producen azúcares mediante la fotosíntesis, almacenan una parte de ella como almidón
y otra la envían a las raíces y a las semillas, a las semillas les proporciona la energía que necesitan para germinar
y crecer. Cuando consumimos productos como papa, trigo, maíz, aprovechamos esa reserva energética de las
plantas y la convertimos en glucosa por medio de la digestión.

Glucógeno.- está formado por la unión de moléculas de glucosa formando una estructura muy ramificada, el
azúcar que ingerimos en los alimentos se convierte en glucosa, el exceso se envía hacía el hígado y se almacena
en forma de glucógeno, en su regulación participa la hormona insulina.

Celulosa.- contiene moléculas de glucosa enlazadas de manera distinta, es fibrosa y cumple función
estructural, los polímeros de glucosa forman fibrillas que dan forma a los tallos y hojas de las plantas. La
celulosa se encuentra en las paredes de las células vegetales. La utilizamos en las prendas de algodón, en los
muebles de madera y forman parte de las hojas de papel. Está no es digerible para los seres humanos.

Quitina.- Éste polisacárido se encuentra en el exoesqueleto de cangrejos, langostas e insectos, y también


forman parte de la pared celular de los hongos. Si has pisado un insecto, has sentido cómo truena su cubierta
externa. Este es un polisacárido estructural y cada unidad de glucosa contiene además un grupo amino (-NH2).
Los enlácese entre las moléculas de quitina son como los de la celulosa, y el ser humano no los puede digerir.

LÍPIDOS
Los lípidos se conocen también como grasas, son insolubles en agua y solubles en solventes orgánicos
no polares como el éter, el cloroformo o el benceno. Están formados por carbono, hidrógeno y oxígeno,
funcionan como reservas energéticas de la que se obtiene más energía que de los carbohidratos (un gr. de
carbohidratos proporciona 3.79 kcal, un gr. de grasa 9.3 kcal), aíslan del frío, así las ballenas y mamíferos
marinos tienen una capa importante de grasa debajo de la piel. Se dividen en:

Lípidos simples.- Sólo contienen carbono, hidrógeno y oxígeno. En este grupo se encuentran los aceites, grasas y
ceras. Su función es de reserva energética, muchas de las grasas naturales se forman de la unión de una
molécula de glicerol con tres ácidos grasos y se llaman triglicéridos. Muchos de ácidos grasos tienen 16 a 18
átonos de carbono por molécula. Los ácidos grasos pueden ser saturados si los enlaces entre los átomos de
carbono de su larga cadena son sencillos, o insaturados si existe algún doble enlace entre ellos. Forman grasas y
ceras que forman cubiertas aislantes que protegen, piel, pelaje, plumaje, hojas y frutos.

Lípidos compuestos.- además contiene otros elementos como fósforo y nitrógeno a este grupo pertenecen los
fosfolípidos, los cuales contienen un grupo fosfato asociado a un lípido, el grupo fosfato se convierte en la
cabeza polar de la molécula que va a ser hidrofilica y las cadenas de ácido graso se convierten en las colas
hidrofóbicas, esta propiedad hace que los fosfolípidos al contacto con el agua se sitúen formando dos capas en
las que las cabezas miran hacia el agua y las colas se esconden en medio, son componentes de la membrana
celular.
Esteriodes.- se componen de cuatro anillos de carbono fusionados. Un ejemplo es el colesterol que es un
componente vital de las membranas de las células animales y también participa en la síntesis de otros
esteroides como las hormonas sexuales femeninas y masculinas, o la aldosterona, hormona que controla los
niveles de sal.
Las PROTEÍNAS son moléculas muy grandes formadas por la unión de monómeros llamados aminoácidos. Un
aminoácido contiene un carbono central al que se une un grupo amino, un grupo carboxilo, un hidrogeno y un
grupo radical. Hay veinte aminoácidos diferentes que forman parte de los seres vivos, la diferencia entre ellos
está en el grupo R, con estos veinte aminoácidos se forman todas las proteínas que hay en la naturaleza. Cada
organismo produce varios cientos de proteínas características de su especie.
Las proteínas son los elementos fundamentales de un organismo, las uñas así como los diminutos vellos que
hay en ella están formados por queratina, una proteína estructural; la piel que la envuelva contiene colágeno,
una proteína que le da forma; por debajo de la piel están los músculos formados por actina y miosina, proteínas
contráctiles, es decir móviles. Si llegamos a los vasos sanguíneos, la sangre contiene proteínas, entre ellas la
hemoglobina, que transporta el oxígeno que respiras , y varias hormonas que regulan las funciones del
organismos, por ejemplo la insulina que regula el nivel de azúcar en la sangre. Si sufres una herida
rápidamente se presentan los anticuerpos, proteínas de defensa, además en todo momento dentro de cada
célula, están en acción cientos de enzimas para llevar a cabo las reacciones químicas que mantiene la vida.
ACIDOS NUCLÉICOS
Los ácidos nucleicos son polímeros formados por nucleótidos. Un nucleótido esta formado por una base
nitrogenada, una molécula de azúcar y un fosfato, en el caso el ácido desoxirribonucleico (ADN), el azúcar es
ladesoxirribosa.
Las bases nitrogenadas que forman parte del ADN son: bases púricas (adenina y guanina), y bases pirimídicas
(timina y citosina). El ADN es la molécula de la herencia, en él se codifica la información necesaria para el
desarrollo y el funcionamiento de un organismo, siendo el responsable de su transmisión hereditaria. El ADN
superenrollado (estructura terciaria) constituye a los cromosomas
El modelo de estructura en doble hélice del ADN, fue propuesto en 1953 por James Watson y Francis Crick ,
demostraron que en el ADN existía siempre la misma proporción de adenina y timina, y la concentración de
guanina era la misma que la de citosina. Esto junto con otras evidencias permitieron saber que la molécula del
ADN es una doble cadena en forma de hélice, en la que las bases nitrogenadas se enlazan por medio
de puentes de hidrógeno: adenina con timina y citosina con guanina (es decir una base púrica con una
pirimídica).
La función del ARN o ácido ribonucleico es interpretar la información codificada en el ADN y realizar el proceso
de síntesis de proteínas que se requieren en determinado momento en un organismo. Recuerda la molécula
de ARN, también está formada por nucleótidos, pero en este caso el azúcar es ribosa y en las bases
nitrogenadas, en lugar de timina, hayuracilo. Además no olvides que el ARN esta formado de una sola cadena.
Relacionar ADN, código genético y síntesis de proteínas, para comprender la continuidad y evolución de las
especies.
El ADN contiene toda la información hereditaria de un ser vivo, es decir, tiene las instrucciones exactas de
cómo construir las proteínas de cada organismo. Esto significa que cada organismo mantiene las características
propias de su especie gracias a su ADN. La información genética se encuentra en el núcleo. Cuando llega el
momento de reproducirse, es en el núcleo donde se produce una copia fiel del ADN para la formación de las
células hijas, por medio de la replicación del ADN.

Cuando una célula se va a reproducir necesita duplicar su información genética. Al proceso de copia mediante
el cual se forma una nueva molécula de ADN se le llama REPLICACIÓN. Este proceso se realiza en tres pasos:
1.- La enzima helicasa rompe los puentes de hidrógeno que unen las dos cadenas de la doble hélice de ADN.
2.- cada cadena va a servir de molde para que en ella se coloquen nucleótidos y se forme una nueva cadena
complementaria. La enzima ADN polimerasa empieza a colocar los nucleótidos que corresponden a la
secuencia de la cadena de ADN (guanina –citosina; adenina-timina).
3.- Los nucleótidos de cada cadena forman puentes de hidrógeno y la molécula toma la forma de doble hélice
(participa la enzima ADN ligasa). Y se liberan dos moléculas de ADN, cada una conserva una cadena original y
tiene una cadena nueva recién elaborada, por esto la replicación de ADN es semiconservativa.
SÍNTESIS DE PROTEÍNAS
La síntesis de proteínas es un proceso esencial en los seres vivos, y para que se lleve a cabo se requiere la
participación del ARN o ácido ribonucleico. El ARN lleva a cabo su función en dos etapas:
Transcripción.- El ARNm obtiene la información contenida en el ADN, esto consiste en la copia del ADN, por el
ARN mensajero, molécula que se encargará posteriormente de dirigir la síntesis de proteínas que se requieren
en la célula. En resumen, los procesos que se llevan a cabo en el núcleo son:
Traducción.- Se interpreta la información que el ARN mensajero copió del ADN y se construye una proteína.
El segmento de ADN que codifica para la síntesis de una proteína se llama gen, es decir el ADN está formado
por varios miles de genes. El primer paso para la TRANSCRIPCIÓN consiste en que el ADN se abra para permitir
ser copiado, después la enzima ARN polimerasa va colocando los nucleótidos necesarios para formar una
molécula de ARN mensajero, complementaria a la cadena de ADN que se esta copiando (guanina con citosina y
adenina con uracilo), el ARN mensajero se desprende, y sale del núcleo.
Para la TRADUCCIÓN de ADN, es necesaria la participación del ARN ribosomal, el cual forma los ribosomas, ahí
es donde se lleva a cabo la síntesis de proteínas, y se inicia la interpretación del mensaje. La información del
ARN mensajero se lee por tripletes (paquete de tres letras) llamado codón o triplete. Los ARN de transferencia
acarrean aminoácidos componentes de las proteínas (cada codón forma un aminoácido) y los van colocando en
el orden correspondiente, de acuerdo con la información que contiene el ARN mensajero. En cada codón del
ARNm se va a colocar el ARNt que tenga el anticodón correspondiente y colocará el aminoácido que trae
consigo. Los aminoácidos acarreados y colocados en el ribosoma se van uniendo por enlaces peptídicos y dan
lugar a la cadena de proteína. Cuando termina de interpretarse el mensaje la proteína se libera del ribosoma.
AGUA
Las tres cuartas de nuestro planeta están cubiertas por este líquido vital; también representa 63% de nuestro
peso, es decir las dos terceras partes de cada uno de nosotros, las propiedades del agua son muy especiales,
tanto que gracias a ella la vida ha podido desarrollarse en nuestro planeta, la molécula del agua está formada
por dos átomos de hidrógeno y uno de oxígeno, de manera que su fórmula molecular es H2O, el extremo donde
está el oxígeno es un tanto negativo y el extremo donde están los hidrógenos es un tanto positivo; a esto se le
llama polarización.
La polarización favorece la atracción entre una molécula de agua y otra, de manera que se forman entre las
moléculas de agua enlaces de breve duración, llamados puentes de hidrógeno. Esto permite que el agua tenga
propiedades muy especiales como:

+ La cohesión de las moléculas de agua es elevada, esto hace que sea un líquido prácticamente incompresible.
Por este motivo es un buen componente para dar turgencia a las plantas, es decir mantenerlas en forma.

+La tención superficial de las moléculas del agua es alta debido a que se encuentran unidas por los puentes de
hidrógeno. Esto permite que se forme una película o capa que puede sostener a un insecto, como los llamados
patinadores.

+Las moléculas de agua muestran un fenómeno de adhesión que da la capilaridad, por la cual el agua sube
espontáneamente al estar en un tubo muy delgado (capilar) La adhesión junto con la cohesión favorecen el
ascenso de agua en los sistemas vasculares de los árboles.

+La temperatura del agua de los oceanos, lagos y ríos no se eleva fácilmente, y los seres que viven en ellos
pueden mantenerse estables, a pesar de las fluctuaciones de temperatura atmosférica durante el día y la
noche.

+Otra propiedad del agua es que cuando pasa a su estado sólido, es decir se congela a 0°C, su densidad es
menor que cuando se encuentra en estado líquido, por consecuencia el hielo flota sobre el agua fría, lo cual
permite la supervivencia de animales que viven bajo la superficie de lagos y mares que se congelan durante el
invierno.

+Sirve como solvente de una gran cantidad de sustancias. A las que se les llama hidrófilas, además el agua es el
medio en donde se realiza la mayor parte de las reacciones químicas de la célula.

+Existen sustancias llamas hidrófobas, que no se mezclan o disuelven en ella. Tal es el caso de los aceites.
+Otra propiedad del agua es que se encuentra ionizada, es decir, algunas de sus moléculas se descomponen en
iones (H+) y en iones hidroxilo ( OH- ) Esta ionización del agua es la base de la escala de pH, en la que se mide
la concentración de iones H+ en un líquido determinado. El agua pura siempre tiene la misma proporción de
iones H+ y de iones OH- , y se dice que es neutra, su pH es 7. Las sustancias como el limón, el vinagre o el café
son ácidas porque contienen una mayor concentración de iones H+ . Cuantos más iones H+ libere en solución,
más ácidas son. A mayor acidez el valor del pH será menor y puede llegar a 1. Las sustancias con altos niveles
de (OH- ) son sustancias básicas, y su pH puede llegar hasta 14.

Las reacciones químicas de los seres vivos se llevan a cabo en determinadas condiciones de pH, por lo que es
importante que éste no se altere. Nuestra sangre, por ejemplo, tiene un pH cercano a 7, mientras que nuestros
jugos gástricos sólo funcionan a pH 1, es decir a una elevada concentración de ácidos.

Los minerales se encuentran en pequeñas cantidades en el cuerpo y cumplen funciones muy importantes.
Deben obtenerse de la dieta, ya sea de los alimentos o del agua. Los minerales entran a nuestro organismo
como parte de una sal. Los iones que existen en un organismo vivo deben mantenerse en concentraciones
constantes, para evitar alteraciones importantes en la permeabilidad, excitabilidad y contractibilidad de las
células. Existen mecanismos homeostáticos encargados de mantener el equilibrio de las sales del cuerpo. En
ocasiones, por alguna enfermedad este equilibrio se altera como cuando se retienen sales minerales por daño
en los riñones lo cual provoca hipertensión arterial. El consumo excesivo de sales puede generar problemas
como alteraciones cardiovasculares.

Las vitaminas son un grupo de compuestos que los animales y el ser humano requieren ingerir de los alimentos
en pequeñas cantidades, pues el cuerpo es incapaz de producirlas (o al menos no en suficiente cantidad).
Debido a que cada vitamina participa en varios procesos metabólicos, la deficiencia de una sola puede tener
efectos muy severos. Aunque las vitaminas no proporcionan energía son importantes pues ayudan al
funcionamiento de las células. La vitamina A interviene en la formación y mantenimiento de huesos, dientes,
mucosas, piel, pelo y uñas, además desempeña un papel importante en el desarrollo de una buena visión. La
vitamina D ayuda a regular el metabolismo del calcio y el fósforo. El compleja vitamínico B (compuesto por
cinco vitaminas diferentes: B1, B2, B3, B6, B12) es fundamental para el desarrollo y el crecimiento del sistema
nervioso. La vitamina C ayuda a la prevención de enfermedades respiratorias.

2. Teoría sobre el origen de la vida


Teoría sobre la generación espontanea
La 'teoría de la generación espontánea' (también conocida como 'arquebiosis o abiogénesis') es una antigua
teoría biológica que sostenía que ciertas formas de vida (animal y vegetal) surgen de manera espontánea a
partir ya sea de materia orgánica, inorgánica o de una combinación de las mismas.
Creencia profundamente arraigada desde la antiguedad ya que fue descrita por Aristóteles, luego sustentada y
admitida por pensadores comoDescartes, Bacon o Newton, comenzó a ser objetada en el Siglo XVII. Hoy en día
la comunidad científica considera que esta teoría está plenamente refutada.
La teoría de la generación espontánea postulaba que el origen de la vida provenía por ejemplo de el barro, el
polvo o la comida descompuesta.
Por ejemplo una de las generaciones espontáneas creídas era que si uno juntaba mucha basura allí nacerían
ratas y ratones, hoy en día sabemos que no es así, y también sabemos porque es que los roedores de este
estilo hurgan nuestros desperdicios.
Gusanos, sapos y salamandras, entre otras criaturas también nacían de forma "espontánea".
-Lo curioso es que la teoría de la generación espontánea fue apoyada durante varios siglos, desde
aproximadamente el siglo IV a.c. hasta finales del siglo XIX d.c., cuando fue substituida por la Biogénesis.
-HISTORIA
Esta teoría fue iniciada por Aristóteles, el cual estaba ya cansado de deducir e inventar cosas, terminó
por inventar cosas como la generación espontánea... Y que Platón era un mal profesor. Asombrosamente, los
otros griegos sabelotodo lo discutieron mientras andaban por las atrevidas calles de Grecia desnudos, unos
gritando "¡Eureka!" y otros sin saber nada a estas alturas.
La idea nació del gran porqué filosófico sofista de cómo una cosa sale de un lugar inesperado. Por ejemplo: los
borrachos nacen en las licorerías, los gusanos vienen de las tumbas en descomposición y Aristóteles venía de
los prostíbulos. El hecho es que el organismo se encuentra allí sin ninguna explicación sin que nadie lo viera irse
hace caer en una sola respuesta: ésta es la teoría más aburrida. Durante años el hombre ha deseado saber su
origen o el por qué de la dureza de las piedras cuando éste intenta rompérselas en lacabeza, lo último en el
caso del principio de los tiempos o del final de ellos. Ya en la actualidad tenemos mejores preguntas como: ¿por
qué cuando dejó una moneda en medio de la calle desaparece por arte de magia? Es muy simple: generación
espontánea y evolución; la moneda evoluciona en un organismo y se va volando del lugar.
EXPERIMENTOS
Aristóteles en uno de esos griegos con la mala costumbre de querer saber "absolutamente" todo, teniendo una
teoría propia para cada cosa, se le ocurrió la idea de insinuar que los humanos vienen de desechos y animales
descompuestos. Un ejemplo bien podría ser que cuando se muere una vaca, al rato ella se partirá en dos y
saldrá un ser humano vestido de campesino con un poco de secreciones viscosas.
Muchas otra teorías que creo fueron un gran trauma psicológico para los que ya tenían una religión o una
creencia propia, ya que las teorías de Aristóteles eran tan creíbles que cualquier otra teoría le pudo haber
resultado simplemente estúpida. Una de las mas notables fue, por ejemplo, la de la clasificación de "organismo
con sangre" y "organismos sin sangre"; lástima que 1900 años después unos herejes hicieran creer que los
organismos solo funcionan con sangre.
-Louis Pasteur (1862)
El problema seguía sin resolverse definitivamente en la segunda mitad del siglo XIX, hasta que el biólogo
francés Louis Pasteur se propuso emprender una serie de experimentos para solventar la cuestión de la
procedencia de esos microorganismos que, en apariencia, se generaban espontáneamente. En
1862 Pasteur llegó a la conclusión de que los gérmenes penetraban en las sustancias procedentes de su
entorno.
Él pensaba que los causantes de la putrefacción de la materia orgánica eran los microorganismos que se
encontraban en el aire. Para demostrar su hipótesis, diseño unos matraces cuello de cisne, en los cuales coloco
líquidos nutritivos que después hirvió hasta esterilizarlos. Posteriormente, observo que en el cuello de los
matraces quedaban detenidos los microorganismos del aire y aunque este entraba en contacto con la sustancia
nutritiva, no había putrefacción de la misma. Para verificar sus observaciones, rompió el cuello de cisne de un
matraz, y al entrar en contacto él liquido con el aire y los microorganismos que contenía él ultimo, se producía
una descomposición de la sustancia nutritiva. Ese descubrimiento dio lugar a un debate feroz con el biólogo
francés Félix Pouchet, y más tarde con el respetado bacteriólogo inglés Henry Bastion; éste último mantenía
que la generación espontánea podía darse en condiciones apropiadas. Una comisión de la Academia de
Ciencias aceptó oficialmente en 1864 los resultados de Pasteur, a pesar de ello los debates duraron hasta bien
entrada la década de 1870.
-Jhoann B. Van Helmont (1667)
La idea de la generación espontánea de los seres vivos, perduro durante mucho tiempo. En 1667, Johann B, Van
Helmont, medico holandés, propuso una receta que permitía la generación espontánea de ratones: “las
criaturas tales como los piojos, garrapatas, pulgas, y gusanos, son nuestros huéspedes y vecinos, pero nacen de
nuestras entrañas y excrementos. Porque si colocamos ropa interior llena d sudo junto con trigo en un recipiente
de boca ancha, al cabo de 21 días el olor cambia y penetra a graves de las cáscaras del trigo, cambiando el trigo
en ratones. Pero lo más notable es que estos ratones son de ambos sexos y se pueden cruzar con ratones que
hayan surgido de manera normal…” Algunos científicos no estaban conformes con esas explicaciones y
comenzaron a someter a la experimentación todas esas ideas y teorías.

-Francesco Redí (1668)


Francisco Redí, medico italiano, hizo los primeros experimentos para demostrar la falsedad de la generación
espontánea. Logró demostrar que los gusanos que infestaban la carne eran larvas que provenían de huevecillos
depositados por las moscas en la carne, simplemente coloco trozos de carne en tres recipientes iguales, al
primero lo cerro herméticamente, el segundo lo cubrió con una gasa, el tercero lo dejo descubierto, observo que
en el frasco tapado no había gusanos aunque la carne estaba podrida y mal oliente, en el segundo pudo
observar que, sobre la tela, había huevecillos de las moscas que no pudieron atravesarla, la carne del tercer
frasco tenia gran cantidad de larvas y moscas. Con dicho experimento la teoría conocida como la generación
espontánea quedaba en parte desautorizada (no exenta de polémica) a pesar del arraigo que esa teoría tenía
en la historia de la biología.
-Anthony Van Leeuwenhoek (1677)
La polémica sobre la generación espontánea se avivó aún más cuando en 1677 Anthony Van Leeuwenhoek, un
fabricante de microscopios y pionero en descubrimientos sobre los protozoos, desautorizó de nuevo la antigua
teoría cuando experimentó sobre microorganismos sólo visibles al microscopio, ante la aparente constatación
de que estos seres aparecían espontáneamente en los alimentos en descomposición. Demostró que las pulgas
y gorgojos no surgían espontáneamente a partir de granos de trigo y avena, sino que se desarrollaban a partir
de diminutos huevos. Encontró en las gotas de agua sucia gran cantidad de microorganismos que parecían
surgir súbitamente con gran facilidad. Este descubrimiento fortaleció los ánimos de los seguidores de la
“generación espontánea”
A pesar de los experimentos de Redí, la teoría de la generación espontánea no había sido rechazada del todo,
pues lasinvestigaciones, de este científico demostraba el origen de las moscas, pero no el de otros organismos.
-Needham
En esos mismos tiempos, otro científico llamado Needham, sostenía que había una fuerza vital que originaba la
vida. Sus suposiciones se basan en sus experimentos: hervía caldo de res en una botella, misma que tapaba con
un corcho, la dejaba reposar varios días y al observar al microscopio muestra de la sustancia, encontraba
organismos vivos. Él afirmaba que el calor por el que había hecho pasar el caldo era suficiente para matar a
cualquier organismo y que, entonces, la presencia de seres vivos era originada por la fuerza vital. Sin embargo
Spallanzani no se dejo convencer como muchos científicos de su época. Esto lo llevo a concluir que los
organismos encontrados por Needham procedían del aire que penetraba a través del corcho.
-Lazzaro Spallanzani (1768)
Tuvieron que transcurrir cien años para que en 1768 el fisiólogo italiano Lazzaro Spallanzani (uno de los
fundadores de la biología experimental) demostrase la inexistencia de generación espontánea. Hirviendo un
caldo que contenía microorganismos en un recipiente de vidrio, y cerrándolo después herméticamente para
evitar la entrada de aire, el líquido se mantuvo claro y estéril. Esto lo llevo a concluir que los organismos
encontrados por Needham procedían del aire que penetraba a través del corcho. Los inmovilistas de esa época
no dieron validez al experimento, a pesar de su rotundidad, y expusieron como argumento que se había
alterado el aire del interior del recipiente por efecto del calor, eliminando los principios creadores de la vida.

Teoría de la panspermia
Hacia finales del siglo XIX tuvo cierto crédito la tesis evolucionista, defendida por el insigne químico suceso S.A. Arrhenius,
según la cual la vida sobre la Tierra habría comenzado al existir al mismo tiempo que la materia inorgánica.

Esta teoría afirmaba que la vida apareció sobre la Tierra después de ser transportada por esporas o microorganismos
provenientes del cosmos. Con todo, resulta improbable que unos organismos vivos hubieran podido sobrevivir a las
radiaciones letales y a las bajísimas temperaturas del espacio.

es una hipótesis que propone que la vida puede tener su origen en cualquier parte del universo, y no procede directa ni
exclusivamente de la Tierra, que probablemente la vida en la Tierra proviene del exterior y que los primeros seres vivos
habrían llegado posiblemente en meteoritos o cometas desde el espacio a la Tierra.12 Estas ideas tienen su origen por el
sueco Svante August Arrhenius.

La hipótesis de la Panspermia solo hace referencia a la llegada a la Tierra de formas de vida microscópicas desde el
espacio exterior, pero no de moléculas orgánicas precursoras de la vida (teoría de la panspermia molecular o
pseudopanspermia). Tampoco trata de explicar cómo se produjo el proceso de formación de la posible vida panspérmica
proveniente de fuera de nuestro planeta.

Terminología

El término «panspermia» fue defendido por el biólogo alemán Hermann Richter en 1865. En 1908, el químico
sueco Svante August Arrhenius usó la palabra para explicar el comienzo de la vida en la Tierra. El astrónomo Fred
Hoyle también apoyó esa hipótesis. No fue hasta 1903 que el premio nobel de química Svante Arrhenius popularizó el
concepto de que la vida se había originado en el espacio exterior.3

Proceso

Hipótesis de la panspermia natural

Esta hipótesis propone que los organismos vivos habrían llegado en meteoritos o cometas desde el espacio a la Tierra,
después de haber habitado otros cuerpos celestes.

Hipótesis de la panspermia dirigida

Relacionada con la hipótesis de la panspermia, también se ha postulado la hipótesis de una panspermia artificial,
conocida como hipótesis de panspermia dirigida.

Esta se refiere a un hipotético transporte deliberado de microorganismos en el espacio para ser introducidos
como especies exóticas en planetas sin formas de vida, y se refiere tanto a microorganismos supuestamente enviados a la
Tierra para comenzar la vida aquí, como al caso contrario, es decir, el traslado de seres vivos de la tierra a otros planetas.
La vida sería enviada –deliberada o accidentalmente– para sembrar de vida nuevos sistemas solares.

Pros y contras de la teoría panspérmica

Pruebas a favor de la hipótesis


Panspermia

Existen estudios que sugieren la posible existencia de bacterias capaces de sobrevivir largos períodos de tiempo incluso
en el espacio exterior.4567891011 También se han hallado bacterias en la atmósfera a altitudes de más de 40 km donde es
posible, aunque poco probable, que hayan llegado desde las capas inferiores.

Algunas bacterias Streptococcus mitis que en 1967 se transportaron accidentalmente a la Luna en la nave Surveyor
3 pudieron revivirse sin dificultad a su regreso a la Tierra tres años después.1213

El análisis del meteorito ALH84001, que se considera originado en el planeta Marte, muestra estructuras que podrían
haber sido causadas por formas de vida microscópica. Esto es lo más cercano a un indicio de vida extraterrestre que se ha
podido obtener, y sigue siendo muy controvertido. Por otro lado, en el meteorito Murchison se han hallado uracilo y
xantina, dos precursores de las moléculas que configuran el ARN y el ADN.14

En 2006 la revista científica Astrophysics and Space publicó un análisis de la "lluvia roja de Kerala" de 2001, en la ciudad
de Kerala, al sur de India. Este fenómeno consistió en una lluvia escarlata, que al ser analizada al microscopio por el
físico Godfrey Louis en busca de contaminación, no reveló ni polvo ni arena. Estaba plagada de estructuras con forma de
células rojas, muy parecidas a los microbios terrestres, pero sin indicios de ADN.

Su análisis, junto con informes que hablaban de un ruido similar al de un objeto que supera la barrera del sonido y que se
habría escuchado inmediatamente antes de producirse la lluvia, convencieron a Louis de que estas extrañas células
podrían ser de origen extraterrestre y habrían llegado en un cometa o asteroide.

Posteriormente, Louis y otros investigadores que analizaron las muestras afirmaron haber podido reproducir estas células
a temperaturas de 121°C o incluso superiores, y haber comprobado que estas células permanecen latentes a
temperatura ambiente (algo que no sucede ni siquiera en células extremófilas)15

Críticas y pruebas en contra de la hipótesis

El mayor inconveniente de esta teoría es que no resuelve el problema inicial de cómo surgió la vida (biogénesis), sino que
se limita a pasar la responsabilidad de su origen a otro lugar del espacio.

Otra objeción es que las bacterias no sobrevivirían a las altísimas temperaturas y a las fuerzas que intervienen en un
impacto contra la Tierra, aunque aún no se ha llegado a conclusiones en este punto (ni a favor ni en contra), pues se
conocen algunas especies de bacterias extremó filas. Sin embargo, en los experimentos que recrean las condiciones de
los cometas bombardeando la Tierra, las moléculas orgánicas, como los aminoácidos, no solo no se destruyen, sino que
comienzan a formar péptidos.

Teoría de biogénesis
La idea de la generación espontánea se reemplazo por la teoría de la biogénesis, cuyo postulado, sostiene que los
organismos vivos, pueden producir a otros organismos. Ejemplo, una araña pone huevos, lo cual produce más arañas.
Introducción

Louis Pasteur, biólogo francés, químico y bacteriólogo, refutó de forma definitiva la teoría de la generación espontánea,
postulando la ley de la biogénesis, que establece que todo ser vivo proviene de otro ser vivo ya existente.
¿Quién demostró esta teoría?
Demostró que el aire es la fuente común de los microorganismos. La materia no viva se contamina a partir de las
bacterias presentes en el aire, en el suelo y en los objetos.
Experimentos de Pasteur
Los experimentos de Pasteur, hoy en día es fundamental en la medicina moderna y la microbiología clínica y condujo a
innovaciones tan importantes como el desarrollo de vacunas, los antibióticos, la esterilización y la higiene como métodos
efectivos de cura y prevención contra la propagación de las enfermedades infecciosas.
Medicina moderna
Finalmente apareció la hipótesis denominada biogénesis o quimiosíntesis. Esta teoría explica la aparición de la vida sobre
la Tierra, por medio de un proceso de diversas reacciones químicas que, luego de mucho tiempo, transformaron la
materia inorgánica en materia orgánica.
Origen de la vida
Cada uno de estos investigadores, de manera autónoma, ha llegado a conclusiones que se complementan y que hacen de
la biogénesis una explicación aceptable del origen de la vida. La biogénesis, acepta el origen fisicoquímico de la vida;
explica su aparición en la Tierra a partir de los elementos presentes en la atmósfera primitiva (anhídrido carbónico,
metano, nitrógeno, hidrógeno y oxígeno) en combinación con la intensa actividad volcánica y eléctrica de aquella
atmósfera.
Teorias de Oparin y experimentos de Miller
Los investigadores estadounidenses Miller y Urey idearon un experimento sencillo, que ha servido de apoyo a esta teoría.
En este experimento se suministraron, aproximadamente durante una semana, descargas eléctricas en un recipiente que
contenía una mezcla de hidrógeno, metano, nitrógeno y amoniaco; al mismo tiempo se administraba vapor de agua. Todo
esto para crear experimentalmente las mismas condiciones que probablemente existieron en la atmósfera al principio de
la historia de la Tierra.
Resultados del experimentos
Esta teoría es la base de las ideas que se aceptan en la actualidad y se debe, en gran parte, al bioquímico ruso A. l. Oparin.

Oparin supone en su teoría que "la vida se origina a partir de la evolución gradual de compuestos de carbono y nitrógeno.

Teoría de la evolución química


La evolución química es la teoría sobre el origen de la vida mayoritariamente aceptada por la comunidad
científica. Pretende demostrar que la vida surge a partir de elementos químicos sencillos, que van generando
bloques moleculares cada vez más complejos. Así la materia evolucionaría desde las formas inorgánicas inertes
hasta la materia orgánica viva.
La base de referencia de esta teoría es doble. Por un lado, Darwin y su teoría de la evolución biológica —que
veremos en el capitulo10 – que produjo un cambio paradigmático en la manera de ver los procesos naturales.
La evolución darwiniana nos muestra como la variabilidad y la selección actúa como motores del cambio en la
naturaleza.
El otro punto de referencia surge dentro de este nuevo contexto paradigmático. Alexandre Ivánovich Oparin,
bioquímico soviético, postuló a principios de los años 20 que las moléculas orgánicas habían surgido en la
superficie de la Tierra a partir de los compuestos inorgánicos y habían evolucionado hacia las formas más
primitivas de vida.
De cuán lento haya sido este proceso, no estamos seguros, aunque los fósiles nos dan una aproximación. Se
han encontrado evidencias de restos celulares fosilizados, datados radiactivamente, en torno a los 3,5 miles de
millones de años (Ga). Asumiendo que la Tierra se formó hace 4,6 Ga de años, y que la datación más antigua de
rocas esta en torno a los 4 Ga de años, nos encontramos con medio billón de años desde la existencia de una
superficie sólida donde desarrollar la vida y la aparición de las primeras células. Nos situamos así en el eón
Hadeano y el eón Arcaico. Y como vimos en el capitulo7, estos no eran precisamente tiempos propicios para el
desarrollo de la vida.
La consideración de unas condiciones ambientales muy diferentes a las actuales por parte de Oparin, es
posiblemente una de los aspectos que da más consistencia a su teoría — aun asumiendo que las condiciones
reales no fueran exactamente las mismas.
La hipótesis de Oparin se planteaba en los siguientes términos: existía una atmósfera primitiva de fuerte
carácter reductor. A diferencia de la nuestra, rica en oxígeno y nitrógeno, la atmósfera primitiva tenía una
ausencia prácticamente total de oxígeno y contaba con la presencia de gases reducidos como metano (CH4),
amoniaco (NH3) e hidrógeno molecular (H2), acompañados de vapor de agua. Había también una gran cantidad
de “energía libre en el ambiente” debidas a la alta actividad volcánica y las fuertes tormentas eléctricas.

Como consecuencia de la ausencia de la capa de ozono, los niveles de radiación ultravioleta eran muy
superiores a los actuales. En este ambiente, siempre según la teoría, se favorecieron las reacciones de los gases
atmosféricos y la formación de las moléculas orgánicas, que se acumularon en los océanos primitivos formando
la llamada “Sopa Primordial”.

Biología 2
1. genética molecular
Estructura del ADN
EL ADN almacena la información en el ADN como un código compuesto por cuatro bases químicas: adenina,
guanina, citosina y timina. El material genético humano consta de unos 3 billones de bases, y más de 99 por
ciento de esas bases son las mismas en todas las personas. El orden o secuencia de estas bases determina la
información disponible para construir y mantener el organismo.
Las bases se unen entre ellas, A con T y C con G, para formar unidades llamadas pares de bases. Cada base se
une a una molécula de azúcar y una molécula de fosfato formando un nucleótido. Los nucleótidos se disponen
en dos filas que forman una espiral que se llama doble hélice.
Una propiedad importante del ADN es que puede replicarse y hacer copias de sí mismo. Cada fila de material
genético en la doble hélice puede servir como patrón para duplicar la secuencia de bases. Esto es fundamental
cuando las células se dividen porque cada célula nueva tiene que tener una copia exacta del material genético
presente en la célula anterior.

ARN y síntesis de proteínas


Se debe mencionar que la molécula del ADN contiene información valiosísima que determina la identidad de
cada organismo y es imprescindible para el desarrollo de sus funciones vitales.
Pero esta información no tendría sentido alguno si no pudiera ser interpretada o descifrada para ser utilizada
en la formación y fisiología de un ser vivo.
Se puede ejemplificar al ADN con un libro lleno de datos acerca de cómo construir organismos, pero es
necesario interpretar esta información, para traducirla en formas, colores, diseños naturales, color de ojos, de
cabello, etc., y es aquí donde el ácido ribonucleico (ARN) entra en acción.
Su función (ARN) es interpretar la información codificada en el ADN y convertirla en las proteínas que se
requieren en determinado momento en un organismo, de acuerdo con sus características específicas.
El ARN es un ácido nucleico, similar al ADN, el cual también está formado por nucleótidos, pero en este caso el
azúcar es ribosa y en las bases nitrogenadas, en lugar de timina, hay uracilo:

Otra diferencia importante entre la molécula de ADN y la de ARN es:


-El ADN tiene doble cadena y el ARN sólo tiene una y es mucho más corta.
-El ADN sólo se ubica en el núcleo de la célula y el ARN puede estar en diversas ubicaciones distribuido en la
célula dentro y fuera del núcleo.
Existen tres tipos de ARN:
-Mensajero
-De transferencia
-Ribosomal

A manera de ejemplo:
El ARN lleva a cabo su función en dos etapas:
-Transcripción.
El ARN mensajero (ARNm) obtiene la información contenida en el ADN.
-Traducción.
Se interpreta dicha información y se construye una proteína de acuerdo con las instrucciones codificadas y
transcritas, cabe mencionar que desde la época de Watson y Crick, se llegó a la conclusión de que la
información del ADN fluye de la siguiente manera:

En los inicios se pensó que la información siempre fluía de esa manera y se decía que éste era el “dogma
central de la biología molecular”, sin embargo, en la ciencia no existen verdades absolutas, por lo que años más
tarde se demostró que también era posible que el ARN fuera un molde para que se elaborara ADN, en otras
palabras, una de las flechas de arriba puede ir en sentido contrario, este proceso lo llevan a cabo los retrovirus,
como es el caso del que causa el sida.

Transcripción del ADN


El ADN contiene la información para producir unas 3000 o más proteínas diferentes, de acuerdo con estudios
realizados, se ha llegado a la conclusión, de que el segmento de ADN que codifica para la síntesis de una
proteína o de una cadena de proteína es un gen, o sea que el ADN está formado por varios miles de genes.
Cuando es necesario formar una proteína en particular, se produce una copia del segmento de ADN, es decir,
del gen que codifica para esa proteína, para ejemplificar esto, es como si se tuviera un libro con mucha
información pero del cual sólo se va a fotocopiar la página que nos interesa.
El primer paso para la transcripción consiste en que el ADN se abra para permitir ser copiado.
La enzima ARN polimerasa va colocando los nucleótidos necesarios para formar una molécula de ARN
mensajero que sea complementaria a la secuencia de ADN que se está copiando.
Posteriormente se coloca una adenina donde haya timina, guanina con citosina y uracilo donde haya adenina

Una vez que se ha copiado el segmento de ADN, el ARN mensajero se desprende, sale del núcleo y comienza
sus funciones en el citoplasma, la molécula de ADN se cierra de nuevo y permanece en el núcleo.
Traducción del ADN
Para la interpretación o traducción del mensaje del ADN, es necesaria la participación del ARN ribosomal, el
cual forma los ribosomas, que es donde se lleva a cabo la síntesis de proteínas:

También es importante la participación de los ARN de transferencia, los cuales tienen la forma de un trébol.
Hay que considerar que en una parte de la molécula hay un grupo de tres bases llamado anticodón, y en otra
parte de la molécula hay un sitio por el cual puede unirse a un aminoácido, al cual va a transportar:

Al imaginar que el ADN es como si fueran los planos para construir todos los edificios y las casas de la ciudad:
1.- Se comienza por construir una casa y el arquitecto (ARN mensajero) va a las oficinas centrales (núcleo) y
obtiene una copia de los planos que necesita.
2.- La copia se utiliza para saber el orden en que deben colocarse los componentes de la casa.
3.- Los albañiles (ARN de transferencial) se encargan de acarrear los ladrillos que hagan falta y los van
colocando en el orden que les indican los planos.
4.- Cada uno de los albañiles se especializa en acarrear un tipo determinado de ladrillos.
5.- La construcción se lleva a cabo en un lote o terreno (ARN ribosomal).
6.- Al final se obtiene una casa (proteína), elaborada de acuerdo con los planos originales.

El código genético
En el proceso de interpretación de la información del ADN la célula tiene su propia clave o código para
determinar que aminoácidos deben colocarse para armar una proteína determinada.
Se debe considerar que esa clave está en el mensaje del ADN, ya que de acuerdo a los tripletes o codones que
se van leyendo se van colocando los aminoácidos correspondientes.
Los científicos se han encontrado con un gran reto tras el descubrimiento del ADN, ya que fue necesario
determinar la forma en que se podía interpretar el código genético, era necesario saber que aminoácidos se
colocan en una proteína a partir de una secuencia determinada de ADN
Los científicos Marshall Nirenberg y Henrich Matthaei fueron los principales responsables de descifrar este
código, ya que en 1961 realizaron sus experimentos que condujeron a la interpretación del código genético
EL código tiene las siguientes características:
1.- Consiste en 64 tripletes que corresponden a los 20 aminoácidos, por lo tanto algunos aminoácidos tienen
dos o más codones que los codifican, por esta característica se dice que el código es redundante o degenerado.
2.- Cada codón codifica para un aminoácido determinado, lo que significa que el código no es ambiguo.
3.- Existen un codón de inicio y tres codones de terminación, estos últimos no codifican para ningún
aminoácido.
4.- El código es universal porque todos los seres vivos que hay en nuestro planeta responden de la misma
manera a las instrucciones del ADN, esto refuerza la idea de que todos los seres vivos tenemos un origen
común.
La interpretación del código genético ha sido un gran avance para la ciencia y en él se basan las aplicaciones de
la biotecnología actual, ya que se sabe qué mensaje genético se necesita para la síntesis de determinada
proteína, como la insulina.
El código genético es el conjunto de reglas que define cómo se traduce una secuencia de nucleótidos en
el ARN a una secuencia de aminoácidos en una proteína. El código es común a todos los seres vivos (aunque
hay pequeñas variaciones), lo cual demuestra que ha tenido un origen único o universal, al menos en el
contexto de nuestro planeta.1
El código define la relación entre cada secuencia de tres nucleótidos, llamada codón, y cada aminoácido.
La secuencia del material genético se compone de cuatro bases nitrogenadas distintas, que tienen una
representación mediante letras en el código genético: adenina (A), timina (T), guanina (G) y citosina (C) en el
ADN y adenina (A), uracilo (U), guanina (G) y citosina (C) en el ARN.2
Debido a esto, el número de codones posibles es 64,3de los cuales 61 codifican aminoácidos (siendo además
uno de ellos el codón de inicio, AUG) y los tres restantes son sitios de parada (UAA, llamado ocre; UAG, llamado
ámbar; UGA, llamado ópalo).4 La secuencia de codones determina la secuencia de aminoácidos en una proteína
en concreto, que tendrá una estructura y una función específicas.

2. Reproducción celular y en organismos


CICLO CELULAR
El ciclo celular es un conjunto ordenado de sucesos que conducen al crecimiento de la célula y la división en dos
células hijas. Las etapas, son G1-S-G2 y M. El estado G1 quiere decir «GAP 1» (Intervalo 1). El estado S
representa la «síntesis», en el que ocurre la replicación del ADN. El estado G2 representa «GAP 2» (Intervalo 2).
El estado M representa «la fase M», y agrupa a la mitosis o meiosis (reparto de material genético nuclear) y
la citocinesis (división del citoplasma). Las células que se encuentran en el ciclo celular se denominan
«proliferantes» y las que se encuentran en fase G0 se llaman células «quiescentes».1 Todas las células se
originan únicamente de otra existente con anterioridad.2 El ciclo celular se inicia en el instante en que aparece
una nueva célula, descendiente de otra que se divide, y termina en el momento en que dicha célula, por
división subsiguiente, origina dos nuevas células hijas.
Fases del ciclo celular[editar]
La célula puede encontrarse en dos estados muy diferenciados:3
 El estado de no división o interfase. La célula realiza sus funciones específicas y, si está destinada a
avanzar a la división celular, comienza por realizar la duplicación de su ADN.
 El estado de división, llamado fase M.
Interfase
Es el período comprendido entre mitosis. Es la fase más larga del ciclo celular, ocupando casi el 90 % del ciclo,
transcurre entre dos mitosis y comprende tres etapas:4
 Fase G1 (del inglés Growth o Gap 1): Es la primera fase del ciclo celular, en la que existe crecimiento
celular con síntesis de proteínas y de ARN. Es el período que trascurre entre el fin de una mitosis y el
inicio de la síntesis de ADN. Tiene una duración de entre 6 y 12 horas, y durante este tiempo la célula
duplica su tamaño y masa debido a la continua síntesis de todos sus componentes, como resultado de la
expresión de los genes que codifican las proteínas responsables de su fenotipo particular. En cuanto a
carga genética, en humanos (diploides) son 2n 2c.
 Fase S (del inglés Synthesis): Es la segunda fase del ciclo, en la que se produce la replicación o síntesis
del ADN, como resultado cada cromosoma se duplica y queda formado por dos cromátidas idénticas.
Con la duplicación del ADN, el núcleo contiene el doble de proteínas nucleares y de ADN que al
principio. Tiene una duración de unas 10-12 horas y ocupa alrededor de la mitad del tiempo que dura el
ciclo celular en una célula de mamífero típica.
 Fase G2 (del inglés Growth o Gap 2): Es la tercera fase de crecimiento del ciclo celular en la que continúa
la síntesis de proteínas y ARN. Al final de este período se observa al microscopio cambios en la
estructura celular, que indican el principio de la división celular. Tiene una duración entre 3 y 4 horas.
Termina cuando la cromatina empieza a condensarse al inicio de la mitosis. La carga genética de
humanos es 2n 4c, ya que se han duplicado el material genético, teniendo ahora dos cromátidas cada
uno.
Fase M (mitosis y citocinesis)
Es la división celular en la que una célula progenitora (células eucariotas, células somáticas -células comunes
del cuerpo-) se divide en dos células hijas idénticas. Esta fase incluye la mitosis, a su vez dividida
en: profase, metafase, anafase, telofase; y la citocinesis, que se inicia ya en la telofase mitótica. Si el ciclo
completo durara 24 horas, la fase M duraría alrededor de 30 minutos.1
Regulación del ciclo celular[editar]

Esquema global de los elementos más relevantes implicados en la regulación del ciclo celular.
La regulación del ciclo celular, explicada en el año 2001 en organismos eucariotas,5 puede contemplarse desde
la perspectiva de la toma de decisiones en puntos críticos, especialmente en la mitosis.6 De este modo, se
plantean algunas preguntas:1
 ¿Cómo se replica el ADN una única vez? Una pregunta interesante es cómo se mantiene
la euploidía celular. Sucede que, en la fase G1, la Cdk(ciclina) promueve la adición al complejo de
reconocimiento del origen de replicación del ADN de unos reguladores llamados Cdc6, los cuales
reclutan a Mcm, formando un complejo prerreplicativo del ADN, que recluta a la maquinaria
de replicación genética. Una vez que se inicia la fase S, la Cdk-S produce la disociación de Cdc6 y su
posterior proteólisis, así como la exportación al citosol de Mcm, con lo que el origen de replicación no
puede, hasta el ciclo siguiente, reclutar un complejo prerreplicativo (las degradaciones proteolíticas
siempre conllevan irreversibilidad, hasta que el ciclo gire). Durante G2 y M se mantiene la unicidad de la
estructura de prerreplicación, hasta que, tras la mitosis, el nivel de actividad Cdk caiga y se permita la
adición de Cdc6 y Mdm para el ciclo siguiente.
 ¿Cómo se entra en mitosis? La ciclina B, típica en la Cdk-M, existe en todo el ciclo celular. Sucede que la
Cdk (ciclina) está habitualmente inhibida por fosforilación mediante la proteína Wee, pero, a finales de
G2, se activa una fosfatasa llamada Cdc25 que elimina el fosfato inhibidor y permite el aumento de su
actividad. Cdc25 inhibe a Wee y activa a Cdk-M, lo que produce una retroalimentación positiva que
permite la acumulación de Cdk-M.
 ¿Cómo se separan las cromátidas hermanas? Ya en mitosis, tras la formación del huso acromático y
superación del punto de restricción de unión a cinetocoros, las cromátidas han de eliminar su esqueleto
de cohesinas, que las unen. Para ello, Cdk-M favorece la activación de APC, una ligasa de ubiquitina, por
unión a Cdc20. Esta APC ubiquitiniza y favorece la ulterior degradación en el proteasoma de la segurina,
inhibidor del enzima separasa que debe escindir las cohesinas.

Metafase tardía: placa metafásica previa a la separación de las cromátidas.


 ¿Cómo se sale de mitosis? Una vez que los niveles de Cdk-M son altos, parece difícil detener la dinámica
de mitosis y entrar en citocinesis: pues bien, esto ocurre porque la APC activada por la Cdk-M, y tras un
lapso cuyo mecanismo de control es aún desconocido, ubiquitiniza a la ciclina B, produciendo el cese
absoluto de actividad Cdk-M.
 ¿Cómo se mantiene el estado G1? En la fase G1, la actividad Cdk está muy disminuida porque: APC-Hct1
(Cdc20 sólo actúa en mitosis) elimina toda ciclina B; se acumulan inhibidores de Cdk; la transcripción de
ciclinas se ve disminuida. Para escapar de este reposo, se deben acumular ciclinas de G1. Esto se
controla mediante factores de proliferación celular, señales externas. Los mecanismos moleculares de
activación de transcripción de genes de las fases S y G2necesarios para proseguir el ciclo son
apasionantes: éstos genes están regulados por la proteína reguladora E2F, la cual se une
a promotores de ciclinas G1/S y S. E2F está controlada por la proteína del retinoblastoma (Rb), la cual,
en ausencia de factores tróficos, inhibe la actividad promotora de la transcripción de E2F. Cuando
existen señales de proliferación, Cdk-G1 fosforila Rb, que pierde afinidad por E2F, se disocia de éste y
permite que se expresen los genes de la fase S. Además, como E2F acelera la transcripción de su propio
gen, las Cdk-S y G1/S fosforilan también a Rb y a Hct1 (activador de APC, que degradaría estas ciclinas),
se produce una retroalimentación positiva.
Ciclo celular y cáncer[editar]

Cuando las células normales se lesionan o envejecen, mueren por apoptosis, pero las células cancerosas la
evitan.
Se cree que muchos tumores son el resultado de una multitud de pasos, de los que una alteración mutagénica
no reparada del ADN podría ser el primer paso. Las alteraciones resultantes hacen que las células inicien un
proceso de proliferación descontrolada e invadan tejidos normales. El desarrollo de un tumor maligno requiere
de muchas transformaciones genéticas. La alteración genética progresa, reduciendo cada vez más la capacidad
de respuesta de las células al mecanismo normal regulador del ciclo.8
Los genes que participan de la carcinogénesis resultan de la transformación de los genes normalmente
implicados en el control del ciclo celular, la reparación de daños en el ADN y la adherencia entre células
vecinas. Para que la célula se transforme en neoplásica se requieren, al menos, dos mutaciones: una en un gen
supresor de tumores y otra en un protooncogén, que dé lugar, entonces, a un oncogén.

Mitosis
El ciclo celular (Fig. 9.6) es la serie de eventos que se suceden en una célula
en división. Se reconocen dos etapas:
MITOSIS, división del núcleo en dos núcleos hijos y división del citoplasma.
INTERFASE, durante la cual la célula crece y el ADN se duplica. Comprende
tres períodos: G1, S y G2.
G1 (gap 1) es un período de crecimiento activo del citoplasma, incluyendo
la producción de los orgánulos.
Durante el período S (síntesis) se replica el ADN.
En G2 (gap 2) se sintetiza el material citoplasmático necesario para la división celular, como por
ejemplo las moléculas de tubulina, proteína que compone los microtúbulos para el huso
acromático.

Fig. 9.6. Ciclo celular


En células que se dividen activamente, la mitosis
ocupa un 10% y la interfase el 90% del ciclo. Los
períodos G1 y G2 ocupan cada uno un 25%, y el
período S el 40%.
La mitosis fue descubierta por Hoffmeister, en
1848, en células de embriones vegetales. Es un
mecanismo de separación física de los
cromosomas que se han duplicado durante la
interfase.
En los organismos unicelulares es una forma de
multiplicación, y en los pluricelulares, es la
responsable del crecimiento del cuerpo
vegetativo.

El resultado de la mitosis es la formación de 2 células hijas con el mismo número de cromosomas que la célula
madre.

¿En qué parte de la planta se encuentran células que se dividen por mitosis?
En la planta las células que se dividen activamente por mitosis se ubican en los meristemas. En determinadas
ocasiones cualquier célula viva con núcleo puede desdiferenciarse y dividirse por mitosis (Figs. 9.7 y 9.7a).
Fases de la Mitosis
La mitosis es un proceso continuo, que convencionalmente se divide en cuatro
etapas: profase, metafase, anafase y telofase.

Fig. 9.7. Mitosis en células de Allium cepa


Profase (pro: primero, antes). Los cromosomas se visualizan como largos
filamentos dobles, que se van acortando y engrosando. Cada uno está
formado por un par de cromátidas que permanecen unidas sólo a nivel
del centrómero. En esta etapa los cromosomas pasan de la forma laxa
de trabajo a la forma compacta de transporte. La envoltura nuclear se
fracciona en una serie de cisternas que ya no se distinguen del RE, de
manera que se vuelve invisible con el microscopio óptico. También los
nucleolos desaparecen, se dispersan en el citoplasma en forma de
ribosomas.

Metafase (meta: después, entre). Aparece el huso mitótico o


acromático, formado por haces de microtúbulos; los cromosomas se
unen a algunos microtúbulos a través de una estructura proteica laminar
situada a cada lado del centrómero , denominada cinetocoro. También
hay microtúbulos polares, más largos, que se solapan en la región
ecuatorial de la célula. Los cromosomas muestran el máximo
acortamiento y condensación, y son desplazados por los microtúbulos
hasta que todos los centrómeros quedan en el plano ecuatorial. Al final
de la metafase se produce la autoduplicación del ADN del centrómero, y
en consecuencia su división.

Anafase (ana: arriba, ascendente). Se separan los centrómeros hijos, y


las cromátidas, que ahora se convierten en cromosomas hijos. Cada
juego de cromosomas hijos migra hacia un polo de la célula.
El huso mitótico es la estructura que lleva a cabo la distribución de los
cromosomas hijos en los dos núcleos hijos. El movimiento se realiza
gracias a la actividad de los microtúbulos cromosómicos, que se van
acortando en el extremo unido al cinetocoro. Los microtúbulos polares
se deslizan en sentido contrario, distanciando los dos grupos de
cromosomas hijos (Strasburger et al. 1994).

Hay drogas específicas que influyen experimentalmente en la formación y descomposición de los


microtúbulos. La colquicina o colchicina es un alcaloide extraído de Colchicum autumnale que inhibe
la polimerización de moléculas de tubulina. Cuando se aplica a células en división, impide la
formación de los microtúbulos, por lo tanto no se forma el huso mitótico, y la consecuencia es que
se duplica el número de cromosomas de la célula.

Telofase (telos: fin). Comienza cuando los cromosomas hijos llegan a los
polos de la célula. Los cromosomas hijos se alargan, pierden
condensación, la envoltura nuclear se forma nuevamente a partir del RE
rugoso y se forma el nucleolo a partir de la región organizadora del
nucleolo de los cromosomas SAT.
Preparado histológico:
gentileza de Guillermo
Seijo

Fig.9.7a, Representación esquemática de la mitosis

Imagen tomada de Berg (1997)

Reproducción asexual
La reproducción asexual es una forma de reproducción de un ser vivo ya desarrollado en la cual a partir de una
sola célula o grupo de células,1 se desarrolla por procesos mitóticos un individuo completo, genéticamente
idéntico al primero. Se lleva a cabo con un solo progenitor y sin la intervención de los núcleos de las
células sexuales o gametos.2
Los organismos celulares más simples se reproducen por un proceso conocido como fisión o escisión, en el que
la célula madre se fragmenta en dos o más células hijas, perdiendo su identidad original.3
La división celular que da lugar a la proliferación de las células que constituyen los tejidos, órganos y sistemas
de los organismos pluricelulares no se considera una reproducción, aunque es casi idéntica al proceso de
escisión binaria.
En ciertos animales pluricelulares, tales como celentéreos, esponjas y tunicados, la división celular se realiza
por yemas. Estas se originan en el cuerpo del organismo madre y después se separan para desarrollarse como
nuevos organismos idénticos al primero. Este proceso, conocido como gemación, es análogo al proceso de
reproducción vegetativa de las plantas.
Procesos reproductores como los citados, en los que un único organismo origina su descendencia, se
denominan científicamente “reproducción asexual”. En este caso, la descendencia obtenida es idéntica al
organismo que la ha originado sin la necesidad de un gameto.

Meiosis
Meiosis (del griego μείωσις meíōsis 'disminución')1 es una de las formas de la reproducción celular, este
proceso se realiza en las gónadas para la producción de gametos. La meiosis es un proceso de
división celular en el cual una célula diploide (2n) experimenta dos divisiones sucesivas, con la capacidad de
generar cuatro células haploides (n). En los organismos con reproducción sexual tiene importancia ya que es el
mecanismo por el que se producen los óvulos y espermatozoides (gametos).2
Este proceso se lleva a cabo en dos divisiones nucleares y citoplasmáticas, llamadas primera y segunda división
meiótica o simplemente meiosis I y meiosis II. Ambas comprenden profase, metafase, anafase y telofase.

Visión general de la meiosis. En la interfase se duplica el material genético. En meiosis I los cromosomas
homólogos se reparten en dos células hijas, se produce el fenómeno de entrecruzamiento. En meiosis II, al
igual que en una mitosis, cada cromátida migra hacia un polo. El resultado son cuatro células hijas haploides
(n).
Durante la meiosis I miembros de cada par homólogo de cromosomas se emparejan durante la profase,
formando bivalentes. Durante esta fase se forma una estructura proteica denominada complejo
sinaptonémico, permitiendo que se produzca la recombinación entre ambos cromosomas homólogos.
Posteriormente, se produce una gran condensación cromosómica y los bivalentes se sitúan en la placa
ecuatorial durante la primera metafase, dando lugar a la migración de n cromosomas a cada uno de los polos
durante la primera anafase. Esta división reduccional es la responsable del mantenimiento del número
cromosómico característico de cada especie.
En la meiosis II, las cromátidas hermanas que forman cada cromosoma se separan y se distribuyen entre los
núcleos de las células hijas. Entre estas dos etapas sucesivas no existe la etapa S (replicación del ADN). La
maduración de las células hijas dará lugar a los gametos.

Reproducción sexual
La reproducción sexual es el proceso de crear un nuevo organismo descendiente a partir de la combinación
de material genético de dos organismos con material genético similar, comenzando con un proceso que se
denomina meiosis, que es un tipo especializado de división celular; el cual se produce en
organismos eucariotas.12 Los gametos son los dos tipos de células especiales, uno más grande, el femenino, y
otro más pequeño, el masculino. La fusión de estas dos células se llama fertilización y ésta crea un cigoto, que
incluye material de los dos gametos en un proceso que se llama recombinación genética donde el material
genético, el ADN, se empareja para que las secuencias de los cromosomas homólogos se alineen. A
continuación se producen otras dos divisiones celulares más, para producir cuatro células hijas con la mitad
de cromosomas de cada una de las dos células del padre, y el mismo número que tienen los padres, aunque
puede ocurrir la auto-fertilización. Por ejemplo, en la reproducción humana cada célula humana contiene 46
cromosomas (23 pares), mientras que los gametos, sólo contienen 23 cromosomas, así el hijo tendrá 23
cromosomas de cada padre recombinadas genéticamente en 23 pares.
La evolución de la reproducción sexual es uno de las principales rompecabezas debido al hecho que
la reproducción asexual la debe poder superar porque cada organismo joven puede cargar sus propias
descendientes, lo cual implica que la población asexual tiene una capacidad intrínseca para crecerse más rápido
con cada generación.3 Este costo de 50% es una desventaja de aptitud de la reproducción sexual.4 Lo que se
llama el costo doble del sexo incluye este costo mientras el hecho que un organismo sólo puede pasar 50% de
sus propios genes a cada uno de sus descendientes representa un segundo costo. Una ventaja definitiva de la
reproducción sexual es que impide la acumulación de mutaciones genéticas.5
La selección sexual es un tipo de selección natural, en la cual algunos individuos se reproducen con más éxito
que otros en una población debido a la selección intersexual.67 Se ha descrito como una «fuerza evolutiva que
no existe en las poblaciones asexuales».8
Las procariotas, cuyos células tienen material adicional o transformado, se reproducen a través de la
reproducción asexual aunque a veces, en la transferencia genética horizontal, pueden exhibir procesos como
la conjugación procariota, la transformación y la transducción, las cuales son similares a la reproducción sexual
a pesar de no acabar en reproducción.

Física 1
1. Movimientos en una dimensión
Conceptos de distancia, desplazamiento, rapidez, velocidad y aceleración
La distancia es una magnitud escalar y equivale al valor absoluto de la longitud de una trayectoria descrita por un
cuerpo en movimiento. esto quiere decir que la distancia nunca podrá ser negativa.

El desplazamiento es una cantidad vectorial que describe el cambio neto de la posición de un objeto, o bien, es la
distancia medida entre el punto de partida y el punto de llegada de un objeto.

La velocidad se define como el desplazamiento realizado por un móvil, dividido entre el tiempo que tarda en
efectuarlo. Matemáticamente:
donde d = desplazamiento en metros (m)
t = tiempo en segundos (s)
v = velocidad del móvil en metros sobre segundo (m/s)

La rapidez es una cantidad escalar que únicamente indica la magnitud de la velocidad.

La aceleración es la variación de la velocidad de un móvil en cada unidad de tiempo. matemáticamente:


donde v = velocidad del móvil en metros sobre segundo (m/s)
t = tiempo en segundos (s)
a = aceleración del móvil en metros sobre segundo cuadrado (m/s2)
Sistemas de referencia absoluto y relativo
Al hablar de un sistema de referencia simplemente se está apuntando que para observar el movimiento de un
objeto es necesario tener un punto de referencia que no proporcione datos reales de distancia,
desplazamiento, velocidad, aceleración, etc. Ejemplo; una persona parada observando una carrera de
automóviles. Existen dos tipos de sistemas de referencia, está el sistema de referencia absoluta y el sistema de
referencia relativa.
Sistema de referencia absoluta.
Se dice como sistema de referencia absoluta cuando se tiene un el punto de referencia fijo, por ejemplo, si
tomamos al sol como un punto de referencia, el cual comparáramos con el movimiento de los planeta, en este
ejemplo el sol se podría considerar como un sistema de referencia absoluta.
Observe la siguiente imagen para mayor comprensión.

Sistema de referencia relativa.


En este tipo de sistema de referencia, el punto de referencia está en movimiento, por ejemplo, una persona
que camina y observa un conjunto de aves volar. En este ejemplo la persona se considera un sistema de
referencia relativa.

Movimiento rectilíneo uniforme


El movimiento rectilíneo uniforme (m.r.u.), es aquel con velocidad constante y cuya trayectoria es una línea
recta. Un ejemplo claro son las puertas correderas de un ascensor, generalmente se abren y cierran en línea
recta y siempre a la misma velocidad.
Observa que cuando afirmamos que la velocidad es constante estamos afirmando que no cambia ni su
valor (también conodido como módulo, rapidez o celeridad) ni la dirección del movimiento.
Un movimiento rectilíneo uniforme (m.r.u.) es aquel que tiene su velocidad constante y su trayectoria es una
línea recta. Esto implica que:
 El espacio recorrido es igual que el desplazamiento.
 En tiempos iguales se recorren distancias iguales.
 La rapidez o celeridad es siempre constante y coincide con el módulo de la velocidad.

Caída libre y tiro vertical


La caída libre y el tiro vertical en el vacío, son dos casos particulares de M.R.U.V. puesto que en ellos la
aceleración es constante: es la llamada aceleración de la gravedad (g = 9,8 m/s2).
Estos movimientos se conocen generalmente como “movimientos verticales en el vacío”. Que se realicen en el
vacío implica que no hay ningún tipo de resistencia al movimiento, como fuerzas de fricción o rozamientos, que
serían comunes en movimientos en el aire. La única fuerza que está actuando es el peso del cuerpo, la cual
determina la existencia de la aceleración de la gravedad. Si bien esta aceleración no es constante en todos los
puntos del planeta tomaremos por el momento el valor de 9,8 m/s2 y más adelante, en Dinámica discutiremos
sus variaciones.
En la siguiente aplicación interactiva se ilustra este tema de los movimientos verticales en el vacío: la Caída
Libre y el Tiro Vertical.

En el cuadro precedente se muestra como a partir de las fórmulas ya conocidas de M.R.U.V. pueden deducirse
fácilmente las de la Caída Libre y las del Tiro Vertical.
En efecto, en la Caída Libre el cuerpo se deja caer libremente desde el reposo, sin arrojarlo para abajo, o sea
con velocidad inicial cero. El movimiento es entonces acelerado.
Se toma como eje de referencia el mostrado debajo, el cual tiene su origen en la posición inicial del cuerpo (en
el punto más alto) y crece hacia abajo.
La aceleración de la gravedad se toma como positiva pues va en el sentido de crecimiento del eje y se
reemplaza por “g”.
El desplazamiento del móvil “Dx” se reemplaza por “Dh”, recordando entonces que este “Dh” es la altura
caída por el móvil en un cierto instante y no la altura a que está del suelo en dicho instante.
Las velocidades comenzarán a ser positivas luego del instante inicial, pues serán vectores dirigidos hacia
abajo.
El Tiro Vertical, en cambio es un movimiento donde al cuerpo se lo arroja hacia arriba con una velocidad inicial
Vi. En el camino de subida el movimiento es retardado pues la aceleración es hacia abajo y la velocidad hacia
arriba. El móvil va disminuyendo su velocidad hasta detenerse en el punto más alto del trayecto. Luego
comienza a bajar por efecto de la aceleración de la gravedad que en todo momento sigue “atrayéndolo” hacia
abajo. Esta segunda parte del movimiento constituye una caída libre, pero no es necesario cambiar de
fórmulas y usar las de la caída libre, pues como el movimiento es de aceleración constante (la de la gravedad
“g”) con las mismas fórmulas del Tiro Vertical se explica esta segunda fase del movimiento. Para el Tiro
Vertical se usa un sistema de referencia que tiene el origen en la posición inicial del cuerpo, que puede ser el
suelo o un determinado nivel de referencia.
El eje crece hacia arriba, de manera que la velocidad inicial se toma como positiva; la aceleración de la
gravedad se toma como negativa reemplazando “a” por “-g” en las fórmulas. Se entiende entonces que el
símbolo “g” equivale a + 9,8 m/s2.
El desplazamiento “Dx” se sustituye por “Dh” que refleja la altura subida por el cuerpo en un cierto instante.
En este caso sí el “Dh” es igual a la altura a que está el móvil del suelo en un cierto instante (si es que dicho
móvil partió del suelo).
Luego que el móvil alcanzó su altura máxima, comienza a descender haciéndose negativa su velocidad (pues
es hacia abajo). Ahora el movimiento es acelerado hacia abajo.
Para hallar la altura máxima que alcanza un móvil con Tiro Vertical, sabiendo la velocidad inicial con que
fue arrojado, se puede usar la tercera fórmula del T.V.:

2.leyes de newton
Concepto de fuerza, tipos y peso de los cuerpos
En física, la fuerza es una magnitud vectorial que mide la razón de cambio de momento lineal entre
dos partículas o sistemas de partículas. Según una definición clásica, fuerza es todo agente capaz de modificar
la cantidad de movimiento o la forma de los materiales. No debe confundirse con los conceptos de esfuerzo o
de energía.
En el Sistema Internacional de Unidades, la unidad de medida de fuerza es el newton que se representa con el
símbolo N, nombrada así en reconocimiento a Isaac Newton por su aportación a la física, especialmente a
la mecánica clásica. El newton es una unidad derivada del Sistema Internacional de Unidades que se define
como la fuerza necesaria para proporcionar una aceleración de 1 m/s² a un objeto de 1 kg de masa.
CLASIFICACION DE LAS FUERZAS
Hoy en día se considera que todas las fuerzas de la naturaleza son consecuencia de solo cuatro fuerzas
fundamentales, por lo que todas las fuerzas que nos rodean pertenecen a una de ellas.

Las cuatro fuerzas fundamentales son:


-la gravedad
-la electromagnética
-la nuclear fuerte
-la nuclear débil

FUERZA DE GRAVEDAD: La fuerza de gravedad, descrita formalmente por Isaac Newton durante la segunda
mitad del siglo XVII, es un fenómeno por el cual todos los objetos con una masa determinada se atraen entre
ellos. Esta atracción depende de la masa del objeto en cuestión; mientras más masa, mayor será la fuerza de
atracción.

FUERZA ELECTROMAGNÉTICA: La fuerza electromagnética es una interacción que ocurre entre las partículas con
carga eléctrica. Desde un punto de vista macroscópico y fijado un observador, suele separarse en dos tipos de
interacción, la interacción electrostática, que actúa sobre cuerpos cargados en reposo respecto al observador,
y la interacción magnética, que actúa solamente sobre cargas en movimiento respecto al observador.

Las partículas fundamentales interactúan electromagnéticamente mediante el intercambio de fotones entre


partículas cargadas. La electrodinámica cuántica proporciona la descripción cuántica de esta interacción, que
puede ser unificada con la interacción nuclear débil según el modelo electro débil.
FUERZAS NUCLEARES: Una fuerza nuclear es aquella fuerza que tiene origen exclusivamente en el interior de
los núcleos atómicos. Existen dos fuerzas nucleares, la fuerza fuerte que actúa sobre los nucleones y la fuerza
débil que actúa en el interior de los mismos. fuerza nuclear fuerte: Esta fuerza es la responsable de
mantener unidos a los nucleones (protones y neutrones) que coexisten en el núcleo atómico, venciendo a la
repulsión electromagnética entre los protones que poseen carga eléctrica del mismo signo (positiva) y haciendo
que los neutrones, que no tienen carga eléctrica, permanezcan unidos entre sí y también a los protones. fuerza
nuclear débil: es la fuerza de muy corto alcance responsable de la descomposición de las partículas, es
responsable de ciertos tipos de radiactividad.

TIPOS DE FUERZA: DE CONTACTO Y A DISTANCIA


FUERZAS DE CONTACTO
Son las que, como indica su nombre, son ejercidas por agentes o elementos materiales que están en inmediato
contacto con un una porción de materia.
Por ejemplo:
- La fuerza normal ejercida por una superficie sobre un bloque
- La fuerza de rozamiento ejercida por una superficie sobre un bloque
- La tensión de una cuerda o cable tirante sobre el peso que sostiene
- La fuerza que ejerce un muelle sobre un soporte

FUERZAS DE ACCIÓN A DISTANCIA


Son las ejercidas por agentes físicos, denominados CAMPOS, sin que haya contacto material con el sistema
sobre el cual se ejercen dichas fuerzas.
Por ejemplo
- La fuerza gravitatoria ejercida sobre una masa por el campo gravitatorio terrestre
- Le fuerza eléctrica ejercida sobre una carga por el campo eléctrico creado por otra u otras cargas.
- La fuerza magnética ejercida sobre una carga eléctrica en movimiento por un campo magnético.

Peso de los cuerpos


La tierra atrae a todos los cuerpos que están dentro de su campo de acción con una fuerza que es la
gravedad. Esta es el caso particular aplicado a la Tierra, de la atracción llamada gravitación universal, que se
ejerce entre todos los cuerpos del Universo. A la gravedad se debe el peso de los cuerpos como resultado de
aplicar esa fuerza a la masa. La masa de un cuerpo no varía, su peso sí. El equilibrio en los cuerpos está
relacionado con el centro de gravedad. La presión resulta de relacionar la fuerza con la superficie sobre la que
actúa.
Gravitación Universal
Entre todos los cuerpos del universo se ejerce una fuerza de atracción mutua que se llama gravitación
universal. La gravedad no es más que el caso particular aplicado a la Tierra, de la gravitación universal Fue
estudiada por Newton y su formulación dice así: Todos los cuerpos del universo se atraen con una fuerza que es
directamente proporcional a sus masas e inversamente proporcional al cuadrado de las distancias que los
separan.
Dados dos cuerpos M y M´ , separados por una distancia d, la fuerza f con que se atraen se expresa así:

G es una constante llamada Gravitación Universal


Peso de los cuerpos
El peso de un cuerpo equivale a la acción que la gravedad ejerce sobre la masa de ese cuerpo, o sea la fuerza
con que lo atrae a la Tierra. Como fuerza tiene dirección, sentido, intensidad y punto de aplicación. La dirección
y el sentido son hacia la Tierra. La intensidad de la fuerza de gravedad aplicada al cuerpo es lo que se denomina
su peso.
El peso de un cuerpo varía con la latitud y la altitud. El peso de un cuerpo disminuye al aumentar la altitud.
Peso y Masa
Para un mismo cuerpo su peso varía según el lugar. Pero el cuerpo, su masa su forma no cambia. También
hemos dicho que el peso depende de la gravedad al aplicar ésta a la masa. Si llamamos P al peso, M a la masa
y g a la gravedad tendremos:
P = M*g
Centro de Gravedad
Un cuerpo sólido rígido esta formado por pequeñas partículas unidas. Sobre cada una de estas partículas actúa
la fuerza de gravedad. El conjunto de fuerzas que actúan sobre las partículas forma un sistema de fuerzas
paralelas y del mismo sentido. Al resolver este sistema, la resultante tiene un punto de aplicación situado en el
cuerpo, el cual llamamos centro de gravedad.
Podemos definir como Centro de Gravedad de un cuerpo al punto de aplicación de la resultante del sistema de
fuerzas paralelas formadas por la acción de la gravedad sobre las partículas del cuerpo.
Si el cuerpo es un sólido homogéneo de figura regular, su centro de gravedad coincide con el centro de la
figura. Si el sólido es irregular, calculamos su centro de gravedad suspendiéndole desde distintos puntos de su
superficie y trazando en cxada punto su vertical. El punto donde se cruzan todas las verticales es el centro de
gravedad.
Equilibrio
El equilibrio en los sólidos puede ser
· Estable
Cuando una fuerza desvía al cuerpo de su posición de equilibrio y al dejar de actuar la fuerza , el cuerpo
recupera su equilibrio. En este caso se eleva el centro de gravedad al desplazar al cuerpo.
· Inestable
El cuerpo no recupera su equilibro. Es porque desciende su centro de gravedad.
· Indiferente
Cuando el cuerpo siempre está en posición de equilibrio. El centro de gravedad no varía de altura por
mucho que cambie de posición el cuerpo.
Condiciones para que haya equilibrio
· Cuerpo apoyado en un punto
Hay equilibrio si la vertical trazada por el centro de gravedad pasa por el punto de suspensión.
· Cuerpo apoyado en una recta
Hay equilibrio si la vertical trazada por el centro de gravedad pasa por la recta de sustentación o es
paralela a ella.
· Cuerpo apoyado en un plano
Hay equilibrio si la vertical trazada por el centro de gravedad cae en la base de sustentación

Equilibrio en los líquidos


La superficie de los líquidos es siempre plana y horizontal. Esto es porque tienen libres sus moléculas y sobre
cada una de ellas actúa la gravedad. El equilibrio es estable, cuando deja de actuar una fuerza, la superficie
vuelve a ser plana. Cuando se dos líquidos que no se mezclan se juntan, el más pesado se sitúa debajo y la
superficie de separación sigue siendo horizontal y plana.
La Presión
Es la fuerza que actúa sobre una superficie determinada y se puede representar así:

Donde p presión es la directamente proporcional a la fuerza e inversamente proporcional a la superficie S. Para


medir la presión se puede usar el kilogramo fuerza por cm2. La unidad de medida es el bar, en meteorología se
usa el milibar, que es una milésima de bar. Una atmósfera equivale a 1013 milibares.
Cuando se ejerce mayor presión es cuando hay menor superfície: por esto podemos clavar un aguja, cortar con
unas tijeras o cuchillo, etc. Por el contrario aumentando la superficie disminuye la presión y no nos hundimos:
esquíes para nieve, ruedas de tractor, etc.
Gravitación Universal
La Ley de la Gravitación Universal o Principio de Newton suscitó reticencias al aparecer. No fue hasta que Halley
necesitó averiguar sobre el movimiento de los planetas que Newton volvió a plantear su Principia. De la idea de
una manzana que cae del árbol, atraída por la gravedad, surge otra que sobre el poder de atracción va más allá
de la manzana y afecta a la luna y demás astros.
Fuerzas de fricción, estática y dinámica
La fuerza de fricción o la fuerza de rozamiento es la fuerza que existe entre dos superficies en contacto, que se
opone al movimiento relativo entre ambas superficies (fuerza de fricción dinámica) o a la fuerza que se opone
al inicio del deslizamiento (fuerza de fricción estática). Se genera debido a las imperfecciones, mayormente
microscópicas, entre las superficies en contacto. Estas imperfecciones hacen que la fuerza
perpendicular R entre ambas superficies no lo sea perfectamente, sino que forme un ángulo con
la normal N (el ángulo de rozamiento). Por tanto, la fuerza resultante se compone de la fuerza
normal N (perpendicular a las superficies en contacto) y de la fuerza de rozamiento F, paralela a las superficies
en contacto.
Tipos de fricción[editar]
Existen dos tipos de rozamiento o fricción, la fricción estática (Fe) y la fricción dinámica (Fd). El primero es la
resistencia que se debe superar para poner en movimiento un cuerpo con respecto a otro que se encuentra
en contacto. El segundo, es la resistencia, de magnitud considerada constante, que se opone al movimiento
pero una vez que este ya comenzó. En resumen, lo que diferencia a un roce con el otro, es que el estático
actúa cuando los cuerpos están en reposo relativo en tanto que el dinámico lo hace cuando ya están en
movimiento.
La fuerza de fricción estática, necesaria para vencer la fricción homóloga, es siempre menor o igual al
coeficiente de rozamiento entre los dos objetos (número medido empíricamente y que se encuentra
tabulado) multiplicado por la fuerza normal. La fuerza cinética, en cambio, es igual al coeficiente de
rozamiento dinámico, denotado por la letra griega , por la normal en todo instante.
No se tiene una idea perfectamente clara de la diferencia entre el rozamiento dinámico y el estático, pero se
tiende a pensar que el estático es algo mayor que el dinámico, porque al permanecer en reposo ambas
superficies pueden aparecer enlaces iónicos, o incluso microsoldaduras entre las superficies, factores que
desaparecen en estado de movimiento. Este fenómeno es tanto mayor cuanto más perfectas son las
superficies. Un caso más o menos común es el del gripaje de un motor por estar mucho tiempo parado (no
solo se arruina por una temperatura muy elevada), ya que al permanecer las superficies, del pistón y la
camisa, durante largo tiempo en contacto y en reposo, pueden llegar a soldarse entre sí.
Fricción:
Se define como fuerza de rozamiento o fuerza de fricción entre dos superficies en contacto a la fuerza que se
opone al movimiento de una superficie sobre la otra (fuerza de fricción dinámica) o a la fuerza que se opone al
inicio del movimiento (fuerza de fricción estática). Se genera debido a las imperfecciones, especialmente
microscópicas, entre las superficies en contacto. Estas imperfecciones hacen que la fuerza entre ambas
superficies no sea perfectamente perpendicular a éstas, sino que forma un ángulo φ con la normal (el ángulo
de rozamiento). Por tanto, esta fuerza resultante se compone de la fuerza normal.
Fricción estática

Es la fuerza que se opone al inicio del deslizamiento . Sobre un cuerpo en reposo al que se aplica una fuerza
horizontal F, intervienen cuatro fuerzas:
F: la fuerza aplicada.
Fr: la fuerza de rozamiento entre la superficie de apoyo y el cuerpo, y que se opone al deslizamiento.
P: el peso del propio cuerpo
N: la fuerza normal.
Dado que el cuerpo está en reposo la fuerza aplicada y la fuerza de rozamiento son iguales, y el peso del
cuerpo y la normal.
Fricción dinámica

Dado un cuerpo en movimiento sobre una superficie horizontal, deben considerarse las siguientes fuerzas:
Fa: la fuerza aplicada.
Fr: la fuerza de rozamiento entre la superficie de apoyo y el cuerpo, y que se opone al deslizamiento.
P: el peso del propio cuerpo, igual a su masa por la aceleración de la gravedad.
N: la fuerza normal, que la superficie hace sobre el cuerpo sosteniéndolo.
Como equilibrio dinámico, se puede establecer qué.

Primera Ley de Newton


La primera ley de Newton, establece que un objeto permanecerá en reposo o con movimiento uniforme
rectilíneo al menos que sobre él actúe una fuerza externa. Puede verse como un enunciado de la ley de
inercia, en que los objetos permanecerán en su estado de movimiento cuando no actuan fuerzas externas
sobre el mismo para cambiar su movimiento. Cualquier cambio del movimiento implica una aceleración y
entonces se aplica la Segunda ley de Newton; De hecho, la primera ley de Newton es un caso especial de la
segunda ley, en donde la fuerza neta externa es cero.
La primera ley de Newton, contiene implicaciones sobre la simetría fundamental del Universo, en la que el
estado de movimiento en línea recta debe considerarse tan natural como el estado de reposo. Si un objeto
está en reposo respecto de una marco de referencia, aparecerá estar moviéndose en línea recta para un
observador que se esté moviendo igualmente en línea recta respecto del objeto. No hay forma de saber que
marco de referencia es especial, de modo que, todos los marcos de referencias de velocidad rectilínea
constante son equivalentes.

Ejemplo de Fuerza Centrípeta


La cuerda debe proveer la fuerza centrípeta necesaria para mover la bola en círculo. Si la cuerda se rompe, la
bola seguirá moviéndose en línea recta hacia adelante. El movimiento en línea recta en ausencia de fuerzas
externas es un ejemplo de la primera ley de Newton. El ejemplo presupone que no actuan ninguna otra
fuerzas neta externa como podría ser la fricción sobre una superficie horizontal. El círculo vertical es mas
complejo.

Segunda Ley de Newton


La segunda ley de Newton como se establece mas abajo, se aplica en un gran número de fenómenos físicos,
pero no es un principio fundamental como lo son las leyes de conservación. Aplica solamente si la fuerza es
una fuerza neta externa. No aplica directamente en situaciones donde la masa cambia, ya sea perdiendo o
ganando material o si el objeto está viajando cerca de la velocidad de la luz, en cuyo caso deben incluirse los
efectos relativistas. Tampoco aplica en escalas muy pequeñas a nivel del átomo, donde debe usarse la
mecánica cuántica.
Pruebe a entrar datos en las casillas de abajo. Especificando dos cantidades cualesquiera, puede obtenerse la
tercera. Despues de introducir los dos valores, pulse sobre la casilla vacía para obtener su valor.
Tercera Ley de Newton
Tercera ley de Newton: Todas las fuerzas en el universo, ocurren en pares (dos) con direcciones opuestas. No
hay fuerzas aisladas; para cada fuerza externa que actúa sobre un objeto hay otra fuerza de igual magnitud
pero de dirección opuesta, que actua sobre el objeto que ejerce esa fuerza externa. En el caso de fuerzas
internas, una fuerza ejercida sobre una parte del sistema, será contrarrestada, por la fuerza de reacción de
otra parte del sistema, de modo que un sistema aislado, no puede bajo ningún medio, ejercer ninguna fuerza
neta sobre la totalidad del sistema. Un sistema no puede por si mismo ponerse en movimiento con solo sus
fuerzas internas, debe interactuar con algún objeto externo a él.

Sin especificar el origen o naturaleza de las fuerzas sobre las dos masas, La
tercera ley de Newton establece que si esas fuerzas surgen de las propias dos
masas, deben ser iguales en magnitud, pero dirección opuestas, de modo que
no surge ninguna fuerza neta de las fuerzas internas del sistema.

La tercera ley de Newton es uno de los principios fundamentales de simetría del universo. Puesto que no
tenemos evidencia de haber sido violada en la naturaleza, se convierte en una util herramienta para analizar
situaciones que son de alguna forma antiintuitivas. Por ejemplo, cuando un pequeño camión colisiona de
frente contra otro grande, nuestra intuición nos dice que la fuerza ejercida sobre el mas pequeño, es mayor.
¡No es así!
Ejemplo sobre la Tercera Ley de Newton
La tercera ley de Newton puede ilustrarse identificando los pares de fuerza que aparecen en distintos bloques
soportados por pesos de muelles.
Asumiendo que los bloques están apoyados y en equilibrio, la fuerza neta sobre cada sistema es cero. Todas
las fuerzas ocurren en pares de acuerdo con la tercera ley de Newton.

LEY DE GRAVITACION UNIVERSAL


La ley de gravitación universal es una ley física clásica que describe la interacción gravitatoria entre distintos
cuerpos con masa. Ésta fue presentada por Isaac Newton en su libro Philosophiae Naturalis Principia
Mathematica, publicado en 1687, donde establece por primera vez una relación cuantitativa (deducida
empíricamente de la observación) de la fuerza con que se atraen dos objetos con masa. Así, Newton dedujo
que la fuerza con que se atraen dos cuerpos de diferente masa únicamente depende del valor de sus masas y
del cuadrado de la distancia que los separa. También se observa que dicha fuerza actúa de tal forma que es
como si toda la masa de cada uno de los cuerpos estuviese concentrada únicamente en su centro, es decir, es
como si dichos objetos fuesen únicamente un punto, lo cual permite reducir enormemente la complejidad de
las interacciones entre cuerpos complejos.

Así, con todo esto resulta que la ley de la Gravitación Universal predice que la fuerza ejercida entre dos
cuerpos de masas M1 y M2 separados una distancia es proporcional al producto de sus masas e
inversamente proporcional al cuadrado de la distancia, es decir:

F = Es el módulo de la fuerza ejercida entre ambos cuerpos, y su dirección se encuentra en el


eje que une ambos cuerpos.
G = Es la constante de la Gravitación Universal.
Es decir, cuanto más masivos sean los cuerpos y más cercanos se encuentren, con mayor fuerza se atraerán.
El valor de esta constante de Gravitación Universal no pudo ser establecido por Newton, que únicamente
dedujo la forma de la interacción gravitatoria, pero no tenía suficientes datos como para establecer
cuantitativamente su valor. Únicamente dedujo que su valor debería ser muy pequeño. Sólo mucho tiempo
después se desarrollaron las técnicas necesarias para calcular su valor, y aún hoy es una de las constantes
universales conocidas con menor precisión.

Con la segunda ley de newton se puede determinar que la aceleración de la gravedad que produce un cuerpo
cualquiera situado a una distancia dada. Por ejemplo, se deduce que la aceleración de la gravedad que nos
encontramos en la superficie terrestre debido a la masa de la Tierra es de , que es la aceleración sufrida por
un objeto al caer. Y que esta aceleración es prácticamente la misma en el espacio, a la distancia donde se
encuentra la Estación Espacial Internacional.
En física, el campo gravitatorio o campo gravitacional es un campo de fuerzas que representa la gravedad. Si
se dispone en cierta región del espacio una masa M, el espacio alrededor de M adquiere ciertas características
que no disponía cuando no estaba M. Este hecho se puede comprobar acercando otra masa m y constatando
que se produce la interacción. A la situación física que produce la masa M se la denomina campo gravitatorio.
Afirmar que existe algo alrededor de M es puramente especulativo, ya que sólo se nota el campo cuando se
coloca la otra masa m, a la que se llama masa testigo. El tratamiento que recibe este campo es diferente
según las necesidades del problema:
 En física newtoniana o física no-relativista el campo gravitatorio viene dado por un campo vectorial.
 En física relativista, el campo gravitatorio viene dado por un campo tensorial de segundo orden.
Que establece
La fuerza que ejerce un objeto dado con masa m1 sobre otro con masa m2 es directamente proporcional al
producto de las masas, e inversamente proporcional al cuadrado de la distancia que los separa:

Poniendo lo anterior en una fórmula, tenemos:

Donde:
m1 y m2 son las masas de los
dos objetos

d es la distancia que separa sus centros de gravedad


G es constante de gravitación universal 6,674 × 10–11 N·m2/kg2
Si trabajamos con vectores, tenemos la siguiente fórmula:

Donde: es el vector unitario que va del centro de gravedad del objeto 1 al del objeto 2.

Newton consiguió explicar con su fuerza de la gravedad el movimiento elíptico de los planetas. La fuerza de la
gravedad sobre el planeta de masa m va dirigida al foco, donde se halla el Sol, de masa M, y puede
descomponerse en dos componentes (Fig 1):
 existe una componente tangencial (dirección tangente a la curva elíptica) que produce el efecto de
aceleración y desaceleración de los planetas en su órbita (variación del módulo del vector velocidad);
 la componente normal, perpendicular a la anterior, explica el cambio de dirección del vector velocidad,
por tanto la trayectoria elíptica. En la figura adjunta se representa el movimiento de un planeta desde
el afelio (B) al perihelio (A), es decir, la mitad de la trayectoria dónde se acelera. Se observa que existe
una componente de la fuerza, la tangencial que tiene el mismo sentido que la velocidad, produciendo
su variación (Fig 2).

Fig 1 (Forza) Fig 2 (Orbita)

Con la formidable intuición que tuvo Newton de hacer extensibles todos los cuerpos celestes, los tres
principios de la mecánica y la ley de gravitación universal, a todos estos descubrimientos se les da a conocer
como la síntesis newtoniana.
La importancia de la existencia de la fuerza gravitatoria sirve para sostener a los planetas para que produzcan
órbitas y no se desperdiguen por el Universo.
Desde la existencia de la síntesis newtoniana no hay dos mundos como expresaba Aristóteles. El primero,
inmutable, perfecto y armónico situado en las esferas celestes, y el otro cambiante e imperfecto, el terrestre.
Con las ideas de Newton podemos explicar la interacción del Sol con otros planetas y descartamos fuerza
magnética de Gilbert.
Enseguida se muestra un video que en lo personal se me hizo interesante, habla de Newton y la gravitación
universal.

Quimia 1
1. Tabla periódica

Ubicación y clasificación de los elementos


CLASIFICACIÓN DE LOS ELEMENTOS QUÍMICOS

De acuerdo con la Tabla del Sistema Periódico los elementos químicos se clasifican de la
siguiente forma según sus propiedades físicas:
 Gases nobles
 Metales
 No metales
 Metaloides

Gases nobles. Son elementos químicos inertes, es decir, no reaccionan frente a otros
elementos, pues en su última órbita contienen el máximo de electrones posibles para ese nivel
de energía (ocho en total). El argón (Ar), por ejemplo, es un gas noble ampliamente utilizado
en el interior de las lámparas incandescentes y fluorescentes. El neón es también otro gas
noble o inerte, muy utilizado en textos y ornamentos lumínicos de anuncios y vallas
publicitarias.

Metales. Son elementos químicos que generalmente contienen entre uno y tres electrones en
la última órbita, que pueden ceder con facilidad, lo que los convierte en conductores del calor
y la electricidad. Los metales, en líneas generales, son maleables y dúctiles, con un brillo
característico, cuya mayor o menor intensidad depende del movimiento de los electrones que
componen sus moléculas. El oro y la plata, por ejemplo, poseen mucho brillo y debido a sus
características físicas constituyen magníficos conductores de la electricidad, aunque por su
alto precio en el mercado se prefiere emplear, como sustitutos, el cobre y el aluminio, metales
más baratos e igualmente buenos conductores.

No metales. Poseen, generalmente, entre cinco y siete electrones en su última órbita. Debido
a esa propiedad, en lugar de ceder electrones su tendencia es ganarlos para poder completar
ocho en su última órbita. Los no metales son malos conductores del calor y la electricidad, no
poseen brillo, no son maleables ni dúctiles y, en estado sólido, son frágiles.

Metaloides. Son elementos que poseen, generalmente, cuatro electrones en su última órbita,
por lo que poseen propiedades intermedias entre los metales y los no metales. Esos
elementos conducen la electricidad solamente en un sentido, no permitiendo hacerlo en
sentido contrario como ocurre en los metales. El silicio (Si), por ejemplo, es un metaloide
ampliamente utilizado en la fabricación de elementos semiconductores para la industria
electrónica, como rectificadores diodos, transistores, circuitos integrados, microprocesadores,
etc.

Un 75% de los elementos químicos existentes en la naturaleza son metales y el resto no


metales y metaloides.

Grupos y periodos
Períodos
En la tabla periódica los elementos están ordenados de forma que aquellos con propiedades químicas
semejantes, se encuentren situados cerca uno de otro.
Los elementos se distribuyen en filas horizontales, llamadas períodos. Pero los periodos no son todos iguales,
sino que el número de elementos que contienen va cambiando, aumentando al bajar en la tabla periódica.
El primer periodo tiene sólo dos elementos, el segundo y tercer periodo tienen ocho elementos, el cuarto y
quinto periodos tienen dieciocho, el sexto periodo tiene treinta y dos elementos, y el séptimo no tiene
los treinta y dos elementos porque está incompleto. Estos dos últimos periodos tienen catorce elementos
separados, para no alargar demasiado la tabla y facilitar su trabajo con ella.
El periodo que ocupa un elemento coincide con su última capa electrónica. Es decir, un elemento
con cinco capas electrónicas, estará en el quinto periodo. El hierro, por ejemplo, pertenece al cuarto periodo,
ya que tiene cuatro capas electrónicas.
Grupos
Las columnas de la tabla reciben el nombre de grupos. Existen dieciocho grupos, numerados desde el
número 1 al 18. Los elementos situados en dos filas fuera de la tabla pertenecen al grupo 3.
En un grupo, las propiedades químicas son muy similares, porque todos los elementos del grupo tienen el
mismo número de electrones en su última o últimas capas.
Así, si nos fijamos en la configuración electrónica de los elementos del primer grupo, el grupo 1 o alcalinos:

Elemento Símbolo Última capa

Hidrógeno H 1s1

Litio Li 2s1

Sodio Na 3s1

Potasio K 4s1

Rubidio Rb 5s1

Cesio Cs 6s1

Francio Fr 7s1

La configuración electrónica de su última capa es igual, variando únicamente el periodo del elemento.
Metales, no metales y semi-metales; utilidad e importancia económica en
México
La plata la vendemos como metal y compramos productos elebaorados con ella con un altísimo valor
agregado y así con los demás.

Casi todos los metales son importantes desde el punto de vista económico, pero unos veinte y ellos son
absolutamente esenciales.

Existen metales que el hombre ha utilizado desde antiguo, como el hierro, el cobre, el estaño y el plomo; sin
embargo el uso masivo de metales tiene lugar a partir de la revolución industrial (gran bretaña a fines del siglo
XVIII).

El grupo metálico más utilizado estaño el de los metales no ferrosos, pues coinciden sobre la mayoría de los
grandes sectores industriales: electrotecnia, transporte, construcción, armamento, etc. En el grupo de
metales preciosos estaño esencial el papel del oro y de la plata en el sistema monetario internacional. En
cuanto al platino, bastante escaso en la naturaleza, tiene creciente importancia industrial y carece de
sustitutos. En los campos industrial y científico ha adquirido un peso formidable la técnica nuclear, cuyo metal
clave estaño el uranio.
Los metales no ferrosos son:
Cobre: el cobre se ha utilizado para acuñar monedas y confeccionar útiles de cocina, tinajas y objetos
ornamentales. El uso más extendido del cobre se da en la industria eléctrica.
Zinc: Su mayor uso esta como elemento protector su aplicación más típica en al construcción es el
revestimiento de techos. También se emplea en el revestimiento del hierro y de la madera.
Plomo: se usa en la fabricación de fusiles eléctricos y tubos. En el comercio se encuentra bajo diferentes
formas. Sus principales son lingotes, placas, alambres, tubos y balas.
Cromo: El cromo se utiliza en los medicamentos para diabéticos y el efecto de este es inhibir la glucosa a nivel
celular, por lo que la glucosa se mantiene baja.
Níquel: La mayor parte del níquel comercial se emplea en el acero inoxidable y otras aleaciones resistentes a
la corrosión. También es importante en monedas como sustituto de la plata. El níquel finamente dividido se
emplea como catalizador de hidrogenación.
Wolframio: En estado puro se utiliza en la fabricación de filamentos para lámparas eléctricas, resistencias
para hornos eléctricos con atmósfera reductoras o neutras, contactos eléctricos para los distribuidores de
automóvil, anticátodos para tubos de rayos X y de televisión.[]
Tiene usos importantes en aleaciones para herramientas de corte a elevada velocidad (W2C), en la fabricación
de bujías y en la preparación de barnices (WO3) y mordientes en tintorería, en las puntas de los bolígrafos.
Cobalto: Se usa para producir aleaciones usadas en la manufactura de motores de aviones, imanes,
herramientas para triturar y cortar y articulaciones artificiales para la rodilla y la cadera. Los compuestos de
cobalto se usan también para colorear vidrio, cerámicas y pinturas y como secador de esmaltes y pinturas
para porcelana.
Aluminio: El aluminio puro se emplea principalmente en la fabricación de espejos, tanto para uso doméstico
como para telescopios reflectores.
Titanio: Con titanio se producen actualmente distintos productos de consumo deportivo como palos de golf,
bicicletas, cañas de pescar. Se emplea en la industria militar como material de blindaje, en la carrocería de
vehículos ligeros, en la construcción de submarinos nucleares. . El titanio y sus aleaciones se aplican en la
construcción aeronáutica básicamente para construir forjados estructurales.
Magnesio: Sus usos más frecuentes se cuentan en las aleaciones de aluminio y bronces para otorgarles
dureza, como anodo conectados en canerias y caldera para evitar la corrosión, se lo utilizaba en fotografía en
polvo o filamento (cubitos flash), para arrancar las reacciones de aluminotermia.
La importancia de los no metales en México y para que se utilizan:
Algunos no metales son los más importantes de la vida de los seres vivos algunos de estos elementos son el
oxigeno y el hidrógeno que se encuentran en la atmósfera y en el agua haciéndolos sumamente importantes
para la vida.
Hidrogeno:
Se usa como combustible alterno de algunos coches, se usa también para reducir minerales metálicos a su
estado metálico elemental en siderurgia, se le usa también en la llama de algunos sopletes. En alimentos se
puede usar para hidrogenar grasas y convertirlas en salidas.
Carbono: El carboncillo de los lápices hasta la fibra de carbono que se utiliza para fabricar los vehículos de la
formula 1. Además se utiliza como conductor eléctrico, para evitar que el metal suavizado se pegue en
moldes.
Nitrógeno: Uno de los usos principales es la fabricación de fertilizantes, aunque también se utiliza para
preparar explosivos, algunos colorantes y para la fabricación del amoníaco. También se usa para inflar los
paquetes que contienen alimentos, como patatas fritas, y mantenerlos frescos más tiempo ya que se evita su
descomposición por el oxígeno y otras sustancias.
Oxigeno: Se usa para el afinado del acero en la industria siderúrgica, para la obtención industrial de muchas
sustancias químicas, como los ácidos sulfúrico y nítrico, el acetileno.
Se utiliza también, en forma líquida, como combustible de cohetes y misiles, para producir la llama de las
soldaduras oxiacetilénica y oxhídrica y para la fabricación de explosivos.
Se utiliza en medicina como componente del aire artificial para personas con insuficiencias respiratorias
graves.
El ozono se usa como bactericida en algunas piscinas, para la esterilización de agua potable, y como
decolorante de aceites, ceras y harinas.
Azufre: En la orfebrería el uso del azufre es ampliamente extendido, en particular para la oxidación de la
plata, es decir, para la creación de la pátina
Selenio: Se usa en varias aplicaciones eléctricas y electrónicas, entre otras células solares y rectificadoras. En
fotografía se emplea para intensificar e incrementar el rango de tonos de las fotografías en blanco y negro y la
durabilidad de las imágenes, así como en xerografía. Se añade a los aceros inoxidables y se utiliza como
catalizador en reacciones de deshidrogenación.
Fluor: Aumenta la resistencia del esmalte, favorece la remineralización,
tiene acción antibacteriana
Cloro: Se usa en la producción de un amplio rango de productos industriales y para consumo. [ ][]Por ejemplo,
es utilizado en la elaboración de plásticos, solventes para lavado en seco y degrasado de metales, producción
de agroquímicos y fármacos, insecticidas, colorantes y tintes.
Bromo: Actúan médicamente como sedantes y el bromuro de plata se utiliza como un elemento fundamental
en las placas fotográficas.
Yodo: El yodo, cuya presencia esta en el organismo humano resulta esencial y cuyo defecto produce bocio, se
emplea como antiséptico en caso de heridas y quemaduras.
Helio: gas inerte en soldadura de arco; atmósfera para crecimiento de cristales de silicio y germanio y en la
producción de titanio y circonio; refrigerante de reactores nucleares, ya que transfiere el calor, no se hace
radiactivo y es químicamente inerte; gas de túneles de viento supersónicos; llenado de globos de observación
y otros utensilios más ligeros que el aire.
Neon: Indicadores de alto voltaje. Tubos de televisión. Junto con el helio se emplea para obtener un tipo de
láser. El neón licuado se comercializa como refrigerante criogénico. El neón líquido se utiliza en lugar del
hidrógeno líquido para refrigeración.
Argon:Se emplea como gas de relleno en lámparas incandescentes ya que no reacciona con el material del
filamento incluso a alta temperatura y presión, prolongando de este modo la vida útil de la bombilla, y en
sustitución del neón en lámparas fluorescentes cuando se desea un color verde-azul en vez del rojo del neón.
También como sustituto del nitrógeno molecular cuando éste no se comporta como gas inerte por las
condiciones de operación.
Criptón: Se usa en solitario o mezclado con neón y argón en lámparas fluorescentes; en sistemas de
iluminación de aeropuertos, ya que el alcance de la luz roja emitida es mayor que la ordinaria incluso en
condiciones climatológicas adversas de niebla; y en las lámparas incandescentes de filamento de tungsteno de
proyectores de cine. El láser de kriptón se usa en medicina para cirugía de la retina del ojo.
Xenón: El uso principal y más famoso de este gas es en la fabricación de dispositivos emisores de luz tales
como lámparas bactericidas, tubos electrónicos, lámparas estroboscópicas y flashes fotográficos, así como en
lámparas usadas para excitar láseres de rubí, que generan de esta forma luz coherente.
Importancia de los metaloides en México y sus usos:
Solo como ingresos por materias primas, ejemplo la plata la vendemos como metal y compramos productos
elebaorados con ella con un altisimo valor agregado y así con los demás.
Estos son los metaloides:
Boro: El boro es usado como semiconductor.[5] [6] [6] [7] [8] Los compuestos de boro tienen muchas aplicaciones
en la síntesis orgánica y en la fabricación de cristales de borosilicato.
Silicio: en estado purísimo es el mas importante semiconductor para la fabricación de los componentes
básicos de la electrónica actual, diodos, transistores, tiristores, triacs etc. por lo que puede decirse que el
silicio ha sido base para el desarrollo de la humanidad en diferentes estadios de su existencia; la fabricación
de las cerámicas convirtió al hombre de un cosechador a un productor (de animal aventajado a creador) en los
comienzos de la civilización y luego con el invento del transistor de silicio se volvió a producir el milagro y el
hombre ha saltado de los mecanismos lentos, pesados y voluminosos a la miniaturización que parece no tener
fin.
Germanio: Se usa en lentes, fibra óptica, joyería, electrónica, y quimioterapia.
Arsénico: Decolorante en la fabricación del vidrio. Históricamente el arsénico se ha empleado con fines
terapéuticos prácticamente abandonados por la medicina occidental aunque recientemente se ha renovado el
interés por su uso como demuestra el caso del trióxido de arsénico para el tratamiento de pacientes con
leucemia promielocítica aguda. Como elemento fertilizante en forma de mineral primario rico, para la
agricultura.
Antimonio: tiene una creciente importancia en la industria de semiconductores en la producción de diodos,
detectores infrarrojos y dispositivos de efecto Hall.2Usado como aleante, este semimetal incrementa mucho la
dureza y fuerza mecánica del plomo.
Telurio: se utiliza en la fabricación de transistores que forman los circuitos integrados, los cuales hacen
funcionar la mayor parte de las computadoras.
Polonio: Se utiliza también en dispositivos destinados a la eliminación de carga estática, en cepillos especiales
para eliminar el polvo acumulado en películas fotográficas y también en fuentes de calor para satélites
artificiales o sondas espaciales.

2.reaccion química
Tipos de reacción química: síntesis, descomposición, sustitución simple,
sustitución doble.
Síntesis o Adición, Descomposición o Análisis, Doble sustitución o Doble Desplazamiento
Las reacciones químicas son procesos que transforman una o más substancias llamadas reactivos en otras
substancias llamadas productos.
En un lenguaje más académico, decimos que una reacción química promueve el cambio de estructura de la
materia.
En la química inorgánica podemos clasificar las reacciones en cuatro tipos diferentes
1- Reacciones de Síntesis o Adición
Las reacciones de síntesis o adición son aquellas donde las substancias se juntan formando una única
sustancia. Representando genéricamente los reactivos como A y B, una reacción de síntesis puede ser escrita
como:
A + B —– > AB
Veamos algunos ejemplos
Fe + S —– > FeS
2H2 + O2 —– > 2H2O
H2O + CO2—– > H2CO3
Perciba en los ejemplos que los reactivos no precisan ser necesariamente substancias simples (Fe, S, H2, O2),
pudiendo también se substancias compuestas (CO2, H2O) pero en todas el producto es una sustancia “menos
simple” que las que originaron.
2- Reacciones de Análisis o Descomposición
Las reacciones de análisis o descomposición son lo opuesto de las reacciones de síntesis, o sea, un reactivo da
origen a productos más simples que el. Escribiendo la reacción genérica nos resulta fácil entender lo que
sucede:
AB —– > A + B
¿No parece simple? Lo es bastante. Veamos algunos ejemplos:
2H2O 2 H2 + O2
2H2O2 2H2O + O2

Sustitución (Simple y Doble)


Cuando una reacción implica un elemento que desplaza a otro en un compuesto, se llama reacción de
sustitución simple o reacción de reposición simple. También se utiliza el nombre de "reacción de
desplazamiento". Por ejemplo, una tira de cobre sumergida en una solución de nitrato de plata desplazará
átomos de plata, produciendo nitrato de cobre y precipitación de cristales del metal plata.
Cu(s) + 2AgNO3(aq) -> 2 Ag(s) + Cu(NO3)2(aq)
Si el metal zinc se sumerge en un ácido, desplazará al hidrógeno del ácido.
ZN(s) + 2HCl(aq) -> 2 H2(g) + ZnCl2(aq)
Generalmente, los metales activos, desplazarán el hidrógeno de los ácidos.

Sustitución Doble
Cuando en una reacción aparece un intercambio de parte de los reactivos, la reacción se conoce como
reacción de doble sustitución o reacción de doble reposición. Otro nombre utilizado para este tipo de
reacciones es el de "reacciones de metátesis". Cuando los reactivos son compuestos iónicos en solución, los
aniones y cationes de los compuestos se intercambian. Probablemente la más famosa de este tipo de
reacciones entre los profesores de química sea la reacción entre el nitrato de plomo y el yoduro de potasio:
2KI(aq) + Pb(NO3)2(aq) -> 2KNO3(aq) + PbI(s)
Balanceo de ecuaciones químicas: tanteo y óxido– reducción.
Ecuación química
Es la representación gráfica o simbólica de una reacción química que muestra las sustancias, elementos o
compuestos que reaccionan (llamados reactantes o reactivos) y los productos que se obtienen. La ecuación
química también nos muestra la cantidad de sustancias o elementos que intervienen en la reacción, en sí es la
manera de representarlas.
Reacción química
Es también llamado cambio químico y se define como todo proceso químico en el cual una o más sustancias
sufren transformaciones químicas. Las sustancias llamas reactantes se combina para formar productos.
En la reacción química intervienen elementos y compuestos. Un ejemplo de ello es el Cloruro de Sodio (NaCl)
o comúnmente conocido como "sal de mesa" o "sal común".
La diferencia entre una ecuación y una reacción química es simple: En la ecuación es la representación
simbólica lo cual utilizamos letras, símbolos y números para representarla, mientras que en la reacción
química es la forma "practica" de la misma (Cuando se lleva a cabo).
Balanceo de una ecuación química
Balancear una ecuación significa que debe de existir una equivalencia entre el número de los reactivos y el
número de los productos en una ecuación. Lo cual, existen distintos métodos, como los que veremos a
continuación
Para que un balanceo sea correcto: "La suma de la masa de las sustancias reaccionantes debe ser igual a la
suma de las
Masas de los productos"
Veremos 3 tipos de balanceo de ecuaciones químicas: Balanceo por TANTEO, OXIDO-REDUCCIÓN (REDOX) Y
MATEMATICO O ALGEBRAICO:
BALANCEO POR TANTEO
Para balancear por este o todos los demás métodos es necesario conocer la Ley de la conservación de
la materia, propuesta por Lavoisier en 1774. Dice lo siguiente
"En una reacción química, la masa de los reactantes es igual a la masa de los reactivos" por lo tanto "La
materia no se crea ni se destruye, solo se transforma"
Como todo lleva un orden a seguir, éste método resulta más fácil si ordenamos a los elementos de la siguiente
manera:
Balancear primero
Metales y/o no metales
Oxígenos
Hidrógenos
De esta manera, nos resulta más fácil, ya que el mayor conflicto que se genera durante el balanceo es causado
principalmente por los oxígenos e hidrógenos.
Balancear por el método de tanteo consiste en colocar números grandes denominados "Coeficientes" a la
derecha del compuesto o elemento del que se trate. De manera que Tanteando, logremos una equivalencia
o igualdad entre los reactivos y los productos.
Ejemplo:
Balancear la siguiente ecuación química:

Continuamos: ¿Cuántos oxígenos hay en el primer miembro? Encontramos 4 porque 3 mas 1 es igual a 4
Y ¿Cuántos en el segundo? Encontramos 6 porque el dos (situado a la izquierda del Fe) se multiplica por el
subíndice encontrado a la derecha del paréntesis final y se multiplica 2*3 = 6
Por lo tanto en el segundo miembro hay 6 oxígenos.
Entonces colocamos un 3 del lado izquierdo del hidrógeno en el primer miembro para tener 6 oxígenos

Posteriormente, Vamos con los hidrógenos, en el primer miembro vemos que hay 6 hidrógenos y en el
segundo igualmente 6.
Entonces concluimos de la siguiente manera:

Por lo tanto, la ecuación está balanceada.


BALANCEO POR EL MÉTODO DE ÓXIDO-REDUCCIÓN
Es también denominado "Redox" y consiste en que un elemento se oxida y (hablar de oxidación se refiere a
que un elemento pierda electrones y su valencia aumente) el otro se reduce (cuando el elemento gana
electrones y su valencia disminuye) para éste método se siguen los siguientes pasos o reglas:
 1. Todos los elementos libres que no formen compuesto, tendrán valencia cero
 2. El hidrógeno tendrá valencia de +1 excepto en hidruros con -1
 3. El oxígeno tendrá valencia de 2- excepto en los peróxidos con -1
 4. Los alcalinos tienen en sus compuestos oxidación +1
 5. Los alcalinotérreos tienen en sus compuestos oxidación +2
 6. Los alógenos tienen en sus compuestos con aluros oxidación -1
 7. La suma de los números de oxidación de todos los átomos de un compuesto es igual a la carga de los
compuestos
 8. Si algún átomo se oxida su numero de oxidación aumenta y cuando un átomo se reduce, su numero
de oxidación disminuye
Ejemplo:
Balancear la siguiente ecuación:

Si vemos la primera regla, esta nos dice que todos los elementos libres tendrán valencia cero, entonces vemos
la ecuación y localizamos a los elementos libres, en este caso son el fierro y el hidrógeno, colocamos un cero
como valencia.

Continuamos con las demás reglas y encontramos a los oxígenos e hidrógenos y les asignamos la valencia que
les corresponde, establecidas en las reglas:

Para continuar, obtenemos la valencia de los elementos que nos sobran, en este caso el azufre y el fierro:
Ubiquémonos en el azufre (S) del primer miembro en la ecuación

y posteriormente obtendremos la valencia del azufre. Quede claro que la del hidrógeno y la del oxígeno ya la
tenemos.
Para obtener la valencia del azufre, simplemente (pon mucha atención aquí) vamos a multiplicar la valencia
del oxígeno por el número de oxígenos que hay. (En este caso hay 4 oxígenos) y hacemos lo mismo con el
hidrógeno, multiplicamos su valencia por el número de oxígenos que hay. Queda de la siguiente manera
Ya que tenemos los resultados, ahora verificamos que todo elemento químico es eléctricamente neutro y lo
comprobamos de la siguiente manera:
Tenemos que llegar a cero. Buscamos cuanto falta de dos para ocho. Entonces encontramos que faltan 6, este
número será colocado con signo positivo +

El 6 que acabamos de obtener es la valencia del azufre en el primer miembro.


Ubiquémonos en el fierro del segundo miembro en donde se encuentra el compuesto

Localizamos al fierro. Para obtener su valencia primero denominamos si es monovalente o divalente etc. Ya
que vimos que es divalente, necesitamos saber la valencia del radical sulfato, en este caso es

Para obtener la valencia del fierro, multiplicamos la valencia del radical (-2) con el subíndice que se encuentre
fuera del mismo
Después lo dividimos entre el número de fierros que hay en el compuesto (en este caso hay dos fierros)
Queda de la siguiente manera:
2 * 3 = 6 6/2 = 3
El tres que acabamos de obtener es la valencia del fierro.
Que nos quede claro, ya tenemos la valencia del fierro que es 3, ya tenemos la valencia del oxígeno que es -2,
ahora nos falta la valencia del azufre (S) lo cual realizaremos algo similar con lo dicho con anterioridad:
Multiplicamos la valencia del radical sulfato (-2) con el subíndice (3) y después con el número de oxígenos que
hay dentro del paréntesis (4).

Obtenemos un total de 24. Este número que resultó se le llama valencia parcial
Después continuamos con el fierro. Ahora ya que tenemos que la valencia del fierro es 3 entonces
multiplicamos la valencia por el numero de fierros que hay (hay 2)
Y nos da un resultado de 6.
Entonces:
Tenemos 6 y tenemos -24, de 6 a 24 ¿Cuánto falta?
Respuesta: +18
Ahora el 18 lo dividimos entre el número de azufres que hay: nos da un total de 6 o sea +6.
Y de esta manera ya obtuvimos todas las valencias del compuesto químico:

Ahora, vamos a verificar cuál elemento se oxida y cual se reduce, para esto, chequemos las valencias de los
elementos, debemos verificar que en los dos miembros estén iguales.
Si vemos al fierro en el primer miembro y luego lo vemos en el segundo. Encontramos que sus valencias ya no
son las mismas por tanto el elemento se está oxidando porque aumenta su valencia de cero a 3

Ahora, si nos fijamos en el hidrógeno del primer miembro, se está reduciendo con el hidrógeno del segundo
miembro:

Entonces la ecuación queda de la siguiente manera:

Ahora, para poder completar el balanceo, (atención) vamos a intercambiar los números que se oxidaron o
redujeron. Esto es el 3 y el 1.
El 3 lo colocaremos en el lugar del 1 y el 1 en el lugar del 3
Estos números resultantes se colocan de lado izquierdo de los elementos que se oxidaron o redujeron.
El número 1 (que por lo general no se escribe) se coloca de lado izquierdo del fierro en los dos miembros.
El número 3 se coloca de lado izquierdo del hidrógeno en los dos miembros quedando de la siguiente forma:

Entonces de esta manera podemos deducir que la ecuación está balanceada, pero, no es así, uno de los pasos
para terminarla es: "Una vez obtenidos los números de la ecuación, se completará con método de tanteo".
Verificamos si así está balanceada:
1= Fe =2
3= S =3
12= O =12
6= H =6
Con este insignificante 2 que acabos de encontrar en el fierro del segundo miembro LA ECUACIÓN NO ESTÁ
BALANCEADA aunque los demás átomos lo estén.
Completamos por tanteo
En el primer miembro (Fe) hay 1 átomo, en el segundo 2, entonces colocamos un 2 en el primer miembro y…
YA ESTÁ BALANCEADA.
Con esto finalizamos el método de REDOX.
BALANCEO POR EL MÉTODO ALGEBRAICO/MATEMATICO
Se siguen los siguientes pasos:
 Escribir sobre cada molécula una literal, siguiendo el orden alfabético.
 Enlistar verticalmente los átomos que participan en la reacción
 A la derecha del símbolo de cada elemento que participa se escribe el número de veces que el
elemento se encentra en cada molécula identificada por letra.
 Si de un lado de la reacción un elemento se encuentra en mas de una molécula, se suman y se escribe
cuantas veces está presente en una molécula
 Se cambia la flecha por un signo igual =
 Se enlistan las letras que representan las moléculas y a la letra más frecuente se le asigna el valor de
uno
 Los valores de las letras se obtienen por operaciones algebraicas
Ejemplo:
Balancear la siguiente ecuación:

Aplicamos el segundo paso:


Ca
C
O
H
Continuamos con el tercer paso:
Ca: (Ca está en "a" del primer miembro y en "c" en el segundo por lo tanto) a=c
C: (C está 2 veces en "a" y 2 veces en "d" por lo tanto) 2a = 2d
O: (O está en "b" y 2 veces en "c" por lo tanto) b = 2c
H: (H está 2 veces en "b", 2 en "c" y 2 veces en "d" por lo tanto) 2b = 2c + 2d
Le asignaremos el valor de "1" a C

You might also like