Professional Documents
Culture Documents
Historia de México 1
El estudio de la Historia y su construcción científica
construcción científica
Un hecho histórico no es un suceso ocurrido en el pasado, sino la explicación que se da sobre este. Los historiadores son
los especialistas que hacen la interpretación de lo ocurrido a partir de una metodología de investigación cuyo objetivo es
estudiar las evidencias del pasado. No obstante, cualquier persona, aunque no sea especialista en el tema puede dar
también una explicación histórica, siempre y cuando aplique un Los hechos históricos encuentran su aplicación al
determinarlos por el contexto presente; por tal motivo no hay explicaciones históricas definitivas. Los hechos históricos
siempre tendrán nuevas interpretaciones que pensamiento crítico que evalué las situaciones que estudia. dependerán
de las nuevas perspectivas con que se les mire.
• Historia anticuaria. También llamada anecdótica, se centra en hechos memorables y descontextualizados, tiene gran
aceptación masiva y entretenida. Ejemplos de esta forma de hacer historia se pueden encontrar fácilmente en librerías y
puestos de periódicos, pero también en la televisión y el cine.
• Historia critica. Es la que juzga al pasado, es más bien de denuncia y nos hace ser conscientes de algo, generalmente
perjudicial e injusto. Ejemplos, los males de un gobierno o la opresión hacia los ciudadanos por parte de alguna
institución.
• Historia de bronce. Los que la utilizan llaman a la historia "maestra de la vida" por considerarla didáctica, es decir,
porque nos enseña cómo fue el pasado, en hechos que fueron memorables. Ejemplo, discursos para celebrar eventos
como fiestas patrias, conmemoraciones religiosas, en escuelas, etc. Promueve el espíritu patriótico
• Historia científica. Trata de explicar el presente y busca los hechos generales. Explica el pasado como un proceso y
permite saber cómo se desarrollara el futuro.
Categorías históricas
Espacio: Desde un punto de vista histórico, el espacio geográfico es acumulativo, en tanto posee las huellas de las
diferentes sociedades que lo organizaron en el proceso histórico. En muchas regiones y en antiguas ciudades se
superponen los espacios organizados por las sociedades que se sucedieron en los sucesivos periodos históricos
(prehistóricas, antiguas, medievales, modernas o contemporáneas, del Antiguo Régimen o de la era industrial); a todo
ello hay que agregar que en la actualidad está tomando forma una nueva organización del espacio producto de la
sociedad de la información o del conocimiento.
Tiempo: Para la interpretación providencialista, el tiempo histórico es un paréntesis en la eternidad, origen y destino del
hombre. Si el hombre es el verdadero protagonista de la historia, la escala temporal de la vida humana pasa a ser la
decisiva, pero puede ser superada por la duración de las instituciones, que la superan. Los sesgos temporales van desde
las periodizaciones clásicas Prehistoria, Historia, Edad Antigua, Edad Media, Edad Moderna o Edad Contemporánea,
hasta las historias por siglos, reinados, etc.
Estructura: Es la disposición y orden de las partes dentro de un todo. También puede entenderse como un sistema de
conceptos coherentes enlazados, cuyo objetivo es precisar la esencia del objeto de estudio. Para el marxismo y otros
enfoques denominados materialistas (en sus diversas variantes: materialismo dialéctico, materialismo histórico,
materialismo cultural, etc.), la estructura es el conjunto de relaciones de producción tanto técnicas como sociales
(equivalente a la economía y la sociedad). Mientras que la superestructura (equivalente a la política y la ideología) viene
determinada por ella. Para el marxismo por tanto la estructura es la parte decisiva de la realidad social.
Duración: la larga duración (o nivel de las estructuras cuya estabilidad es muy grande),
La larga duración (del francés longue durée) es el término con que se designa un nivel del tiempo histórico
correspondiente a las estructuras cuya estabilidad es muy grande en el tiempo (marcos geográficos, realidades
biológicas, límites de productividad, incluso algunos fenómenos ideológicos), para diferenciarlo del nivel de tiempo de la
coyuntura, en que el cambio es perceptible (series económicas, procesos de cambio, fenómenos de transformación
profunda que han sido denominados historiográficamente revoluciones, como la Revolución industrial o la Revolución
burguesa) y sobre todo de la corta duración o hechos de la historia evenemencial o de los acontecimientos.
La acuñación del término se debe a Fernand Braudel sobre todo en el clásico estudio La Méditerranée et le Monde
Méditerranéen a l'époque de Philippe II (El Mediterráneo y el mundo mediterráneo en la época de Felipe II); y a la
escuela de Annales.
Coyuntura y coyuntural es lo opuesto a estructura y estructural. Se dice de lo que no es permanente, sino contingente y
cambiante, pero que puede ser decisivo en el periodo más o menos largo en que se presenta.
En historiografía, la coyuntura es el nivel del tiempo histórico intermedio entre la larga duración y los acontecimientos
puntuales, tal y como lo define Fernand Braudel. Los procesos económicos (series de precios o salarios), las crisis y
revoluciones, serían buenos ejemplos de coyunturas o situaciones coyunturales. La duración real de estas situaciones no
tiene por qué ser breve: la coyuntura de crisis secular, por ejemplo (siglo XIV o XVII); o la Revolución industrial.
*Horizonte clásico: durante este periodo los grandes centros poblacionales como Teotihuacán, en el altiplano central, y
ciudades de la zona maya crecieron y decayeron por diversos motivos que en algunos casos son desconocidos. Estos
centros poblacionales ya contaban con organizaciones sociales altamente organizadas, regida de forma teocrática hasta
su caída y abandono. Este periodo cultural abarcó del 250-300 d.C. al 900 d.C.
*Horizonte postclásico: los cambios políticos que durante esta etapa se vivieron, mucho tuvieron su origen en invasiones
de pueblos nómadas del norte de México, que absorbieron los conocimientos de sus antecesores formando pueblos
donde se abandonó la teocracia que dominó durante el clásico, dando paso al militarismo y la formación de grandes
estados como el mexica. Este periodo donde la cultura en Mesoamérica estaba en su máximo apogeo se dio del 900 d.C.
hasta el 1521 d.C.
Periodos culturales
Los mexicas o aztecas expandieron su control económico, principalmente mediante tributación, a través de
una amplia región del actual centro de México, con excepciones importantes de control político en altépetl
disidentes o fronterizos. Formalmente, se trataba de un conjunto de dominios inicialmente regidos de los tres
estados integrantes de la Triple Alianza —Texcoco, Tlacopan y México-Tenochtitlan, aunque es verdad que los
mexicas de Tenochtitlan encabezaron esta confederación y fueron el estado más expansionista de los tres
mencionados. Por otra parte, los mexicas nunca establecieron un dominio directo sobre los pueblos
conquistados.
La élite gobernante de la Triple Alianza se apropiaba de la producción de las otras naciones mesoamericanas
mediante la imposición de un tributo, que era fijado de acuerdo con la especialización económica y geográfica
de los dominados y recolectado por un calpixque, o recaudador. Los dominadores no impusieron su religión ni
su lengua a los dominados. Aunque es cierto que los estados sometidos no tenían independencia política total,
seguían gobernados por grupos locales. Sólo en algunos casos, los mexicas establecieron un control militar en
ciertos puntos estratégicos de sus dominios.
El modo en que los aztecas impusieron su dominio sobre otros pueblos mesoamericanos fue diverso, no
ajustándose a una estructura imperial tradicional como en las monarquías europeas. Aunque se suele señalar
el carácter militar de varias conquistas aztecas, también establecieron una complicada red de alianzas
matrimoniales con las élites locales para asegurar la lealtad hacia el poder de México-Tenochtitlan. Tal fue el
caso, por ejemplo, de los zapotecos del istmo de Tehuantepec. El dominio del Estado mexica en Mesoamérica
no fue total. Varios estados mesoamericanos fueron capaces de resistir el empuje de los tenochcas y sus
aliados, entre ellos los popolocas de Teotitlán del Camino, los tlapanecos de Yopitzinco, el señorío de
Metztitlán (norte de Hidalgo), los mixtecos de Tututepec, la confederación Tlaxcalteca y el estado tarasco de
Michoacán. De sobra es conocido que los tlaxcaltecas eran enemigos acérrimos de los mexicas, que les habían
impuesto la obligación de participar de la Xochiyáoyotl a cambio de su independencia. Tampoco debe dejar de
mencionarse que los mexicas nunca pudieron derrotar a los tarascos, y que la presencia de este pueblo
impidió la expansión de sus dominios hacia el occidente.
El fin del régimen de dominio internacional de los mexicas y sus aliados en Mesoamérica concluyó con la
Conquista española de México-Tenochtitlan.
Conquista de México
REFORMAS BORBÓNICAS
Con la muerte de Carlos II -último rey de la dinastía de los Austrias en España- estalló el año 1700 una guerra
de sucesión que se debió a la falta de un heredero al trono. Este conflicto involucró a las grandes potencias
europeas de la época. Gracias a la alianza con sus parientes de Francia, Felipe V de Anjou pudo hacerse del
trono en España (1701), en desmedro de las pretensiones austríacas. Tal estado de cosas fue ratificado en el
Tratado de Utrecht de 1713, inaugurándose así los reinados de la dinastía borbónica en España y en su imperio
colonial.
Los desafíos de la nueva casa monárquica estarán encaminados hacia la recuperación del prestigio y del poder
político, muy disminuidos en relación al de las potencias rivales europeas, en especial Inglaterra. A lo
Largo de todo el siglo XVIII los reyes y ministros destinaron sus esfuerzos a tres grandes objetivos: mejorar la
organización interna del imperio, aumentar los ingresos de la corona y reforzar las defensas de todas las
posesiones españolas.
Durante todo el siglo XVII, los americanos se habían gobernado con amplia autonomía de la metrópoli, y la
administración de las colonias americanas también evidenciaba este proceso. Una consecuencia
particularmente grave de esta situación era que España recibía cada vez menos beneficios económicos de sus
colonias.
Por esta razón, cuando los Borbones llegaron al trono, emprendieron una ambiciosa política de reformas
políticas, militares, eclesiásticas y económicas, cuyo objetivo era “reconquistar” las posesiones ultramarinas.
Esta reconquista se organizó bajo principios absolutistas que los Borbones habían impuesto en Francia. Las
medidas se centraron en dos aspectos principales: la centralización de la monarquía, es decir, la concentración
del poder en el rey, la corte y los ministros de Estado; y el afán por uniformizar la estructura política y
administrativa de sus dominios. Por ejemplo, los Borbones sustituyeron el sistema de consejos (como el
Consejo de Indias) a favor de administradores que respondían a las órdenes exclusivas del rey.
Aunque las bases de las reformas borbónicas estuvieron sentadas desde 1743, éstas llegaron a su apogeo
entre 1776 y 1786. El monarca Carlos III fue el que emprendió mayor cantidad de medidas reformistas más
ambiciosas. Apremiado por la creciente competencia de otras potencias coloniales, y ante las numerosas
dificultades para hacerse obedecer en América, decidió modificar drásticamente el sistema de administración.
Las reformas fueron en ámbitos administrativo, judicial, eclesiástico y comercial.
La independencia de México
La consumación de la independencia
El 27 de Septiembre de 1821 entró triunfante en la Ciudad de México el Ejército Trigarante, después de más de diez años
de lucha insurgente por alcanzar la Independencia de México. A lo largo de ese proceso los grandes caudillos que
encabezaron el movimiento -Hidalgo, López Rayón y Morelos, entre otros-, fueron aprehendidos y fusilados por los
realistas. En la última etapa de esta gesta destacó Vicente Guerrero.
En 1820, la Constitución de Cádiz fue restablecida en España, lo que propició que algunos sectores de la sociedad
novohispana -opuestos a ella porque afectaba sus intereses- se levantaran en armas enarbolando el Plan de la Profesa.
Para encabezar esta conspiración fue nombrado Agustín de Iturbide. El 24 de febrero de 1821 se proclamó el Plan de
Iguala, el cual resultó atractivo para casi todos los novohispanos pues, de alguna manera, beneficiaba a distintos grupos
sociales. Dicho plan proponía una monarquía limitada y separada, lo que complacía a quienes buscaban la autonomía
con respecto a España; tomaba en cuenta ciertos principios de la Constitución de Cádiz, favorables a los liberales; ofrecía
a Fernando VII -o a otro miembro de la Casa de los Borbones- ocupar el trono de México, lo que era del agrado de los
tradicionalistas; disponía de la continuidad de los fueros eclesiástico y militar, por lo que ambas corporaciones se
unieron a él. Además, preveía que los funcionarios del gobierno conservaran sus empleos y jerarquías, ganando así el
apoyo de la burocracia novohispana.
El plan suprimía, además, las distinciones étnicas entre los habitantes de la hasta entonces Nueva España; declaraba la
igualdad de todos los individuos y, por lo tanto, en adelante todos tendrían los mismos derechos. En cuanto al gobierno
del nuevo país, proponía una Regencia -que se haría cargo del gobierno por una breve temporada- y una Junta Soberana
compuesta por liberales y conservadores, además convocaría a Cortes para elaborar una Constitución. Finalmente,
exhortaba a los insurgentes a incorporarse al nuevo ejército, el Trigarante, cuyo nombre aludía a tres garantías: Religión,
Independencia y Unión.
Este plan sustentó la lucha por la independencia varios meses más. El 5 de julio, el virrey Juan Ruiz de Apodaca, fue
destituido; su lugar lo ocupó, provisionalmente, el general Francisco Novella. El 30 de julio de 1821 arribó al puerto de
Veracruz Juan de O´Donojú, quien sustituyó a Ruiz de Apodaca. El 24 de agosto, O´Donojú, e Iturbide, firmaron los
Tratados de Córdoba. Estos tratados reconocían al Plan de Iguala y, por lo tanto, la Independencia de México, así como
el fin de la dominación española, además de la existencia del Imperio Mexicano como Nación Soberana e Independiente.
Asimismo, contemplaban las disposiciones del Plan de Iguala relativas a la forma de gobierno del nuevo país.
O´Donojú, designado como intermediario para entregar la capital sin derramamiento de sangre, entabló negociaciones
con el general Novella quien, después de prolongadas pláticas, reconoció la autoridad de O´Donojú y le entregó el
mando de la guarnición real el día 13 de septiembre. El Ejército Trigarante, al mando de Iturbide, hizo su entrada triunfal
en la Ciudad de México el 27 de septiembre de 1821. El primer acto de la Junta Provisional Gubernativa, consistió en
decretar el Acta de Independencia del Imperio Mexicano, en cuyo párrafo final sentenciaba: “Tendrá lo entendido la
regencia, mandándola imprimir, publicar y circular.- México, 6 de octubre de 1821, primero de la independencia de este
imperio. (...Firmas...)”.
El advenimiento y desarrollo del capitalismo europeo revolucionó la historia de millones de personas en todo el
mundo. Las transformaciones internas que generó en los ámbitos económico político y social requieren relacionarse en
torno suyo para poder tener una idea integral de lo que sucedió a partir de su consolidación y del impacto en cada uno
de los países donde se asienta.
Desde la segunda mitad del siglo XVIII, una significativa parte de la población mundial se ha visto involucrada en esta
modalidad de vida que como otras que se presentaron con anterioridad, tienen sus aspectos positivos y negativos pero,
indiscutiblemente, derivados de hacer de los hombres y las mujeres que habitamos este…ver más…
* Monopolio:
Es una situación de privilegio legal o fallo de mercado en la cual, para una industria que posee un producto, un bien, un
recurso o un servicio determinado y diferenciado, existe un productor (monopolista) oferente que posee un gran poder
de mercado y es el único de la industria que lo posee.
A finales de los años de 1980 y principios de 1990 tendría lugar otro hecho de enorme relevancia como fue la caída del
muro de Berlín y la disolución del Bloque Soviético, sucesos que llevaron a la conformación de un nuevo orden mundial,
dejando este de caracterizarse por la bipolaridad (situación propia de la Guerra Fría) harán que se geste un nuevo orden
mundial, que dejará así de caracterizarse por la bipolaridad propia de la Guerra Fría y pasará a caracterizarse por la
unipolaridad, con Estados Unidos emergiendo como única superpotencia.
Estado moderno entra en crisis en la medida que su estructura decisional y su soberanía son sometidas a presiones
contrapuestas: “desde arriba” se ve cuestionado por instituciones supranacionales y corporaciones; y “desde abajo”,
entra en conflicto con los problemas y cuestiones que se originan en los ámbitos locales. Estos procesos ponen al Estado
en una situación de debilidad para conducir sus políticas, lo que termina por reforzar la interpretación neoliberal de la
globalización, que hace de las demandas de los mercados el sinónimo del “bien común”. Pero también
El impacto que el descubrimiento de América significó para el mundo fue grande: las consecuencias demográficas,
económicas y culturales se dejaron sentir inmediatamente:
- Demográficas: la emigración o traslado de población europea hacia las colonias americanas, la mezcla entre la raza
nativa y la europea (mestizaje racial), el tráfico de esclavos negros y el intercambio continental de epidemias que hizo
disminuir la población indígena americana.
-Económicas: se desplazó la actividad económica desde el Mediterráneo hacia el Atlántico. El hallazgo de numerosos
yacimientos de metales preciosos en América, fomentó la tendencia al atesoramiento de oro. El intercambio de
productos entre los dos continentes provocó que en América se conocieran el trigo, el café, la caña de azúcar y el olivo,
Europa recibió de América el cultivo del maíz, el cacao y la papa.
-Culturales: los pueblos europeos trajeron a América su forma de pensar, valores, idioma, religión, arte y sentido del
derecho, entre otros aspectos.
El nacimiento del nacionalismo: los reyes usaron el nacionalismo como un instrumento para la formación de un Estado
centralizado al unir al pueblo bajo una misma bandera y un mismo idioma.
Aquellas consecuencias ahora más que nunca son trascendentes y principalmente pesan en la sociedad y en el mundo
actual, puesto que son esas mismas consecuencias que han hecho o provocado que el mundo este como está y que en la
sociedad entera se note un cambio significativo y racial de lo que conforman los grupos de poder y el proletariado en su
mayoría
El nacimiento del estado moderno es una de las características que han definido el comienzo de la Edad Moderna,
aunque muchos historiadores consideran que el nacimiento del estado fue un proceso lento, que comenzó siglos antes
del inicio de la Edad Moderna, es decir, en la Edad Media.
Como génesis medieval del Estado moderno se entiende el proceso por el cual las monarquías occidentales pasaron,
durante la Baja Edad Media, de una organización feudal de vasallaje a otra centralizada de características estatales y
absolutistas.
Durante la mayor parte de la Edad Media la monarquía feudal impedía la organización de un estado cuyo poder lo
tuviera solo el rey. Desde el siglo XIII, y fundamentalmente en los siglos XIV y XV, los reyes fueron aumentados su poder,
pero el Estado moderno como tal comienza a implantarse en Europa desde finales del siglo XV. Pero su implantación no
sigue un ritmo uniforme pues este proceso de construcción del Estado moderno sólo se dio en tres países: la Francia de
Luis XI, la Inglaterra de los dos primeros Tudor y la España de los Reyes Católicos. Pese a sus limitaciones, estas
monarquías occidentales habían establecido firmemente las bases del Estado centralizado y absolutista. En el resto de
países, la monarquía autoritaria no se implantó hasta bien entrado el siglo XVII.
La construcción del Estado Moderno supuso la afirmación territorial de la autoridad monárquica frente a obstáculos
interiores y rivales exteriores, una creciente centralización política y económica, la extensión y ampliación de la
capacidad decisoria de la administración real (burocratización) y la consolidación de la monarquía autoritaria como eje
central de un sistema político complejo. Con esto, el rey consiguió la resignación de la sociedad, a cambio de un cierto
orden y progreso.
Los reyes fueron quienes iniciaron este proceso en el transcurso de los siglos XIV y XV. Interesados en concentrar el
poder en su persona, debieron negociar con los señores feudales, quienes cedieron sus derechos individuales sobre sus
feudos, a cambio de una serie de privilegios. Los que no estuvieron dispuestos a transar, fueron sometidos a través de
violentas guerras. Para éstas, los reyes contaron con el apoyo de los burgueses, a quienes les interesaba dejar de
depender del señor feudal. De este modo, el concepto feudal de lealtad fue reemplazado por los de autoridad y
obediencia, propios de un Estado con poder centralizado.
En el siglo XVII, el poder político de los monarcas se fortaleció hasta eliminar cualquier representatividad, dando lugar a
las monarquías absolutas. Uno de los más claros ejemplos del absolutismo fue Francia. Durante el siglo XVII, este país se
convirtió en la mayor potencia europea, después de consolidar sus fronteras, gracias a innumerables guerras con los
países vecinos. El rey Luis XIV (1643-1715) fue la mejor personificación de la imagen del monarca absoluto. A él se
atribuye la frase: "El Estado soy yo".
El Príncipe fue un tratado que revolucionó las ideas políticas de la época. Escrito por Nicolás Maquiavelo, se hizo eco de
las tendencias individualistas que comenzaron a dominar las costumbres. En él, Maquiavelo expuso un conjunto de
reglas y recomendaciones que debía seguir un político para vencer en las luchas por el poder. Según estas, la sociedad y
los hombres no se regían por el derecho divino o la ley moral, sino que exclusivamente por las pasiones e intereses.
Maquiavelo.
El político no puede cambiar a los seres humanos, sino que los debe tomar como son y, por lo tanto, debe usar cualquier
medio siempre que obtenga éxito. Eso dejaba abierta la posibilidad de utilizar el engaño, la mentira e, incluso, el
asesinato, pues todo se justificaba si servía a los objetivos del gobernante para conservar y aumentar el poder. Para el
político solo debía regir la razón de estado. Desde la perspectiva política, el fenómeno más relevante, como ya lo vimos,
en la configuración del Estado moderno son las primeras monarquías nacionales, las cuales se irán abriendo paso a
medida que se diluya la idea medieval de imperio cristiano con el transcurso de las luchas de religión del siglo XVI.
El nacimiento del Estado moderno significará nuevas formas en la organización del poder, como la concentración del
mismo en el monarca; nacerá la concepción de un patrimonio del Estado, que generará una burocracia y el crecimiento
de instrumentos de coacción, mediante el incremento del poder militar, o la aparición y consolidación de la diplomacia,
conjuntamente con el desarrollo de una teoría política útil.
Fórmulas que culminarían en el Estado absolutista del siglo XVII o en los despotismos ilustrados del siglo XVIII, pero que
no pueden ocultar la complejidad de la realidad política europea y el desarrollo de modelos de gobierno alternativos,
como las formas parlamentarias que se fueron implantado desde el siglo XVII en Inglaterra, y que vaticinan el posterior
desarrollo del liberalismo.
Primera Guerra Mundial (1914 – 1919) fue un conflicto bélico global centrado en Europa que comenzó en el verano de
1914. La lucha terminó a finales del año 1918. Este conflicto involucró a todas las grandes potencias del mundo, se
reunieron en dos alianzas opuestas: los Aliados (en torno a la Triple Entente) y los Imperios Centrales. En la Primera
Guerra Mundial, más de 70 millones de efectivos militares, incluidos 60 millones de europeos, se movilizaron en una de
las mayores guerras de la historia. Más de 9 millones de combatientes perdieron la vida, debido en gran parte a los
grandes avances tecnológicos en potencia de fuego. Es el segundo conflicto más mortífero de la historia, solo superado
por la Segunda Guerra Mundial.
Desde el 1871 hasta el 1914 Europa vivió lo que se ha dado en llamar la “Paz Armada”, que fue en extremo beneficiosa
para el desarrollo económico, cultural y científico de las naciones industriales europeas. Sin embargo, entre las grandes
potencias existía mucho recelo, lo que les inducia a armarse constantemente. De allí el nombre que se le ha dado a este
periodo.
Causas de la Primera Guerra Mundial
1. Tensiones entre las potencias: los principales antagonismos internacionales eran los siguientes:
Las fricciones políticas entre Inglaterra, Francia y Rusia, a causa de la respectiva expansión colonial, fueron también
intensas, pero fueron dejadas de lado para dar paso a la configuración de alianzas internacionales.
Aparte de las fuertes rivalidades coloniales, las potencias industriales se enfrentaron en el plano netamente económico.
Lucharon entre sí por conseguir mercados para sus productos y retenerlos por conquista.
Para asegurar los resultados de su victoria sobre Francia, el canciller alemán Otto Von Bismarck concibió un sistema de
alianzas, basado en la estrecha colaboración entre Alemania y el imperio austriaco. A esta alianza se unió Italia,
enemistada con Francia por la cuestión de Túnez, y así apareció la denominada Triple Alianza.
Por su parte, Francia busco aliados que apoyaran sus deseos de desquite. Como Rusia era adversaria de Austria en los
Balcanes, se firmó la alianza franco-rusa, a la que luego se unió Inglaterra al darse cuenta del enorme poder que estaba
acumulando Alemania. De esta manera nació la Triple Entente o Entente Cordiale.
Los dos bloques antagónicos practicaron una política de agresión indirecta; este hecho aumento las posibilidades de que
estallara una guerra. La primera ocurrió con motivo del establecimiento del protectorado francés en Marruecos, a lo que
se opuso Alemania. La segunda causa de la guerra que estallo en los Balcanes, primero entre Turquía, de una parte, y
Grecia, Bulgaria y Serbia unidas de otra, y luego, derrotada Turquía, entre los vencedores para repartirse el botín (1911 –
1913).
El primer grupo lo conformaron los Imperios Centrales; Alemania y Austria-Hungría, junto con Turquía y Bulgaria.
El segundo grupo estaba compuesto por Rusia y Francia al lado de Inglaterra, Bélgica (invadida por los alemanes), Italia
(que se desligo de la Triple Alianza al ser traicionado por Alemania que apoyo las pretensiones austriacas en los
Balcanes, zona codiciada también por Italia), los Estados Unidos de América y el Japón.
Se inicia con la Invasión de Alemania a Bélgica. Los alemanes invaden y ocupan Bélgica. Italia rompe alianzas con las
potencias centrales.
- Invasión de Francia, los alemanes avanzan a Francia dirigidos por el general Von Kluck, pero son detenidos por el
general francés Joffre en la Primera Batalla de Marme.
- Invasión de Alemania. Rusos invaden Prusia Oriental, pero los ejércitos alemanes logran derrotarlos en las batallas de
Tannemberg y de los Lagos Masurianos
- Guerra de Trincheras: Los franceses desarrollan una guerra de desgaste frente a Alemania mediante las trincheras que
se extendieron desde el frente occidental, con líneas paralelas, desde Suiza hasta el Mar del Norte.
- Guerra Submarina. Frente a las medidas de los aliados, Alemania declaro zona de guerra, a los mares que rodeaban las
islas británicas, con el fin de garantizar el aprovisionamiento de materias primas a su industria. Se produjo entonces el
hundimiento de la embarcación norteamericana Lusitana que determino el ingreso de los Estados Unidos en la Guerra.
EE.UU intervino para proteger el comercio internacional y sus privilegios e inversiones en el extranjero.
- Derrota rusa en el Frente Oriental. Rusia se retira de la guerra, por las derrotas frente a los alemanes y el triunfo de la
Revolución Rusa (revolución bolchevique), se vieron en la obligación de firmar el tratado de Brest-Litovsk. Alemania
inicia una contraofensiva terrestre. Se produce el asedio a Francia, pero los alemanes son vencidos en la Segunda Batalla
de Marne.
- Revolución Socialista de Noviembre en Alemania que forzaría la Abdicación del Káiser Guillermo II (fin de la monarquía
alemana). El gobierno provisional planteo el armisticio, firmado en el bosque de Compiegne que pondría Fin a la guerra.
El Tratado de Versalles puso fin a la guerra entre los aliados y Alemania. Alemania perdió parte de su territorio, pues
tuvo que devolver Alsacia y Lorena a Francia, Schelwig a Dinamarca, parte de Silesia a Polonia así como la Posnania y la
Prusia Oriental. Además, se le impuso a Alemania el pago de una indemnización por los daños causados a las potencias
vencedoras, también se obligó a reducir su ejército y a desmilitarizar la zona del Rhin, zona que los aliados ocuparon
como garantía del cumplimiento del tratado. Alemania, además, perdió también todos sus territorios coloniales.
- Durante la primera Guerra Mundial murieron, aproximadamente, 9 millones de personas (entre civiles y militares). El
número de heridos, entre civiles y militares ascendió a cerca de 30 millones.
- Fortalecimiento de los Estados Unidos de América en el escenario político, militar y económico mundial.
- Creación de la Liga de Naciones (llamada también Sociedad de Naciones) con el objetivo de garantizar la paz mundial.
- Firma del Tratado de Versalles que impuso una serie de penalidades a la derrotada Alemania, que sería el origen del
revanchismo alemán , que provocaría el estallido de la Segunda Guerra Mundial.
- Crisis económica en Europa, a causa de la devastación causada por la “Gran Guerra” y también por los elevados gastos
militares de las naciones beligerantes
- Desarrollo de varios armamentos de guerra como, por ejemplo, tanques de guerra y aviones.
Antecedentes
La primera consecuencia de los tratados de paz fue la desaparición de los cuatro grandes imperios existentes antes de la
guerra (Alemania, Rusia, Austro-Hungría y Turquía). En su lugar surgieron otras entidades tras su desmembramiento.
Alemania perdió amplias áreas, el 15,5 % del total de su territorio y el 10% de su población: Alsacia y Lorena volvieron a
manos de los franceses; la zona del Sarre quedó bajo administración de la Sociedad de Naciones y sus recursos mineros
serían explotados por Francia durante 15 años; la zona de Eupen-Malmedy se entregó a Bélgica.
Prusia Oriental, Posen y el corredor de Dantzing pasaron a Polonia. Dantzing quedó bajo administración de la Sociedad
de Naciones. Memel se asignó a Lituania. Parte de Schleswing (Alta Silesia) pasó a Dinamarca.
Las colonias alemanas se repartieron entre diversas potencias: África Oriental y del Suroeste, así como parte de Togo y
Camerún, se transfirieron al Reino Unido, en tanto que la otra parte pasó a Francia. Los archipiélagos del Pacífico
(Marshall, Carolinas y Marianas) se asignaron a Japón.
En el este de Europa se consolidaron las fronteras que Alemania había impuesto a Rusia en el Tratado de Brest-Litowsk.
Se pretendió con ello establecer una especie de cordón sanitario de estados anticomunistas (Finlandia, Estonia, Letonia,
Lituania) que impidiera la propagación del bolchevismo ruso. Con ello los rusos perdieron casi toda la costa del Báltico.
Polonia se restableció como estado a costa de los territorios desgajados de Rusia, Alemania y Austria-Hungría.
El Imperio Austro-Húngaro quedó desmembrado en el Tratado de Saint-Germain y perdió todos sus territorios eslavos,
de tal manera que el pequeño país resultante solicitó su unión con Alemania, siéndole denegada la petición.
Posteriormente, en 1938, Hitler la consumaría (Anschluss).
Tratado de Saint-Germain
A su costa se formaron los estados independientes de Austria, Yugoslavia, Polonia y Checoslovaquia. A Italia hubo de
cederle parte del Tirol, Istría y Trieste, así como parte de Dalmacia (en la actual Croacia). A Yugoslavia, surgida como
nuevo estado de la antigua Serbia, hubo de entregarle Bosnia-Herzegovina.
Hungría, la otra parte de la monarquía dual del Imperio Austríaco, se constituyó como estado independiente de Austria y
hubo de entregar a Serbia Croacia y Eslovenia, piezas importantes del nuevo estado yugoslavo. A Checoslovaquia, nuevo
país, hubo de rendirle Eslovaquia y a Rumanía Transilvania.
Tratado de Sèvres. Agosto de 1919. El representante turco en el momento de la firma. Ampliar imagen
Tratado de Sèvres
El Imperio Turco, por el Tratado de Sèvres quedó reducido territorialmente a la península de Anatolia (Asia Menor) y
solo conservó en Europa la ciudad de Estambul. Perdió la zona de Irak, Palestina, Líbano y Siria que fueron convertidos
en protectorados bajo la administración del Reino Unido o Francia. Perdió asimismo parte de Tracia y las islas del Egeo
que se transfirieron a Grecia; El Dodecaneso (hoy griego) pasó a Italia; Armenia, que se convirtió en Estado.
La imposición de estas duras condiciones desencadenó una revolución, que protagonizada por Mustafá Kemal, depuso al
sultán y resolvió continuar la guerra con Grecia, a la que venció. Por el Tratado de Lausana (1923) Turquía recuperaba
algunos territorios perdidos en el Tratado de Sèvres.
La zona de Oriente Próximo que hasta entonces había pertenecido al Imperio Turco jugaría un papel relevante en la
historia del siglo XX. Los árabes, que bajo dominio turco apoyaron a los aliados, habían recibido de Gran Bretaña
garantías de que una vez finalizado el conflicto formarían un estado unido. El fin de la guerra frustró tal anhelo, pues
esas zonas fueron repartidas en diversos departamentos bajo influencia británica y francesa. Por otra parte, el
movimiento sionista (nacionalismo judío) inició su movilización para crear un Estado judío en Palestina. Texto. Sionismo.
Declaración de Balfour.
Rumanía, que ya existía como estado, fue robustecida territorialmente con el propósito de aislar a la Rusia soviética.
Serbia incrementó su territorio mediante la creación de un nuevo estado: Yugoslavia. Sin embargo, la nueva entidad
carecía de unidad cultural, lingüística y religiosa, lo que en adelante le acarrearía serios problemas políticos y étnicos,
hasta que desapareció en los años 90 del siglo XX, no sin antes sufrir una cruenta guerra. Bulgaria, por el Tratado de
Neuilly, hubo de ceder parte de Tracia a Grecia y perdió el acceso al mar Egeo.
3. La guerra fría
Al final Europa fue dividida entre este y oeste conformándose el bloque comunista compuesto por dictaduras en Europa
oriental bajo el liderazgo de la URSS que luego se extendió por gran parte de Asia, también se conformó el bloque
capitalista formado por américa en general al mando de EEUU, Europa occidental algunas zonas de Asia y Oceanía.
ANTAGONISMO HEGEMONICO
Pendiente
4. el nuevo orden internacional
El nuevo orden
El mundo está sufriendo cambios a pasos agigantados. Los países se agrupan por bloques… todos buscan
protegerse de las embestidas económicas y financieras… que en muchos de los casos son propiciadas por ellos
mismos, los más poderosos… priva la ley del más fuerte…
Algunos de estos bloques se pueden identificar como “grupos”. Entre ellos podemos encontrar el grupo de los
7, el grupo de los 12, el grupo de los 14, el grupo de los 5…. Ahora que el Grupo que está prevaleciendo es el
llamado Grupo de los 20, al cual pertenece México, catalogado éste como de los países emergentes, es
decir, en vías de desarrollo. En otras palabras, su presencia es meramente simbólica… si porque los que
verdaderamente deciden los rumbos del mundo son los llamados países ricos.
Alemania reivindicó la retirada de las tropas de la OTAN de su territorio, ya que no existe amenaza justificada.
Ambos, Japón y Alemania, desean tomar asiento como miembros permanentes del Consejo de Seguridad de la
ONU. No se justifica tomar parte del "Grupo de los Siete" (líderes de las naciones más industrializadas) si no se
tiene la contrapartida del poder político, a través del poder del veto, en el órgano de mayor representación
política en el planeta.
Formación de mega-bloques económicos y políticos. La formación del NAFTA, conformado por los Estados
Unidos, Canadá y México, sorprendió a los países de América del Sur pues se constituía otro mega-bloque
económico en el eje Norte-Norte. Por ello se concibió la creación del MERCOSUR, del cual formaban parte
inicialmente Brasil, Argentina, Uruguay, Paraguay y Chile. Interferencia cada vez mayor de la O.N.U., a través
del Consejo de Seguridad, en las querellas regionales con el consecuente aumento del número de tropas y el
número de "Peace Keeping Forces" (Fuerzas de Mantenimiento de la Paz). (Maestri, 2001)
El alfabeto griego
Mientras una vocal es un sonido producido por la expulsión del aire con vibración laríngea y sin oclusión que
impida su paso, una consonante es por su parte un sonido originado por un cierre de los órganos articulatorios
y su posterior apertura.
La abertura (es decir, la posición más o menos próxima de la lengua respecto al paladar):
Abertura máxima: α
Abertura media: ε, η, ο, ω
Posición anterior: ε, η, ι
Posición central: α
Siempre largas: ε, ο
Siempre breves:η, ω
Largas o breves (no hay dos grafemas que distinga larga de breve): α, ι,υ
En ático hay pues doce vocales, cinco breves y siete largas, clasificadas de la siguiente forma:
Vocales breves
Vocales largas
El grafema υ suena /ü/. Se pronuncia como una /i/ pero con los labios redondeados. En latín no existía y por
este motivo los romanos lo utilizaron como la famosa y griega que pervive en nuestro alfabeto.
Por último, recuérdese que ου se pronuncia /u/, y que ει debería pronunciarse como una /e:/ (larga y
cerrada), aunque la pronunciación escolar sea /ei/ .
consonantes
Además conviene observar que hay signos especiales para algunos grupos consonánticos o consonantes
dobles.
grupos:
Labiales: p, b, f.
Dentales: t, d, q.
Guturales: k, g, c.
Cada uno de estos grupos incluyen una sorda, una sonora y una aspirada, por lo que
Sordas: p, t, k.
Sonoras: b, d, g.
Aspiradas: f, q, c.
• Las líquidas (sonoras) son l, r, m, n, como acabamos de decir más arriba. El griego,
pues, tenía dos (o tres) líquidas: una lateral l, una vibrante simple y otra múltiple (escrita
la primera r, la segunda r o rr), y dos (no tres) nasales: una labial y otra dental (la única
que aparece en final de palabra, como en español); la nasal gutural (ejgkwvmion, a[ggelo",
a[gci) no es propiamente un fonema, pues, al igual que ocurre en español, no existe posibilidad
de cambiarla por una n o una m y obtener una palabra distinta: se trata tan sólo de una
• La silbante sorda (la diferencia entre s y " es sólo gráfica: " se escribe sólo en final
de palabra) se perdió, por lo común, en inicial de palabra y entre vocales (aunque se crearon
otras por diversos procesos fonéticos), dando lugar a la aspiración que en inicial de palabra
k, g, c + s > x
p, b, f + s > y
sd o ds > z
Diptongos
Un diptongo es el conjunto de dos fonemas vocálicos que se pronuncian en una sola sílaba. Los diptongos más
frecuentes son:
Diptongo αι οι αυ ευ υι
Pronunciación ai oi au eu üi
A estos diptongos se les llaman breves (o "propios") porque la primera vocal es breve. Recuérdese que ει, ου
se pronunciaban monoptongados: /e:/, /o:/
Por otro lado tenemos los diptongos largos (o "impropios"), con la primera vocal larga. en minúscula se
escriben con iota suscrita: ᾳ, ῃ, ῳ,y en mayúscula con la iota addscrita: ΑΙ, ΗΙ, ΩΙ. Tanto en un caso como en
otro la iota no se pronuncia:
Diptongo ᾳ ῃ ῳ
Pronunciación a e o
Si dos vocales no formaban un diptongo, se pone una diéresis sobre la segunda: πρωΐ= /pro-i/
sustantivos y adjetivos
Sustantivos[editar]
Primera declinación[editar]
Caso fem. I tipo fem. II tipo fem. III tipo masc. IV tipo masc. V tipo
El I tipo comprende aquellos sustantivos femeninos a cuya -α precede ρ, ι o ε (ej. λύρα). Estos se denominan "alfa pura"
porque se mantiene en toda la declinación.
El II tipo comprende todos aquellos sustantivos femeninos precedidos de σ, σσ, ττ, λλ, ξ, ψ, αιν, ειν, οιν (ej. γλῶσσα).
Estos se denominan "alfa impura", porque cambian su α por η en genitivo y dativo (ambos singulares).
El IV tipo comprende los sustantivos masculinos cuyo tema acaba como el I tipo (ej. νεανίας).
El V tipo comprende el resto de sustantivos masculinos (ej. πολίτης) y, como el IV tipo, tiene -ς en el nominativo y forma
el genitivo en -ου.
Todos los casos llevan el acento en la misma sílaba que el nominativo, excepto el genitivo plural, que tiene circunflejo en
la última. En este se diferencia este caso del genitivo plural de muchos sustantivos de la segunda declinación (como
λόγος, gen. pl. λόγων).
El acento circunflejo de la penúltima sílaba se convierte en agudo en los casos en que la última vocal es larga. Del mismo
modo, el agudo de la última sílaba es larga pasa a ser circunflejo cuando la última vocal es breve.
En Homero y el jónico se encuentra -η en el singular I y IV tipo (σοφίη); en el genitivo plural las desinencias -άων, -έων;
en el dativo plural -ῃσι, -ῃς. En el V tipo, nominativos en -α (ἱππότα); en el IV y V, genitivo singular en -αο, εω, -ω.
Se prestan a confusión el genitivo singular y acusativo plural del I tipo, que se suelen distinguir por el artículo, si aparece;
y el genitivo singular del IV y V, idéntico al de la segunda declinación.
Algunos sustantivos conservan -α- en toda la flexión (ej. μνᾶ -ᾶς, χρόα -ας); otros conservan la -η- en todo el singular (ej.
χόρη -ης, δέρη -ης, ἔρση -ης).
LOS ADJETIVOS
Los adjetivos son palabras variable que expresan cualidades de los sustantivos a los que acompañan y con los que
concuerdan en caso, género y número. Por tanto son palabras que siguen las declinaciones generales. Por tanto es una
clase de palabras que tiene variación genérica. Es decir, un adjetivo puede aparecer en más de un género, cosa que es
imposible en un sustantivo. Por eso los adjetivos se enuncian (generalmente) con todas las formas posibles en
nominativo singular, mientras que los sustantivos se enuncian con su única forma de nominativo singular y con la del
genitivo singular.
Los adjetivos de la primera clase se declinan en el masculino y neutro por la segunda declinación y en el femenino por la
primera o segunda. Ofrecen los siguientes tipos:
Los adjetivos de la segunda clase declinan sus tres géneros por la tercera declinación, No presentan distinción entre el
masculino y el femenino. Ofrecen los siguientes tipos:
ADJETIVOS DE LA TERCERA CLASE
Los adjetivos de la tercera clase declinan el masculino y neutro por la tercera declinación y el femenino por la primera.
Ofrecen los siguientes modelos:
Todos los participios activos y el participio aoristo pasivo pertenecen a esta clase; excepto el participio perfecto activo
λελυκώς, cuyo tema es en -οτ, todos los demás siguen la flexión de los temas en ·ντ
Elementos griegos
Pendiente
Vocabulario científico y tecnológico
El vocabulario científico en nuestra lengua procede en su gran mayoría del griego y del latín. Es un
vocabulario específico de una ciencia o disciplina y, por lo tanto, no lo usamos con mucha frecuencia. Para
entender el significado de estos términos nos será de gran utilidad el conocimiento de algunas raíces
grecolatinas y de algunas reglas de formación de palabras, expuesto en el tema anterior.
El origen griego
La procedencia griega de la mayoría de los términos científicospuede testimoniarse con el simple repaso
de los nombres de las diferentes disciplinas científicas. Según el término griego utilizado, tenemos:
1. Del griego λόγος: palabras que usan el compuesto -logía para designar alguna ciencia o estudio.
2. Del griego γράφω: palabras que usan el compuesto -grafíapara designar alguna técnica o arte.
Matemáticas
Las matemáticas, tal como las conocemos, tuvieron su origen en Grecia. Durante siglos los matemáticos y
los científicos siguieron utilizando el mismo vocabulario. Habituarse a algunos términos de mucho uso,
puede evitarnos, por tanto, el tener que aprender muchas palabras de memoria.
Medicina
Los primeros que desarrollaron una medicina racional intentando dar una explicación lógica a los hechos
fueron los griegos. Hipócrates, Galeno estarán siempre unidos a los inicios de la medicina. A menudo sus
explicaciones no fueron acertadas pero su vocabulario, sus clasificaciones, su anatomía pasaron siglo tras
siglo hasta nuestros días en el vehículo de su lengua.
Ciencias de la Naturaleza
Las ciencias de la naturaleza nos exigen conocer multitud de términos para poder
clasificar y catalogar las miles de especies existentes en nuestro planeta. La mayor parte de estos nombres
no son arbitrarios. Conocer algunas raíces griegas puede hacernos más fácil recordarlos e, incluso,
establecer relaciones entre ellos.
La zoología ( de ζῶον "ser vivo") y la botánica (de βοτάνη "planta") utilizan muchas raíces griegas para
denominar especies, géneros, clases, etc. de animales y plantas. Así, la palabra ‘paquidermo’ es un
compuesto formado de los términos griegos παχύς ("grueso") y δέρμα ("piel"). El término ‘perisodáctilo’,
por su parte, procede del gr. περισσός ("impar") y δάκτυλος ("dedo"). Hallarás otros ejemplos en el
cuadro siguiente.
Metodología de la investigación
Construcción del conocimiento
El conocimiento es la información aprendida que permite al sujeto cumplir con la función básica de los
organismos: adaptarse al medio.
jean Piaget, como resultado de sus primeras investigaciones sobre biología, “considera que todas la especies heredan
dos tendencias es hacia la organización: Combinar, ordenar, volver a combinar y volver a ordenar conductas y
pensamiento en sistemas coherentes. La segunda tendencia es la adaptación, o el ajuste al entorno.(asimilación,
acomodación, eliminado lo que no sirve).
Entonces el desarrollo de la inteligencia se compone de dos partes básicas: La adaptación y la organización. Hay dos
formas diferntes de actividad mental: una el proceso de entrada de la información (adaptación); otra el proceso de
estructuración (organización).
De estos tres componentes la estructura es la más importante. Las estructuras son operaciones interiorizadas en la
mente, a su vez reversibles, que tienen, de acuerdo con Jean Piaget, una naturaleza lógica y matemática.
De acuerdo con Piaget, incorporamos conocimientos a través de lo que hacemos sobre los objetos que nos estimulan y
del razonamiento. El conocimiento puede ser físico, social y lógico matemático.
a) El conocimiento Físicos.- Es fruto de nuestra acción sobre los objetos que nos estimulan.
b) El conocimiento Social.- está constituido por la información que proviene del medio social (libros, radio, tv, padres,
amigos, escuela, etc.), y que internalizamos para delinear nuestras pautas de comportamiento.
c) El conocimiento lógico-matemático.- es una construcción mental de relaciones, clasificaciones, medidas que armamos
progresivamente, y que le dan a sentido a nuestras experiencias, vale decir nos sirven para asimilar cada fenómeno de
la realidad física o mental.
Esta información la recibimos en forma constante, pudiendo seleccionar el Foco de Atención hacia la misma, pero
siempre captando distintos Datos Sensoriales que son posteriormente ordenados y transformados en una Información,
que puede o no ser utilizada por el individuo de acuerdo al grado de importancia que posea.
Dado que recordamos las cosas que nos suceden gracias a nuestra Memoria, esta información puede ser
posteriormente Adquirida o Aprehendida y pasa a formar parte de lo que es nuestro Conocimiento, siendo considerado
éste como todo conjunto de datos (es decir, información) que hemos "almacenado" en nuestra memoria para su
posterior utilización o aprovechamiento.
Un caso muy práctico y fácil de entender acerca del conocimiento es nuestra Formación Educativa, teniendo distintas
etapas de desarrollo que son coincidentes al Desarrollo Biológico y que son distribuidos por las distintas Edades
Escolares para poder obtener el mayor potencial posible, nutriéndonos de información valiosa para nuestra vida
cotidiana, comunicaciones, formación profesional y cultural, entre otros factores.
No toda información que es memorizada es un Conocimiento, ya que para ser considerado como tal, debemos hacer
uso constante o específico del mismo en distintas situaciones, siendo estos factores influenciados además por las
Experiencias Personales que tengamos al respecto, y teniendo una funcionalidad que le daremos para poder entender
tanto al medio como a otros individuos y relacionarnos con los mismos.
El conjunto de Conocimientos, Usos y Costumbres de un grupo social determinado, que se mantienen en común y que
se utilizan, representan y manifiestan en forma general, es relativo a un Conocimiento Cultural, alejándose del
anteriormente mencionado, que es meramente personal y subjetivo.
La consideración central en una perspectiva diacrónica es que toda investigación va más allá de los límites de un
individuo investigador para ubicarse en redes de problemas, temas e intereses que muchas veces abarcan largos
períodos históricos y varias generaciones de estudiosos. Esto constituye una visión transindividual de los procesos de
investigación. Cuando un investigador cualquiera elige un tema de estudio y se formula una pregunta y unos objetivos
de trabajo, en realidad lo que hace es inscribirse dentro de una red temática y problemática en la que también trabajan
y han estado trabajando otros investigadores, red que suele tener en el tiempo toda una trayectoria de desarrollo y que,
a su vez, mantiene sucesivas y complejas conexiones con otras redes. Este complejo temático y problemático en que se
inscribe un investigador es lo que, dentro del Modelo VIE, se concibe como un Programa de Investigación. Galileo y
Einstein ilustraron perfectamente bien este concepto cuando declararon que el éxito de sus trabajos personales se
debía al hecho de haber caminado "sobre hombros de gigantes", refiriéndose precisamente a que retomaron
planteamientos previamente formulados y se basaron en intentos y soluciones anteriores a ellos, sin tener que
comenzar desde cero.
La noción de Programas de Investigación, que es general y abstracta, se concreta en la idea más operativa de Líneas de
trabajo, que remite a secuencias de desarrollo en torno a un problema global y que aglutina a Grupos Académicos cuyos
integrantes mantienen entre sí contactos virtuales o materiales. Unas veces se trata de contactos por lecturas de los
trabajos producidos dentro del grupo, aun sin conocerse personalmente y hasta sin pertenecer a una misma época o
lugar, y otras veces se trata de efectivos encuentros e intercambios en tiempo y espacio reales.
Una secuencia de desarrollo investigativo en torno a un problema global puede representarse en cuatro fases o
instancias sucesivas: se comienza elaborando descripciones observacionales (o registros) de la realidad que se considera
digna de ser estudiada. Una vez que existen suficientes descripciones o registros, se pasa a la construcción de
explicaciones o modelos teóricos que establezcan relaciones de interdependencia entre las distintas clases de hechos
adscritos a esa realidad bajo estudio o que indiquen por qué esos hechos ocurren del modo en que ocurren. En una
tercera fase, se pasa a las contrastaciones, es decir, a las tareas de evaluar o validar las explicaciones o modelos teóricos
construidos en la fase anterior, con el objeto de establecer respaldos de confiabilidad para los productos elaborados
dentro de la secuencia. Y, finalmente, una vez que las teorías o explicaciones han adquirido cierta verosimilitud y
plausibilidad, se pasa a la instancia de las aplicaciones, donde los conocimientos teóricos se convierten en tecnologías
de intervención sobre el medio o de transformación del mismo. Luego, la culminación de esa secuencia vuelve a generar
nuevos problemas y nuevas secuencias, en términos de iteración y recursividad. Dentro del Modelo VIE, estas cuatro
fases se denominan, respectivamente: descriptiva, explicativa, contrastiva y aplicativa.
Estas cuatro instancias determinan variaciones típicas de los procesos de investigación, las más importantes de las
cuales son las siguientes:
- Investigaciones descriptivas (correspondientes a la primera fase): parten del hecho de que hay una cierta realidad (o
sector del mundo) que resulta insuficientemente conocida y, al mismo tiempo, relevante e interesante para ciertos
desarrollos. El objetivo central de estas investigaciones está en proveer un buen registro de los tipos de hechos que
tienen lugar dentro de esa realidad y que la definen o caracterizan sistemáticamente. Se estructuran sobre la base de
preguntas cuya forma lógica se orienta a describir: ¿Cómo es x? ¿Qué es x? ¿Qué ocurre en calidad de x o bajo la forma
x? Sus operaciones típicas o formas de trabajo estandarizadas son las observaciones (recolecciones de datos), las
clasificaciones (formulación de sistemas de criterios que permitan agrupar los datos o unificar las diferencias singulares),
las definiciones (identificación de elementos por referencia a un criterio de clase), las comparaciones (determinación de
semejanzas y diferencias o del grado de acercamiento a unos estándares), etc. Sus técnicas típicas de trabajo varían
según el enfoque epistemológico adoptado dentro del Programa de Investigación o dentro de la Línea: mediciones por
cuantificación aritmética o estadística (enfoque empirista-inductivo), registros de base cualitativa (enfoque
introspectivo-vivencial) o construcción de estructuras empíricas mediante sistemas lógico-formales (enfoque
racionalista-deductivo).
- Investigaciones Explicativas (segunda fase dentro de la secuencia diacrónica): parten de descripciones suficientemente
exhaustivas de una cierta realidad bajo estudio y de la necesidad de conocer por qué ciertos hechos de esa realidad
ocurren del modo descrito, es decir, de la necesidad de encontrar ciertas relaciones de dependencia entre las clases de
hechos que fueron formuladas en la fase anterior de la secuencia. El objetivo central de estas investigaciones consiste
en proveer modelos teóricos (explicativos, abstractos, universales, generales) que nos permitan elaborar predicciones y
retrodicciones dentro del área fáctica a la cual se refiere el modelo. Se estructuran sobre la base de preguntas cuya
forma lógica se orienta a interpretar la ocurrencia de una cierta clase de eventos (consecuentes) por mediación de otra
clase de eventos (antecedentes): ¿Por qué ocurre p? ¿De qué depende p? ¿Qué clase de hechos condiciona la
ocurrencia de p?. Sus operaciones estandarizadas son las formulaciones de sistemas de hipótesis, los desarrollos de
hipótesis (por comprobación o por derivación), las construcciones de sistemas interpretativos, etc. Sus técnicas típicas
de trabajo varían según el enfoque epistemológico adoptado dentro del Programa de Investigación o dentro de la Línea:
inducción y construcciones probabilísticas (enfoque empirista-inductivo), introspección y elaboraciones simbólico-
culturales (enfoque introspectivo-vivencial), deducción y construcción de sistemas de razonamiento (enfoque
racionalista-deductivo).
- Investigaciones Constrastivas: parten del hecho de que, dentro de la Línea de trabajo, se han elaborado diversas
construcciones teóricas cuya confiabilidad requiere ser puesta a prueba y criticada. Se parte de la necesidad de buscar
los errores de las teorías, con el objeto de desecharlas, reajustarlas o incrementar su verosimilitud. Su objetivo central
está en proveer contra-pruebas a una teoría previamente construida o, en su defecto, en proveer argumentos a su
favor. Se estructuran sobre la base de preguntas cuya forma lógica se orienta a negar o a aceptar provisionalmente una
hipótesis teórica: ¿Es cierto que p? ¿Se da p cada vez que ocurre q? ¿Es verdadero el antecedente r y es falso el
consecuente s? Sus operaciones típicas son las derivaciones de proposiciones particulares a partir de hipótesis globales,
la búsqueda de inconsistencias e incompletitudes, el hallazgo de casos que contradicen o escapan al modelo teórico,
etc. Las técnicas varían, igual que en las fases anteriores, de acuerdo al enfoque epistemológico adoptado:
experimentaciones o cuasiexperimentaciones (enfoque empirista-inductivo), consenso y opinión de personas
involucradas (enfoque introspectivo-vivencial) y pruebas lógico-formales (enfoque racionalista-deductivo).
- Investigaciones Aplicativas: parten del hecho de que, dentro de la secuencia de trabajo de la Línea, existen teorías cuya
verosimilitud ha aumentado gracias a un cierto número de contrastaciones y, además, del hecho de que en el mundo de
las necesidades de desarrollo existen requerimientos que pueden ser satisfechos aprovechando esas teorías. Su objetivo
central está en proveer tecnologías o esquemas de acción derivados de los conocimientos teóricos construidos dentro
de la secuencia de la Línea. Estas investigaciones carecen, propiamente hablando, de preguntas. Más bien tienden a
establecer una relación productiva, ingeniosa y creativa, entre las posibilidades de un modelo teórico, por un lado, y las
dificultades o necesidades que se confrontan en el terreno de la práctica, por otro lado. Mientras en los tres tipos
anteriores de investigación el "Problema" es una pregunta formulada desde una actitud de ignorancia, en las
investigaciones aplicativas el "Problema" es una cierta situación práctica formulada desde una actitud de expectativas
de cambio, situación que resulta deficitaria, inconveniente o mejorable y que puede ser transformada o manejada
mediante un cierto prototipo de control situacional. Las operaciones estandarizadas de las investigaciones aplicativas
son las siguientes: descripción de la situación deficitaria, exposición del modelo teórico que resulta aplicable a esa
situación, construcción del prototipo de control situacional (definición de la propuesta de solución) mediante derivación
del modelo teórico, prueba del prototipo, determinación de las opciones de producción e implementación del
prototipo. La relación fundamental que estas investigaciones mantienen con los enfoques epistemológicos está en que
cada investigador aplicativo elige aquellas teorías que fueron construidas dentro de su propio enfoque: así, por ejemplo,
las aplicaciones empiristas-inductivas derivarán soluciones a partir de teorías empiristas-indutivas, y así sucesivamente.
Hay varias conclusiones que pueden derivarse de lo dicho hasta aquí. Una de ellas es que los Programas de Investigación
suelen ser anteriores a cualquier investigador y mucho más abarcantes que sus propios esfuerzos individuales. Es decir,
cuando un individuo se convierte en investigador y cuando decide resolver una incógnita científica, su primera decisión
consiste en ubicarse dentro de un Programa de Investigación y, más concretamente, dentro de una Línea de trabajo. Por
lo general es alguien que viene formándose dentro de una cierta especialidad y que ya tiene cierto dominio de los
temas, intereses y trabajos que han venido produciéndose dentro la misma. Es allí, entonces, donde suele obtener sus
datos de partida y donde detecta un problema y unos objetivos de trabajo en total continuidad con la trayectoria
diacrónica del Programa. Por tanto, elegir un tópico de investigación es casi exactamente lo mismo que elegir una Línea
de trabajo y, en consecuencia, adscribirse a una especie de familia de investigadores.
Pero, como segunda conclusión, lo anterior implica no sólo la selección de un tema y una red problemática sino,
además, la sucesiva decisión acerca de en cuál de las fases o instancias de trabajo conviene ubicarse, siempre dentro de
la correspondiente secuencia diacrónica. Por ejemplo, puede haber una cierta Línea de trabajo donde ya la fase
descriptiva se halla bastante saturada (tanto en el sentido de cantidad y competitividad de investigadores como en el
sentido de que ya se han producido suficientes trabajos descriptivos) y donde la fase explicativa ha avanzado mucho
(como suele ocurrir actualmente en la mayoría de las ciencias naturales) y entonces suele ser más conveniente ubicarse
en la fase de las necesidades contrastivas (prueba de teorías) o de las necesidades aplicativas (invención de tecnologías
o prototipos de control del medio). Pero puede haber otras Líneas (como suele ser el caso dentro de los Programas de
Investigación en el área Organizacional) donde aun en la fase descriptiva se requieren muchos trabajos y donde la fase
teórica se halla apenas comenzando.
Otra conclusión de interés es que los Grupos Académicos dentro de cada Programa de Investigación suelen privilegiar
no sólo determinados campos observacionales (áreas descriptivas) y determinadas formas teóricas (áreas explicativas)
que funcionan como preferencias o prioridades, sino que además se cohesionan en torno a determinadas convicciones
acerca de lo que conciben como conocimiento científico, como vías de acceso y de producción al mismo, como
mecanismos de validación o crítica, etc. Todas estas preferencias constituyen lo que aquí se ha llamado "Enfoque
Epistemológico" (aproximadamente lo mismo que Kuhn llamó "paradigmas"). Así que una tercera decisión de todo
individuo que se convierte en investigador (y que suele ocurrir automática e implícitamente con respecto a las dos
decisiones anteriores) es la definición del enfoque epistemológico en el que ha de moverse más cómodamente.
Detengámonos brevemente en este criterio de los enfoques epistemológicos, que también funciona como criterio de
diferenciación o variación dentro del Modelo VIE.
Como se ha visto a lo largo de toda la historia de la ciencia, los investigadores desarrollan, comparten y trabajan bajo
una cierta óptica de la realidad, que los conduce a un sistema de creencias arraigadas alrededor de la naturaleza del
conocimiento y de sus formas o canales de generación y legitimazación. Este sistema de creencias lleva incluso a ciertos
patrones de desempeño y a ciertos criterios de realización y logros. Pero las ópticas desde las cuales se ve el mundo, así
como los asociados sistemas de creencias en torno al conocimiento (junto a los patrones de trabajo y a los criterios de
realización y logros) no siempre han sido coincidentes entre las distintas épocas ni entre los distintos Grupos
Académicos. Aparte de las coincidencias internas de grupo y de períodos históricos, estos sistemas de creencias han
sido sumamente divergentes entre unos y otros grupos y entre unas y otras épocas históricas. Tales divergencias son lo
que explica las radicales diferencias entre los patrones investigativos seguidos por los antiguos griegos, por ejemplo, y
los seguidos por los investigadores occidentales del Renacimiento y del siglo XX.
Para dar cuenta de estas diferencias entre enfoques epistemológicos se han propuesto muchas clasificaciones (no todas
ellas, por cierto, respetan las reglas lógicas de la clasificación). En el Modelo VIE se recurre a dos criterios básicos de
definición de clases de enfoques, para obtener tres clases básicas. Un primer criterio es lo que se concibe como
producto del conocimiento científico y un segundo criterio es lo que se concibe como vía de acceso y de producción del
mismo. De acuerdo a estos dos criterios tenemos tres clases de enfoques epistemológicos:
- El enfoque Empirista-inductivo (por asociación, también llamado probabilista, positivista, neopositivista, atomista
lógico, etc.): de acuerdo al primer criterio, en este enfoque se concibe como producto del conocimiento científico los
patrones de regularidad a partir de los cuales se explican las interdependencias entre clases distintas de eventos
fácticos. En tal sentido, la compleja diversidad o multiplicidad de fenómenos del mundo puede ser reducida a patrones
de regularidad basados en frecuencia de ocurrencia. El supuesto básico aquí es que los sucesos del mundo (tanto
materiales como humanos), por más disímiles e inconexos que parezcan, obedecen a ciertos patrones cuya regularidad
puede ser establecida gracias a la observación de sus repeticiones, lo cual a su vez permitirá inferencias probabilísticas
de sus comportamientos futuros. En ese sentido, conocer algo científicamente equivale a conocer tales patrones de
regularidad.
Como consecuencia -y pasamos ahora al segundo criterio- tanto las vías de acceso al conocimiento como los
mecanismos para su producción y validación no pueden ser otros que los sentidos y sus prolongaciones (instrumentos
de observación y medición), ya que los patrones de regularidad se captan a través del registro de repeticiones de
eventos. Por tanto, es el método Inductivo, sustentado en el poder de los instrumentos sensoriales y en el valor de los
datos de la experiencia (de allí el término empirista), el sistema de operaciones privilegiado dentro de este enfoque. El
conocimiento, entonces, es un acto de descubrimiento (descubrimiento de patrones de comportamiento de la realidad).
Cosas como la medición, la experimentación, los tratamientos estadísticos, la instrumentación refinada, etc., son
mecanismos altamente preferidos.
- El Enfoque Racionalista-Deductivo (por asociación, también llamado deductivista, teórico o teoricista, racionalista
crítico, etc.): de acuerdo al primer criterio, en este enfoque se concibe como producto del conocimiento científico el
diseño de sistemas abstractos dotados de alto grado de universalidad que imiten los procesos de generación y de
comportamiento de una cierta realidad. Según esto, el conocimiento es más un acto de invención que de
descubrimiento. Los sistemas teóricos son el producto por excelencia del conocimiento científico y ellos se inventan o se
diseñan, no se descubren. A su vez, los sistemas teóricos se basan en grandes conjeturas o suposiciones arriesgadas
acerca del modo en que una cierta realidad se genera y se comporta. No es tan importante que un diseño teórico sea el
fiel reflejo de un sector del mundo. Más importante es que imite esquemática y abstractamente el sistema de hechos
reales que pretende explicar, pero tampoco bajo la referencia de cómo son las cosas objetivamene sino bajo la
referencia de cómo una sociedad en un cierto momento histórico es capaz de correlacionar intersubjetivamente esa
realidad con ese diseño teórico.
En el segundo criterio de clasificación, lo que obtenemos es una consecuencia de lo anterior: tanto las vías de acceso al
conocimiento como los mecanismos para su producción y validación están dados por la razón (de ahí el calificativo
racionalista), la cual viene a ser el recurso menos inseguro para diseñar esquemas abstractos que nos revelen el
surgimiento y el comportamiento de los hechos materiales y humanos, gracias al poder que tiene la razón para asociar
los conocimientos previamente diseñados con cada nueva incógnita, pregunta o problema que nos salga al paso. Por
tanto, es el método Deductivo, sustentado en el poder de los razonamientos, el sistema de operaciones privilegiado
dentro de este enfoque. Cosas como las modelaciones lógico-formales, las búsquedas a partir de abstracciones
matemáticas, los sistemas de razonamiento en cadena, etc., son mecanismos altamente preferidos.
En cuanto al segundo criterio de clasificación (lo que conciben como vías de acceso, producción y legitimación del
conocimiento), en este enfoque se tiene la convicción de que la vía más apropiada para acceder al conocimiento es una
especie de simbiosis entre el sujeto investigador y su objeto de estudio, una especie de identificación sujeto-objeto, tal
que el objeto pase a ser una experiencia vivida, sentida y compartida por el investigador (de ahí el calificativo de
Vivencial). El conocimiento se produce en la medida en que el investigador sea capaz de "poner entre paréntesis" todos
aquellos factores pre-teóricos e instrumentales que mediaticen la relación sujeto-objeto, de modo que pueda llegar a
una captación de la verdadera esencia del objeto, más allá y por encima de sus apariencias de fenómeno (de ahí el
calificativo de Fenomenológico y la expresión reducción fenomenológica). Cosas como la interpretación hermenéutica,
la convivencia y desarrollo de experiencias socioculturales, los análisis dialécticos, las intervenciones en espacios
vivenciales y en situaciones problemáticas reales, los estudios de casos, etc., son aparatos de trabajo altamente
preferidos dentro de este enfoque.
La consideración elemental dentro de este otro criterio de diferenciación es que todo proceso investigativo es un
sistema de operaciones materiales y lógico-conceptuales desarrollado por uno o más individuos, pero siempre dentro
de un entorno o contexto socio-psicológico y espacio-temporal que funciona como condicionante fundamental de dicho
sistema de operaciones. Es decir, en toda investigación particular se distinguen dos grandes componentes de tipo
sincrónico: uno que se refiere a los procesos operativos internos (de carácter material y lógico-conceptual), en virtud del
cual las investigaciones muestran variaciones de tipo lógico, y otro que se refiere a los factores externos del entorno (de
carácter socio-psicológico y espacio-temporal), en virtud del cual los procesos de investigación muestran variaciones de
tipo socio-contextual que, a su vez, determinan distintas configuraciones en el otro componente.
Llamamos Componente Lógico al que se refiere a las operaciones internas de la investigación y Componente
Contextual al que se refiere a los factores circundantes del entorno. Veamos uno y otro por separado.
Éste representa el conjunto de factores que condiciona todas las posibles variaciones de los procesos de investigación
en sus estructuras lógico-conceptuales y materiales. La noción de Contexto es susceptible de ser analizada en distintos
niveles de cobertura o alcance: en una de las dimensiones más abarcantes, podemos imaginar un contexto muy amplio,
cuyos límites cubren todo la cultura mundial en un gran período histórico (por ejemplo, el mundo actual o el mundo en
la época del Renacimiento, etc.). En una dimensión de esa magnitud es donde esta estructura sincrónica se conecta con
la estructura diacrónica, vista en el apartado anterior. En efecto, dentro de la estructura diacrónica los Programas de
Investigación, en su sentido más global, funcionan como parte importante del Componente Contextual dentro de esta
estructura sincrónica.
El Componente Lógico
Mientras la estructura descrita en 2.1 representa las fuentes de variación ubicadas en dimensiones Contextuales,
asociadas a factores de tipo socio-psicológico, en la estructura que describimos ahora se representan las variaciones que
tienen lugar al interior del propio sistema de operaciones investigativas, en primer lugar por efecto de las condiciones
del Contexto y, en segundo lugar, por efecto de las configuraciones de los mismos subcomponentes internos del sistema
investigativo en sí mismo. Esto quiere decir que, en términos generales, el trabajo de investigación es un resultante de
las condiciones contextuales ya explicadas y que, a su vez, en términos más específicos, es también un resultante de
ciertas acomodaciones o relaciones internas entre sus propios elementos constituyentes. Veamos, entonces, cuáles son
estos subcomponentes del Componente Lógico y algunas de las relaciones que los vinculan.
- El Subcomponente Empírico: en el área de las ciencias fácticas, toda investigación parte siempre de una realidad que se
plantea como objeto de estudio. De hecho, los procesos investigativos son esencialmente una búsqueda de esquemas
que nos ayuden a conocer mejor algún sector de la realidad, con el objeto de poder subsistir ante esa realidad cada vez
más eficientemente, de lograr sobre ella un control cada vez más potente y de obtener cada vez mayores ventajas en
nuestras interacciones con dicha realidad. Así, el ideal de los procesos de investigación consiste en producir las mejores
explicaciones teóricas posibles acerca de algún sector de la realidad (o sea: los más confiables conocimientos posibles),
tales que de ellas puedan derivarse eficientes prototipos de cambio, control, transformación, manejo y
comportamiento, en general.
- El Subcomponente Teórico: toda investigación maneja contenidos teóricos, no observacionales, que se correlacionan
con los contenidos empíricos, observacionales, del subcomponente anterior. En general, y refiriéndonos a los procesos
transindividuales de investigación, este subcomponente teórico constituye el hallazgo final de las operaciones de
búsqueda. En este sentido, las teorías constituyen los productos más valiosos del proceso.
El subcomponente teórico abarca dos tipos de contenido: los contenidos que sirven como insumo a la investigación,
aquéllos de donde parte el trabajo y donde se ubica (conocimientos universales y abstractos de entrada), que a menudo
se catalogan como "marco teórico", y los contenidos que funcionan como elaboración propia o como hallazgo original
del trabajo (cuando se trata de investigaciones explicativas y contrastivas). En el Modelo VIE, el primer tipo de
contenidos es llamado Teorías de Entrada o a -Teorías, mientras que el segundo tipo es llamado Teorías de Salida o v -
Teorías. Esta distinción se basa en el hecho de que ninguna investigación comienza de cero, sino que se vale siempre de
conocimientos previamente elaborados (de Entrada) para producir nuevos conocimientos (de Salida).
- El Subcomponente metodológico: las correlaciones o asociaciones que realiza el investigador desde unos elementos
empíricos hasta unos elementos teóricos se deben a una serie de operaciones materiales y lógico-conceptuales,
típicamente concebidas como Método. El subcomponente metodológico agrupa todas esas operaciones, las cuales
permiten no sólo vincular un modelo explicativo a un determinado sector empírico, sino también organizar y
sistematizar los datos del subcomponente empírico (descripciones, clasificaciones, etc.), por un lado, y los elementos
del subcomponente teórico, por otro (formulación de hipótesis, inferencias, construcción de conceptos, etc.).
Vinculados a este subcomponente metodológico se hallan también las instrumentaciones, las técnicas, los equipos, los
procedmientos, etc.
El subcomponente metodológico puede concebirse en tres instancias: métodos de recolección y organización de datos
(ligados al tratamiento del subcomponente empírico), métodos de construcción teórica y métodos de contrastación o
validación de los hallazgos (ligados al tratamiento del subcomponente teórico). Por ejemplo, la inducción y la deducción
son métodos exclusivos de la instancia de construcción teórica, mientras que las clasificaciones, las agrupaciones de
datos en variables, las mediciones, etc., son métodos de la instancia de recolección de datos (de tratamiento empírico);
por su parte, las experimentaciones, las pruebas lógico-formales y las validaciones por expertos son métodos de
contrastación de hallazgos.
Pendiente
El proceso de aprender, hacer, ser y convivir
APRENDER A CONOCER: Este pilar consiste en que cada uno en aprenda a comprender y a interpretar
el mundo que le rodea, de manera que le permita vivir con dignidad, desarrollar sus capacidades
profesionales y comunicarse con los demás. Por lo que la educación obligatoria debe la formación
inicial debe proporcionar a todos los alumnos los instrumentos, conceptos y modos de referencia
resultantes del progreso científico y de los paradigmas de la época.
APRENDER A HACER: Este pilar consiste en que cada uno aprenda a hacer, y por tanto este saber hacer
está estrechamente vinculado al primer pilar que es aprender a conocer, por lo que van unidos y tiene
el sentido de poner en práctica los conocimientos que se van adquiriendo.
APRENDER A VIVIR JUNTOS: También llamado aprender a vivir con los demás. Este pilar consiste en
que cada uno aprenda a relacionarse con los demás, de manera que evite los conflictos y la violencia, y
los solucione de manera pacífica, fomentando el conocimiento de los demás, de sus culturas, de sus
lenguas, de sus tradiciones, etc. Siendo más tolerantes, inclusivos y por tanto multiculturales e
interculturales, para poder vivir en un entorno pacífico fomentando una educación para la paz y la no-
violencia, respetando las diferencias que es lo que nos enriquece e intentando no fomentar más
desigualdades.
APRENDER A SER: Este pilar consiste en que cada uno se desarrolle en toda su riqueza, su complejidad,
sus expresiones y sus compromisos, siendo ciudadano y productor, inventor de técnicas, durante toda
su vida, para ello se necesita el autoconocimiento, por lo que la educación debe ser ante todo un viaje
interior, cuyas etapas corresponden a las de la maduración constante de la personalidad y del carácter.
Su contacto con la Teoría Crítica le sirvió para ampliar sus intereses intelectuales y adentrarse en dos
corrientes de pensamiento que han marcado su obra: el marxismo y el psicoanálisis.
Dentro de su estudio filosófico criticista, propone un enfoque de la Teoría Crítica del Conocimiento, como una
Teoría Crítica de la Sociedad.
Teoría Critica
Habermas propone un sistema kantiano que analiza las ciencias como acción instrumental por finalidad. asi
pues, la acción instrumental está dada por el entendimiento, mientras la finalidad se constituye en desarrollar
de manera libre los ideales del hombre.
Planteamientos principales
Se ubica en un contexto amplio y relacionado con la reflexión sobre el sentido del hombre en la sociedad y en
una historia determinada
Busca mostrar la posibilidad de una teoría critica del conocimiento que se desarrolla en la perspectiva de la
historia de la especie, conservando como elementos principales la producción material y el autorreflexión.
PLANTEAMIENTOS PRINCIPALES
Uno de los principios de la teoría critica es que se opone a la separación entre sujeto y realidad. Todo
conocimiento depende de malas prácticas de la época y la experiencia.
No existe una teoría pura que pueda sostenerse a lo largo de la historia.
Esta ideología económica fue aplicada a partir de 1980, cuando se empezó a desmantelar el estado
benefactor, dejando sin apoyo estatal incluso a aquellas áreas de bienestar social con la idea de que la ley de
la oferta y la demanda debía de operar libremente.
Una de las razones de este cambio fue que, según los teóricos neoliberales, esto permitiría a todas las
iniciativas particulares que pudieran ayudar al desarrollo de la sociedad, sin que la responsabilidad cayera
solamente en el Estado. Esta política ha sido seriamente cuestionada en los países en vías de desarrollo
porque ha provocado desatención hacia los sectores más desprotegidos, generando pobreza y mucha
desigualdad.
En este sistema solo los más importantes y poderosos son los que mandan y toman decisiones. Desempleo Y
Pobreza En las sociedades en general, el sector secundario que representa la producción industrial es muy
importante, ya que genera el escenario para que se dé la circulación de dinero y mercancías, además de que
es un área primordial para la producción de empleos y prestaciones a los obreros. Sin embargo, en países
poco desarrollados como lo es México y los demás países de América Latina, la industria es un sector menor
que depende de empresas y corporaciones extranjeras que llevan sus establecimientos al exterior, donde
saquen ganancias, entre otras razones, por causa de que los salarios a los obreros son más bajos que en sus
países de origen y las ganancias mayores. El hecho de que haya un débil sector industrial en los países de
América Latina las hace vulnerables no sólo por los salarios, sino porque el empleo que las empresas
extranjeras ofrecen dependería de la voluntad e intereses del exterior.
Ante esta situación no resulta difícil saber cómo la población busca actividades que le permitan sobrevivir a
partir de actividades informales, como el autoempleo o el comercio ambulante. De acuerdo con los censos,
para principios del siglo XXI se identifica una cantidad de desocupados de 34,154,854, de los cuales sólo el
1.25% están sin ninguna ocupación, esto muestra el gran desplazamiento hacia actividades informales e
incluso ilegales. Desempleo: Pobreza: Hay que tratar de entender lo que es la pobreza. Desde el punto de vista
socioeconómico, se dice que entra en la categoría de pobre aquél que no logra satisfacer las necesidades
básicas de alimentación, vivienda, vestido y salud.
Una de las críticas que se hace al neoliberalismo es que cada vez es más difícil que la gente acceda a los
beneficios que supuestamente esta estrategia trae consigo. Una población que no puede tener los beneficios
económicos necesarios para cubrir sus necesidades, no puede tener una vida digna. Bastará hacer un
recorrido por cualquier comunidad rural mexicana para observar la gran pobreza en la que está sumergido
nuestro país.
Ética y valores1
La eticidad: característica esencial del ser humano
El ser humano, a diferencia de los animales, posee una doble naturaleza: es un ser biológico y un ser
espiritual. Pues si bien el hombre es una especie dentro de la escala zoológica que se rige por impulsos e
instintos, su capacidad intelectual y espiritual le permite suprimir sus instintos y mejorar para poder edificar
un mundo mejor. La historia de la cultura no es otra cosa que lo que el hombre ha venido haciendo para
realizar su propia esencia, para perfeccionar el mundo a través de su capacidad intelectual. Mientras que el
animal se rige por sus instintos, el hombre puede ser dueño de sí mismo, es capaz de modificar el mundo
circundante y modelar libremente su vida, porque el hombre tiene un ser íntimo y propio, que es consciente
de sí mismo, que produce y genera ideas, y que es capaz de adoptar una conducta ante la vida, además de
que a través del libre albedrío puede reprimir sus impulsos e instintos y superarlos y dirigirlos para desarrollar
actividades intelectuales y espirituales.
Los valores son fruto de la evolución del espíritu e intelecto del hombre: a través del tiempo han permitido
que el ser humano desarrolle sus potencialidades para “ser” y no simplemente existir, diferenciándose así de
los demás animales, por tanto, eticidad es una característica esencial del ser humano.
“La actividad humana más importante es la actividad ética, que es la realización desinteresada del bien. La
ética tiene valor porque perfecciona al ser humano.”
Ciencia y tecnología
La ciencia y la ética
La ética tiene como objetivo llegar a la razón de ser de los hechos y acciones humanas. Y seguro te
preguntaras si la ética y la ciencia guardan alguna relación. La ciencia debe efectuarse bajo ciertos parámetros
donde la ética entra en acción, pues esta estudia y reflexiona pero sin causar daños, entonces el ejercicio de la
ciencia esta regulada, puede hacerse todo tipo de práctica científica siempre y cuando esta no cause daños a
los seres vivos y sus ecosistemas, al contrario, se espera que todo lo que se descubra y se cree en el ámbito
científico, sea en beneficio de los seres humanos, la ciencia tiene como finalidad mejorar la calidad de vida de
las personas y llegar a la verdad, pero si tuviera facultad absoluta podría por su pasión perder el equilibrio. Así
que podríamos decir que la ética estudia y reflexiona sobre los efectos que la práctica científica pueda generar
en cuanto a si son correctos o incorrectos. Ya que en el ejercicio científico se enfrentaran situaciones en las
cuales entran en juego los principios éticos. Y puede clasificarse en dos la ética interna y externa:
“La ética interna es necesaria para el funcionamiento mismo de la ciencia. Consta de reglas no escritas, pero
bien reconocidas y aceptadas por la comunidad científica, que ningún científico puede violar sin arriesgarse a
perder el derecho a ser considerado parte de dicha comunidad”.
“La ética externa de la ciencia es la que se relaciona con los efectos de ésta en la sociedad o el ambiente.
Incluye reglas como la que impide experimentar con humanos, o la que exige reducir al mínimo el sufrimiento
de los animales de laboratorio o los daños que se causen a un ecosistema al estudiarlo”.
Tecnología y tecnociencia
Tecnociencia
La tecnociencia es un proceso cognitivo donde la producción de conocimiento científico se caracteriza por ser
un proceso hiper-tecnologizado, delegado fundamentalmente en instrumentos técnicos, permitiendo una
mayor aceleración y mayor escala de producción de conocimientos con aplicación inmediata para solucionar
problemáticas específicas.
Tecnología
El desarrollo tecnológico alcanzado permitió a la humanidad abandonar por primera vez la superficie terrestre
en la década de 1960, con lo que inició la exploración del espacio exterior.
La tecnología es la ciencia aplicada a la resolución de problemas concretos. Constituye un conjunto de
conocimientos científicamente ordenados, que permiten diseñar y crear bienes o servicios que facilitan la
adaptación al medio ambiente y la satisfacción de las necesidades esenciales y los deseos de la humanidad. Es
una palabra de origen griego, τεχνολογία, formada por téchnē (τέχνη, arte, técnica u oficio, que puede ser
traducido como destreza) y logía (λογία, el estudio de algo).
Aunque hay muchas tecnologías muy diferentes entre sí, es frecuente usar el término tecnología en singular
para referirse al conjunto de todas, o también a una de ellas. La palabra tecnología también se puede referir a
la disciplina teórica que estudia los saberes comunes a todas las tecnologías, y en algunos contextos, a
la educación tecnológica, la disciplina escolar abocada a la familiarización con las tecnologías más
importantes.
Por lo pronto, la humanidad necesita de una comunicación que vaya más allá del conocimiento científico
para acceder a la cotidianidad y la espiritualidad; se han de remover las luchas sociales en defensa de lo
propio, de lo particular y lo singular para detener la exclusión y la marginalidad creada por el propio hombre
en busca de una falsa equidad.
La incoherencia entre el discurso y el comportamiento moral, merece un
marco propicio que consolide los saberes pertinentes ante el contexto actual, en buena medida, el origen de
las contradicciones y ambigüedades del comportamiento de los seres humanos con su medio, han tenido
como base la carencia de un diálogo profundo y de acercamiento a las realidades a las que se exponen los
hombres en su contexto habitual.
Posición de los países menos desarrollados
El punto de vista de los países menos desarrollados (PMD) no es homogéneo. Pero a parte de esto, lo cierto es
que hay unas ciertas posiciones comunes.
Joao Augusto de Araujo Castro, Representante Parlamentario que fue de Brasil en las Naciones Unidas, ha
sido uno de los mayores portavoces de los PMD.
Araujo sostiene que, los principales problemas ecológicos se dan en los países industriales (PI), en los cuales,
en muy poco se ha pasado de la más completa despreocupación por el entorno a una especie de verdadero
culto a la naturaleza.
Por otro lado, el problema fundamental no es el que identifica la crítica, que en general lo polariza todo en el
crecimiento demográfico en los PMD, sino que radica en la sostenible y creciente contaminación de la
abundancia, característica de los PI, así como en el despilfarro en gastos militares.
Por todo ello, una política ecológica de ámbito mundial, requiere al propio tiempo todo un compromiso
mundial al desarrollo, que tenga en cuenta la relación existente entre la preservación del medio ambiente y la
urgente necesidad de acelerar el progreso socioeconómico en los PMD, a fin de lograr, en definitiva, que se
atiendan simultáneamente ambos aspectos.
Hoy la cuestión ecológica ha tomado tales dimensiones que implica la responsabilidad de todos. Los
verdaderos aspectos de la misma, indican la necesidad de esfuerzos concordados, a fin de establecer los
respectivos deberes y los compromisos de cada uno: de los pueblos, de los Estados y de la Comunidad
internacional. Esto no sólo coincide con los esfuerzos por construir la verdadera paz, sino que objetivamente
los confirma y afianza. Incluyendo la cuestión ecológica en el más amplio contexto de la causa de la paz en la
sociedad humana, uno se da cuenta mejor de cuán importante es prestar atención a lo que nos relevan la
tierra y la atmósfera: en el universo existe un orden que debe respetarse; la persona humana, dotada de la
posibilidad de libre elección, tiene una grave responsabilidad en la conservación de este orden, incluso con
miras al bienestar de las futuras generaciones.
Social
La naturaleza es una parte muy importante para todo ser vivo, en los seres humanos es necesario
transformar la naturaleza por medio de trabajo, produciendo algo más allá de lo natural, pero es muy
importante que toda acción sea pensando en no dañar el ecosistema, desafortunadamente a la gran mayoría
de los seres humanos no les importa hacerle daños, lo ``importante´´es generar dinero para su alimentación y
darse una vida de lujos y sin pensar que con el paso del tiempo todo nuestro medio ambiente se mira
afectado acortando su periodo de vida, un ejemplo muy claro que podemos hacer notorio es el sobre
calentamiento global y la extinción de varias especies animales.
Hay muchísimas maneras de cuidar la naturaleza, es algo muy bello que tenemos en este mundo y está por
todos lados, pero desgraciadamente la estamos desgraciando.
Unos pasos para cuidar nuestra naturaleza son:
-Reciclar
-No desperdiciar agua
-Tratar de usar el auto lo menos posible (No comprar autos que usen mucho gas)
-Proteger bosques (Plantar árboles en lugar de cortarlos)
-Proteger la fauna
-Ahorrar energía
-Envolverte en actividades ambientales
-Compartir tu deseo de cuidar esta tierra con otros.
Ética y valores 2
3. Globalización y desarrollo de las naciones
Antecedentes
Aunque el término, como se ha visto, es de origen reciente, la idea general de la globalización es mucho más
antigua. En cierto sentido podría decirse que cuando Alejandro Magno extendió su imperio hasta arribar a la
India o cuando los fenicios recorrían las costas mediterráneas para realizar su comercio, por medio del
intercambio de mercancías, costumbres y cultura, de alguna forma se dio un incipiente proceso globalizador.
De la misma manera, el nacimiento de Cristo durante el primer siglo de la era cristiana tuvo lugar también
dentro de un evidente proceso de globalización suscitado por la influencia y poderío del Imperio Romano.
Probablemente la fe cristiana no habría prosperado a la velocidad que lo hizo de no ser por dicho proceso. La
predicación de Jesús se produjo en Palestina, en el lugar estratégico y en el momento histórico oportuno para
difundirse con rapidez entre las principales culturas de la época. No debe olvidarse que nuestro Dios es el
mejor estratega del universo que influyó decisivamente en la venida de Cristo a la Tierra, en su humanización,
así como en la elección del lugar exacto y la fecha idónea para su nacimiento. En este sentido, el apóstol San
Pablo escribe: “Pero cuando vino el cumplimiento del tiempo, Dios envió a su Hijo,...” (Gá. 4:4). O sea, en el
momento oportuno. El lugar y la época no fueron elegidos al azar sino muy sabiamente. La globalización
impuesta por las armas del Imperio Romano perduró durante algunos años pero se derrumbó con la invasión
de los bárbaros. Durante la Edad Media y en épocas posteriores hubo también intentos de crear grandes
imperios pero, en realidad, nada de esto era una verdadera globalización en el sentido actual del término sino
más bien tímidos esfuerzos de unificación por el poderío militar. El primer proceso globalizador basado
principalmente en razones económicas fue el que se dio a finales del siglo XIX y principios del XX. Los
economistas de hoy distinguen dos procesos de globalización: uno que abarcaría desde 1870 hasta 1914,
coincidiendo con la revolución industrial, y otro generado a partir de 1950 y que llegaría hasta el momento
presente. Lo que ocurrió en la primera globalización fue el abaratamiento de los costes energéticos y del
transporte. Esto fue consecuencia de la expansión de las redes del ferrocarril entre 1820 y 1850, del desarrollo
de las calderas de vapor en las industrias y de las mejoras en el transporte marítimo. Tales acontecimientos
fueron los principales motores del progreso así como en la actualidad puedan serlo la aviación, las
telecomunicaciones o el Internet. Si en 1830 el velero más rápido tardaba 48 días en viajar desde Europa a los
Estados Unidos, diez años después los vapores lo hacían tan sólo en 14 días. Esto supuso un gran adelanto al
que se le unió el invento del telégrafo. A partir de 1860 las principales ciudades del mundo estaban ya unidas
por este revolucionario sistema de comunicación. La revolución industrial contribuyó a crear un desequilibrio
entre los países que aportaban las materias primas y los industrializados que las necesitaban. Al mismo
tiempo se produjo una sobreoferta de productos innecesarios en los mercados que no podían venderse, a
menos que se fomentara de alguna manera su exportación al exterior más allá de las fronteras de los propios
países productores. Así apareció el concepto de liberalismo o librecambismo como la mejor solución a todos
los males económicos del planeta. Las fronteras se empezaron a abrir y hubo un gran intercambio de bienes y
mano de obra. Sin embargo, la cosa no funcionó. Al principio, la demanda creció y empezó a haber fuertes
movimientos migratorios desde Europa a los Estados Unidos, donde los obreros eran necesarios. Pero a
medida que la inmigración y la oferta de mano de obra fueron aumentando en Norteamérica, los salarios
empezaron a disminuir y se produjo la paradoja de que los obreros que habían permanecido en Europa
ganaban más que los que se habían marchado a América. El poder y el capital se fueron concentrando en las
grandes empresas, mientras que los perdedores acabaron resucitando el temido fantasma del
proteccionismo. Se empezó a impedir la importación de productos extranjeros y la experiencia acabó en el
desastre económico. La primera globalización dio marcha atrás y sólo duró 44 años. Después de unas décadas
oscuras en las que proliferaron los nacionalismos, el mundo se sumergió en la Primera Guerra Mundial. Se
produjo la Gran Depresión de 1929 y al poco tiempo sobrevino otro gran conflicto armado, la Segunda Guerra
Mundial. El segundo proceso globalizador que empezó en los años cincuenta y ha llegado hasta nuestros días,
no se desarrolló con tanta rapidez como el primero pero, por lo pronto, ya ha durado más tiempo que su
predecesor. También se ha visto frenado temporalmente por importantes crisis financieras como la de México
en 1994 que acabó extendiéndose a toda Latinoamérica y la del sudeste asiático de 1998, que se inició en
Tailandia y terminó afectando a vecinos tan alejados como Rusia y América Latina. No obstante, la
globalización económica actual ha venido superando hasta ahora todos los obstáculos con los que ha
tropezado. La mayoría de los expertos cree que seguirá avanzando de manera imparable porque, a diferencia
del proceso anterior, la globalización de hoy se apoya sobre fundamentos mucho más sólidos. El primero de
tales apoyos viene determinado por la increíble movilidad que posee el capital en la actualidad. Los adelantos
de las telecomunicaciones permiten que la globalización de los mercados financieros sea casi completa. Las
sumas billonarias que se mueven diariamente de unos países a otros en cuestión de minutos dejarían perplejo
a cualquier economista de principios de siglo. El segundo fundamento viene de la mano de los grandes
organismos e inmensos bloques comerciales. Instituciones internacionales de cooperación económica, como
el Banco Mundial o el Fondo Monetario Internacional (FMI) que suavizan los efectos que puedan causar las
crisis momentáneas de un determinado país o de muchos. La tercera razón de la actual estabilidad económica
global es la mayor interdependencia de las empresas. En la primera globalización se fomentó el
librecambismo de mercancías pero no el de las empresas. Sin embargo, hoy las compañías multinacionales
constituyen el soporte principal que permite el desarrollo del proceso globalizador. Ya no se trata sólo de
adquirir una materia prima barata cambiándola por productos manufacturados caros, sino que la producción
se traslada al propio país donde además la mano de obra es también más barata. Así, los distintos
componentes de un determinado producto se pueden fabricar en diferentes partes del mundo y ser
ensamblados en otra. El desarrollo de la tecnología es el cuarto punto de apoyo de la segunda globalización. El
mundo se ha convertido en una “aldea global”, en palabras de McLuhan (1990), que ya no requiere de 80 días
para ser recorrida por completo según pronosticaba Julio Verne en su famosa novela. Si el coste de una
llamada de tres minutos desde Nueva York a Londres era de 300 dólares, en el año 1930, actualmente
mediante el correo electrónico es prácticamente gratis. Los cambios experimentados en el mundo de los
transportes y de la comunicación permiten suponer que el actual proceso globalizador no tiene marcha atrás.
Estas dos últimas globalizaciones que acabamos de ver describen procesos económicos de la historia reciente,
sin embargo cuando en la actualidad se habla de globalización parece que se hace referencia a la etapa que
empieza a finales de los noventa durante el siglo XX. En 1989 la guerra fría mantenida durante años entre el
bloque capitalista y el bloque soviético se acabó porque uno de los dos, el capitalista, ganó la batalla. Para ser
más exactos, se podría decir que el día en que cayó el muro de Berlín empezó la globalización. Los EE.UU.
defendían un sistema de mercado capitalista centrado en la propiedad privada, mientras que la URSS
pretendía un sistema burocrático de planificación centralizada. En realidad, se trataba más de una guerra
entre los intereses económicos enfrentados de las dos grandes potencias mundiales que de un conflicto entre
principios morales o ideológicos. Estados Unidos venció en esta lucha y con su victoria se inició el proceso de
norteamericanización del mundo que caracteriza la actual globalización. El mismo invento informático de los
militares que hizo posible ganar la guerra fría, el Internet, es el que ha permitido después la globalización
especulativa.
Proporciones
PROPORCIÓN EQUIDIFERENCIA
Es la igualdad de dos diferencias o razones aritméticas. Es decir, dos razones que son iguales.
PROPORCIÓN EQUICOCIENTE.
Es la igualdad de dos razones geométricas o por cociente. Es decir, dos razones que son iguales.
Los términos de cada una de las razones de la proporción equidiferencia y de la proporción equicociente
reciben los nombres de medios y extremos.
Propiedades fundamentales de las proporciones aritméticas
1.- En toda proporción equidiferencia, un extremo es igual a la suma de los medios menos el otro extremo.
2.- En toda proporción equidiferencia, un medio es igual a la suma de los extremos menos el otro medio.
Método de igualación
Método de reducción
Combinación lineal de ecuaciones: se multiplica una ecuación por ún número, la otra por otro número y se
suman. La ecuación resultante de una combinación lineal es equivalente a las ecuaciones originales del
sistema.
El método de reducción consiste en eliminar una incógnita del sistema.
1. Vamos a eliminar la . Para ello multiplico la ecuación de arriba por 3 y la de abajo por 2:
Un sistema de 2 ecuaciones simultáneas con 2 incógnitas es un par de ecuaciones que tienen exactamente las
mismas 2 incógnitas. Este tipo de sistemas de ecuaciones simultáneas es muy común que aparezca en
problemas donde se plantean 2 sucesos distintos con las mismas cosas. De cada suceso se obtiene una
ecuación y las dos ecuaciones involucran las mismas cosas (mismas variables o incógnitas).
Un ejemplo clásico es el siguiente: Un niño es 25 años menor que su padre, dentro de 18 años el niño tendrá
la mitad de la edad del padre ¿Cuántos años tiene el niño y el padre? La solución, como puede verificarse, es
que el niño tiene 7 años y el padre 32.
Este tipo de problemas se suelen plantear como retos en reuniones y muy comúnmente son los niños los que
plantean este tipo de preguntas... ¡mas vale responderlas correctamente si no se quiere quedar como tonto!
Los métodos de solución de este tipo de sistemas son varios y muy diferentes entre sí. El más ampliamente
utilizado es el de “suma y resta”, pero hay métodos más sencillos que son de bastante utilidad cuando se
pueden plantear correctamente.
http://www.vadenumeros.es/tercero/sistemas-de-ecuaciones.htm
Combinamos las ecuaciones (1) y (2) y vamos a eliminar la x. Multiplicando la ecuación (1) por 2, se tiene:
2x + 8y – 2z = 12
-- 2x – 5y + 7z = 9
-----------------------
3y + 5z = 21 (4)
Combinamos la tercera ecuación (3) con cualquiera de las otras dos ecuaciones dadas. Vamos a combinarla con (1)
para eliminar la x. Multiplicando (1) por 3 tenemos:
3x + 12y – 3z = 18
--3x + 2y – z = -- 2
--------------------------
14y – 4z = 16 (5) Dividiendo entre 2:
7y – 2z = 8
Ahora tomamos las dos ecuaciones con dos incógnitas que hemos obtenido (4) y (5), y formamos un sistema:
3y + 5z = 21 (4)
7y – 2z = 8 (5)
Resolvemos este sistema. Vamos a eliminar la z multiplicando (4) por 2 y (5) por 5:
6y + 10z = 42
35y – 10z = 40
--------------------
41y = 82
y=2
7(2) – 2z = 8
14 – 2z = 8
– 2z = -- 6
z=3
Sustituyendo y = 2, z = 3 en cualquiera de las tres ecuaciones dadas, por ejemplo en (1), se tiene:
x + 4(2) – 3 = 6 x=1, y=2, z=3 R.
x+8–3=6
x=1
Resolver el sistema.
z – 4 + (6x – 19) / 5 = -- y
10 – (x – 2z) / 8 = 2y – 1
4z + 3y = 3x – y
Quitando denominadores:
5z – 20 + 6x – 19 = -- 5y
80 – x + 2z = 16y – 8
4z + 3y = 3x – y
Transponiendo y reduciendo:
6x + 5y + 5z = 39 (1)
– x – 16y + 2z = -- 88 (2)
– 3x + 4y + 4z = 0 (3)
6x + 5y + 5z = 39
–6x – 96y + 12z = -- 528
--------------------------------
– 91y + 17z = -- 489 (4)
Combinamos (2) y (3). Multiplicando (2) por 3 y cambiándole el sino:
3x + 48y – 6z = 264
– 3x + 4y + 4z = 0
--------------------------
52y – 2z = 264
Dividiendo por 2:
26y – z = 132 (5)
Sustituyendo y = 5, z = -- 2 en (3):
– 3x + 4(5) + 4(-- 2) = 0
–3x + 20 –8 =0
– 3x = -- 12
x=4
MATEMATICAS 2
1. ANGULOS Y TRIANGULOS
Clasificación de los ángulos por sus medidas
Un ángulo es la abertura formada por dos rayos que parten de un punto común llamado
vértice.
1. Clasificación de ángulos según su medida
2. Tipos de ángulos
Los ángulos se miden en grados (°) y según su medida se clasifican en:
1) Ángulo agudo: es aquel que mide más de 0° y menos de 90°.
2. El valor de un ángulo exterior de un triángulo es igual a la suma de los dos interiores no adyacentes.
α=B+C
Teorema de Pitágoras
Pitágoras estudió los triángulos rectángulos, y las relaciones entre los catetos y la hipotenusa de un triángulo rectángulo,
antes de derivar su teoría.
El teorema de Pitágoras
En el recuadro anterior, habrás notado la palabra “cuadrado,” así como los 2s arriba de las letras en Elevar
al cuadrado un número significa multiplicarlo por sí mismo. Entonces, por ejemplo, elevar al cuadrado el número 5,
multiplicas 5 • 5, y para elevar al cuadrado el número 12, multiplicas 12 • 12. Algunos números comunes elevados al
cuadrado se muestran en la siguiente tabla.
Número multiplicado
Número Cuadrado
por sí mismo
1 12 = 1 • 1 1
2 22 = 2 • 2 4
3 32 = 3 • 3 9
4 42 = 4 • 4 16
5 52 = 5 • 5 25
10 102 = 10 • 10 100
Cuando ves la ecuación , puedes pensar en esto como “la longitud del lado a multiplicada por sí misma,
mas la longitud del lado b multiplicada por sí misma es igual a la longitud de c multiplicada por sí misma.”
El teorema es válido para este triángulo rectángulo — la suma de los cuadrados de los catetos es igual al cuadrado de la
hipotenusa. Y, de hecho, es válido para todos los triángulos rectángulos.
El Teorema de Pitágoras puede también representarse en términos de área. En un triángulo rectángulo, el área del
cuadrado de la hipotenusa es igual a la suma de las áreas de los cuadrados de los catetos. Puedes ver la ilustración
siguiente para el mismo triángulo rectángulo 3-4-5.
Puedes usar el Teorema de Pitágoras para encontrar la longitud de la hipotenusa de un triángulo rectángulo si conoces la
longitud de los otros dos lados del triángulo, llamados catetos. Puesto de otra manera, si conoces las longitudes de a y b,
puedes encontrar c.
En el triángulo anterior, tenemos las medidas de los catetos a y b: 5 y 12, respectivamente. Puedes usar el Teorema de
Pitágoras para encontrar el valor de la longitud de c, la hipotenusa.
El Teorema de Pitágoras.
Evaluar.
Encontrar la raíz cuadrada requiere algo de práctica, pero también toma ventaja de la multiplicación, la división, y un
poco de prueba y error. Observa la tabla siguiente.
1 1•1 1
4 2•2 2
9 3•3 3
16 4•4 4
25 5•5 5
100 10 • 10 10
Es buen hábito familiarizarse con los cuadrados de los números del 0 al 10, porque son frecuentes en matemáticas. Si
puedes recordar estos números — o si puedes usar una calculadora para encontrarlos — calcular las raíces cuadradas
será cuestión de recordar.
A)
B)
C)
D)
Mostrar/Ocultar Respuesta
Puedes usar la misma fórmula para encontrar la longitud del cateto de un triángulo si te proporcionan las medidas de la
hipotenusa y del otro cateto. Considera el siguiente ejemplo.
Ejemplo
Problema Encuentra la longitud del lado a del triángulo siguiente. Usa una calculadora para
estimar la raíz cuadrada para una posición decimal.
Respuesta
¿Cuál de las siguientes operaciones utiliza correctamente el Teorema de Pitágoras para encontrar
el lado faltante, x?
A)
B) x + 8 = 10
C)
D)
Mostrar/Ocultar Respuesta
El Teorema de Pitágoras es tal vez una de las fórmulas más usadas que verás en matemáticas porque hay muchas
aplicaciones en el mundo real. Los arquitectos e ingenieros usan esta fórmula extensivamente cuando construyen
edificios, puentes, y rampas. Observa los siguientes ejemplos.
Ejemplo
Problema Los dueños de una casa quieren convertir los escalones de la entrada en una rampa. El
porche mide 3 pies por encima del suelo, y debido a regulaciones de construcción, la
rampa debe empezar a una distancia de 12 pies de la base del porche. ¿Qué tan larga
será la rampa?
Para resolver un problema como este, es buena idea dibujar un diagrama simple que
muestre los catetos y la hipotenusa del triángulo.
Ejemplo
Problema Un barco tiene una vela con forma de triángulo rectángulo. El lado más largo
de la vela mide 17 yardas, y el lado de abajo de la vela mide 8 yardas. ¿Qué tan
alta es la vela?
Dibuja la imagen para ayudarte a
visualizar el problema. En un triángulo
rectángulo, la hipotenusa siempre será
el lado más largo, entonces debe ser de
17 yardas. El problema también te dice
que el lado inferior del triángulo mide 8
yardas.
Sumario
El Teorema de Pitágoras dice que en cualquier triángulo rectángulo, la suma de los cuadrados de los catetos es igual al
cuadrado de la hipotenusa. El teorema se representa con la fórmula . Es decir, si conoces la longitud de dos
de los lados de un triángulo rectángulo, puedes aplicar el Teorema de Pitágoras para encontrar la longitud del tercer lado.
Recuerda, este teorema sólo funciona para triángulos rectángulos.
2. PROBABILIDAD Y ESTADÍSTICA
Conceptos básicos, población muestra variable y dato experimento, parametro
Conceptos básicosPoblaciónEs el total de objetos bajo consideración. Es el grupo o conjunto sobre el cual se quiere hacer
una inferencia. La población puede ser grande o pequeña, eso depende de lo que se quiere estudiar o investigar. Por
ejemplo, la población de todos los habitantes de Puerto Rico es grande ya que en Puerto Rico habitan casi 4 millones de
personas. Sin embargo, la población de personas mayores de 80 años que viven en pueblo de Juncos es mucho más
pequeña que la población de todos los habitantes de Puerto Rico.
4 Conceptos básicosMuestraAunque el investigador se interesa, la mayor parte de las veces en la población, muy pocas
veces puede llegar a toda ella. Para hacer cualquier estudio se ve obligado a seleccionar parte de la población. La muestra
es la porción de la población seleccionada para la investigación. La selección se hace porque generalmente el costo, el
tiempo y los recursos son limitados para hacer la investigación con toda la población. Partiendo de los resultados del
estudio con la muestra (si ésta es verdaderamente representativa de la población), el investigador puede hacer
inferencias sobre la población.
6 Conceptos básicosDatosLos datos pueden definirse como la información recogida, organizada y analizada por los
estadísticos.
Estadístico y Parámetro
Un estadístico o una estadística es una medida que se utiliza para describir una característica numérica de la muestra. La
estadística inferencial sirve para determinar cómo una estadística y un parámetro se relacionan.
Un parámetro es la medida de una característica numérica de la población. (Media, mediana, varianza, etc.) . Es un
elemento descriptivo de la población.
Experimento
EXPERIMENTO
siendo el fi para todo el conjunto i. Se presenta en una tabla o nube de puntos en una distribución de
frecuencias.
Si multiplicamos la frecuencia relativa por 100 obtendremos el porcentaje o tanto por ciento (pi).
Frecuencia acumulada[editar]
La frecuencia acumulada es la suma de las frecuencias absolutas de todos los valores inferiores o iguales al
valor considerado.
La frecuencia acumulada es la frecuencia estadística F(XXr) con que el valor de un variable aleatoria (X) es
menor que o igual a un valor de referencia (Xr).
La frecuencia acumulada relativa se deja escribir como Fc(X≤Xr), o en breveFc(Xr), y se calcula de:
Fc (Hr) = HXr / N
donde MXr es el número de datos X con un valor menor que o igual a Xr, y N es número total de los datos. En
breve se escribe:
Fc = M / N
Cuando Xr=Xmin, donde Xmin es el valor mínimo observado, se ve que Fc=1/N, porque M=1. Por otro lado,
cuando Xr=Xmax, donde Xmax es el valor máximo observado, se ve que Fc=1, porque M=N.
En porcentaje la ecuación es:
Fc(%) = 100 M / N
Frecuencia relativa acumulada[editar]
La frecuencia relativa acumulada es el cociente entre la frecuencia acumulada de un determinado valor y el
número total de datos. Se puede expresar en tantos por ciento. Ejemplo:
Durante el mes de julio, en una ciudad se han registrado las siguientes temperaturas máximas:
32, 31, 28, 29, 33, 32, 31, 30, 31, 31, 27
Distribución de frecuencias agrupadas[editar]
La distribución de frecuencias agrupadas o tabla con datos agrupados se emplea si las variables toman un
número grande de valores o la variable es continua. Se agrupan los valores en intervalos que tengan la misma
amplitud denominados clases. A cada clase se le asigna su frecuencia correspondiente. Límites de la clase. Cada
clase está delimitada por el límite inferior de la clase y el límite superior de la clase.
La amplitud de la clase es la diferencia entre el límite superior e inferior de la clase. La marca de clase es el
punto medio de cada intervalo y es el valor que representa a todo el intervalo para el cálculo de algunos
parámetros. En caso de que el primer intervalo sea de la forma (-∞,k], o bien [k,+∞) donde k es un número
cualquiera, en el caso de (-∞,k], para calcular la marca de clase se tomará la amplitud del intervalo adyacente a
el (ai+1), y la marca de clase será ((k-ai+1) +k)/2. En el caso del intervalo [k,+∞) también se tomará la amplitud
del intervalo adyacente a el (ai-1) siendo la marca de clase ((k+ai-1)+k)/2.
Construcción de una tabla de datos agrupados:
3, 15, 24, 28, 33, 35, 38, 42, 43, 38, 36, 34, 29, 25, 17, 7, 34, 36, 39, 44, 31, 26, 20, 11, 13, 22, 27, 47, 39, 37, 34,
32, 35, 28, 38, 41, 48, 15, 32, 13.
1. Se localizan los valores menor y mayor de la distribución. En este caso son 3 y 48.
2. Se restan y se busca un número entero un poco mayor que la diferencia y que sea divisible por el
número de intervalos que queramos establecer.
Es conveniente que el número de intervalos oscile entre 6 y 15.
En este caso, 48 - 3 = 45, incrementamos el número hasta 50 : 5 = 10 intervalos.
Se forman los intervalos teniendo presente que el límite inferior de una clase pertenece al intervalo, pero el
límite superior no pertenece al intervalo, se cuenta en el siguiente intervalo.
Intervalo ci ni Ni fi Fi
Total: 40 1
Esta definición varía, aunque no sustancialmente, cuando se trata de variables continuas, esto es, también
puede calcularse para variables agrupadas en intervalos.
Propiedades[editar]
Las principales propiedades de la media aritmética son:3
Su cálculo es muy sencillo y en él intervienen todos los datos.
Su valor es único para una serie de datos dada.
Se usa con frecuencia para comparar poblaciones, aunque es más apropiado acompañarla de una
medida de dispersión.
Se interpreta como "punto de equilibrio" o "centro de masas" del conjunto de datos, ya que tiene la
propiedad de equilibrar las desviaciones de los datos respecto de su propio valor:
Minimiza las desviaciones cuadráticas de los datos respecto de cualquier valor prefijado, esto es, el
valor de es mínimo cuando . Este resultado se conoce como Teorema de König. Esta
propiedad permite interpretar uno de los parámetros de dispersión más importantes: la varianza.
Se ve afectada por transformaciones afines (cambios de origen y escala), esto es, si
Si son nuestros datos y son sus "pesos" respectivos, la media ponderada se define de la siguiente
forma:
Media muestral[editar]
Esencialmente, la media muestral es el mismo parámetro que el anterior, aunque el adjetivo "muestral" se
aplica a aquellas situaciones en las que la media aritmética se calcula para un subconjunto de la población
objeto de estudio.
La media muestral es un parámetro de extrema importancia en la inferencia estadística, siendo de gran utilidad
para la estimación de la media poblacional, entre otros usos.
Moda[editar]
Artículo principal: Moda (estadística)
La moda es el dato más repetido de la encuesta, el valor de la variable con mayor frecuencia absoluta.5 En
cierto sentido la definición matemática corresponde con la locución "estar de moda", esto es, ser lo que más se
lleva.
Su cálculo es extremadamente sencillo, pues solo necesita un recuento. En variables continuas, expresadas en
intervalos, existe el denominado intervalo modal o, en su defecto, si es necesario obtener un valor concreto de
la variable, se recurre a la interpolación.
Por ejemplo, el número de personas en distintos vehículos en una carretera: 5-7-4-6-9-5-6-1-5-3-7. El número
que más se repite es 5, entonces la moda es 5.
Hablaremos de una distribución bimodal de los datos, cuando encontremos dos modas, es decir, dos datos que
tengan la misma frecuencia absoluta máxima. Cuando en una distribución de datos se encuentran tres o más
modas, entonces es multimodal. Por último, si todas las variables tienen la misma frecuencia diremos que no
hay moda.
Cuando tratamos con datos agrupados en intervalos, antes de calcular la moda, se ha de definir el intervalo
modal. El intervalo modal es el de mayor frecuencia absoluta.
La moda, cuando los datos están agrupados, es un punto que divide el intervalo modal en dos partes de la
forma p y c-p, siendo c la amplitud del intervalo, que verifiquen que:
Siendo la frecuencia absoluta del intervalo modal y y las frecuencias absolutas de los intervalos
anterior y posterior, respectivamente, al intervalo modal.
Las calificaciones en la asignatura de Matemáticas de 39 alumnos de una clase viene dada por la siguiente tabla
(debajo):
Calificaciones 1 2 3 4 5 6 7 8 9
Número de alumnos 2 2 4 5 8 9 3 4 2
Propiedades[editar]
Sus principales propiedades son:
Cálculo sencillo.
Interpretación muy clara.
Al depender solo de las frecuencias, puede calcularse para variables cualitativas. Es por ello el
parámetro más utilizado cuando al resumir una población no es posible realizar otros cálculos, por
ejemplo, cuando se enumeran en medios periodísticos las características más frecuentes de
determinado sector social. Esto se conoce informalmente como "retrato robot".6
Inconvenientes[editar]
Su valor es independiente de la mayor parte de los datos, lo que la hace muy sensible a variaciones
muestrales. Por otra parte, en variables agrupadas en intervalos, su valor depende excesivamente del
número de intervalos y de su amplitud.
Usa muy pocas observaciones, de tal modo que grandes variaciones en los datos fuera de la moda, no
afectan en modo alguno a su valor.
No siempre se sitúa hacia el centro de la distribución.
Puede haber más de una moda en el caso en que dos o más valores de la variable presenten la misma
frecuencia (distribuciones bimodales o multimodales).
Mediana[editar]
Artículo principal: Mediana (estadística)
La mediana es un valor de la variable que deja por debajo de sí a la mitad de los datos, una vez que éstos están
ordenados de menor a mayor.7 Por ejemplo, la mediana del número de hijos de un conjunto de trece familias,
cuyos respectivos hijos son: 3, 4, 2, 3, 2, 1, 1, 2, 1, 1, 2, 1 y 1, es 2, puesto que, una vez ordenados los datos: 1,
1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 4, el que ocupa la posición central es 2:
En caso de un número par de datos, la mediana no correspondería a ningún valor de la variable, por lo que se
conviene en tomar como mediana el valor intermedio entre los dos valores centrales. Por ejemplo, en el caso
de doce datos como los siguientes:
Ejemplo (N par) 6 9 28
Las calificaciones en la asignatura de Matemáticas de 38 alumnos de una clase viene dada por la
7 4 32
siguiente tabla (debajo):
8 4 36
Calificaciones 1 2 3 4 5 6 7 8 9
9 2 38
Número de alumnos 2 2 4 5 6 9 4 4 2
Cálculo de la Mediana:
Primero hallamos las frecuencias absolutas acumuladas Fi (ver tabla margen derecho).
Si volvemos a utilizar la fórmula asociada a la mediana para n par, obtenemos X(38/2) = X19 y basándonos en la
fórmula que hace referencia a las frecuencias absolutas --> Ni-1< n/2 < Ni = N18 < 19 < N19
Con lo cual la mediana será la media aritmética de los valores de la variable que ocupen el decimonoveno y el
vigésimo lugar.
En nuestro ejemplo, el lugar decimonoveno lo ocupa el 5 y el vigésimo el 6, (desde el vigésimo hasta el
vigésimo octavo)
con lo que Me = (5+6)/2 = 5,5 puntos.
Propiedades e inconvenientes[editar]
Las principales propiedades de la mediana son:8
Es menos sensible que la media a oscilaciones de los valores de la variable. Un error de transcripción en
la serie del ejemplo anterior en, pongamos por caso, el último número, deja a la mediana inalterada.
Como se ha comentado, puede calcularse para datos agrupados en intervalos, incluso cuando alguno de
ellos no está acotado.
No se ve afectada por la dispersión. De hecho, es más representativa que la media aritmética cuando la
población es bastante heterogénea. Suele darse esta circunstancia cuando se resume la información
sobre los salarios de un país o una empresa. Hay unos pocos salarios muy altos que elevan la media
aritmética haciendo que pierda representatividad respecto al grueso de la población. Sin embargo,
alguien con el salario "mediano" sabría que hay tanta gente que gana más dinero que él, como que gana
menos.
Sus principales inconvenientes son que en el caso de datos agrupados en intervalos, su valor varía en función
de la amplitud de estos. Por otra parte, no se presta a cálculos algebraicos tan bien como la media aritmética.
Medidas de dispersión
Las medidas de dispersión muestran la variabilidad de una distribución, indicándolo por medio de un número, si
las diferentes puntuaciones de una variable están muy alejadas de la media. Cuanto mayor sea ese valor, mayor
será la variabilidad, cuanto menor sea, más homogénea será a la media. Así se sabe si todos los casos son
parecidos o varían mucho entre ellos.
Medidas[editar]
Las medidas de dispersión son números reales no negativos, su valor es igual a cero cuando los datos son
iguales y este se incrementa a medida que los datos se vuelven más diversos.
Para calcular la variabilidad que una distribución tiene respecto de su media, se calcula la media de las
desviaciones de las puntuaciones respecto a la media aritmética. Pero la suma de las desviaciones es siempre
cero, así que se adoptan dos clases de estrategias para salvar este problema. Una es tomando las desviaciones
en valor absoluto (desviación media) y otra es tomando las desviaciones al cuadrado (varianza).
Medidas dimensionales[editar]
La mayoría de las medidas de dispersión se encuentran en las mismas unidades de la cantidad que está siendo
medida. Entre ellas se encuentran principalmente:
Desviación típica: La desviación típica informa sobre la dispersión de los datos respecto al valor de la
media.
Rango: En estadística el es la diferencia entre el valor máximo y el valor mínimo en un grupo de
números aleatorios. Se le suele simbolizar con R.
Medio rango: el rango medio o extremo medio de un conjunto de valores de datos estadísticos es la
media aritmética de los valores máximos y mínimos de un conjunto de datos.
Rango intercuartílico: es una medida de dispersión estadística, igual a la diferencia entre los percentiles
75 y 25.
covarianza: es un estadístico que indica la relación de las puntuaciones entre sí
Desviación media absoluta (MAD): es una medida sólida de la variabilidad de una muestra univariable
de datos cuantitativos.
Diferencia media absoluta (univariante) es una medida de dispersión estadística igual a la diferencia
media absoluta de dos valores independientes extraídos de una distribución de probabilidad.
Desviación media
Medidas adimensionales[editar]
Otras medidas de dispersión son adimensionales. Ejemplos de ellas son:
coeficiente de correlación de Pearson: permite saber si el ajuste de la nube de puntos a la recta de
regresión obtenida es satisfactorio.
Diferencia absoluta media relativa
Entropía: Mientras que la entropía de una variable discreta es de ubicación-invariante y escala-
independiente, y por lo tanto no es una medida de dispersión en el sentido anterior, la entropía de una
variable continua es invariante de ubicación y aditivo en escala.
Coeficiente de variación
espacio_muestral = [1, 2, 3, 4, 5, 6]
Se refiere como punto muestral a cada elemento en un espacio muestral. La cantidad de puntos muestrales
se denota por tal que para el espacio muestral , .
n = len(espacio_muestral)
Asignación de probabilidades
La asignación de probabilidades es aquella que provee modelos matemáticos para calcular las posibilidades
de que sucesos específicos ocurran o no.
simples o compuestos
mutuamente excluyentes o independientes
probabilidad = 1.0 / n
En Python, se requiere que al menos un elemento de la ecuación sea un número real si lo que se requiere
como resultado es un número real.
La probabilidad de cada punto muestral, como sucesos excluyentes entre sí, es la misma para cada suceso.
Por ejemplo, para estimar la probabilidad de que en un único lanzamiento de dado, salga un número par, se
obtiene el suceso , dado por suma de las probabilidades de cada uno de sucesos
simples del espacio muestral tal que:
En el primer resultado (en el segundo paso, antes de hallar el máximo común divisor [MCD] y reducir la
fracción a ), el denominador es equivalente a la cantidad de sucesos simples dentro del suceso compuesto
«números pares» y se denota por . El denominador, , es , el total de todos los sucesos del espacio
muestral. De esta forma, la probabilidad de un suceso compuesto por sucesos mutuamente excluyentes
queda dada por el cociente de y tal que:
Un suceso compuesto se puede denotar por la unión de sus sucesos simples (símbolo , leído como "o"), tal
que:
Por ejemplo, para el caso del suceso «números pares», se obtiene que:
Tal que es un suceso y , y son las probabilidades de los tres sucesos que lo
componen. En un nuevo contexto, puede ser tratado como un suceso .
Funciones
BIOLOGÍA 1
1. Composición química de los seres vivos
BIOELEMENTOS
BIOELEMENTOS: Son los componentes orgánicos que forman parte de los seres vivos. El 99% de la masa de la
mayoría de las células está constituida por cuatro elementos, carbono (C), hidrógeno (H), oxígeno (O) y
nitrógeno (N), que son mucho más abundantes en la materia viva que en la corteza terrestre. Se agrupan en
tres categorías: primarios, secundarios y oligoelementos.
3. TIPOS DE BIOELEMENTOS
3.1.1 BIOELEMENTOS PRIMARIOS. Son los elementos mayoritarios de la materia viva (glúcidos, lípidos, proteínas
y ácidos nucleicos), constituyen el 95% de la masa total y son indispensables para formar las biomoléculas. Son
cuatro; carbono, hidrógeno, oxígeno y nitrógeno (CHON). Forman parte de la materia viva debido a sus
propiedades físico-químicas.
HIDROGENO: Forman grupos funcionales con otros elementos químicos. Es uno de los elementos que
conforman el agua. Se encuentra en la atmósfera pero en menor cantidad. Es esencial en los hidrocarburos y
los ácidos.
OXIGENO: Forma parte de las biomoléculas y es un elemento importante para la respiración. También es un
elemento en la formación del agua, causante de la combustión y produce la energía del cuerpo. El oxígeno, es
el elemento químico más abundante en los seres vivos. Forma parte del agua y de todo tipo de moléculas
orgánicas. Como molécula, en forma de O2, su presencia en la atmósfera se debe a la actividad fotosintética de
primitivos organismos. Al principio debió ser una sustancia tóxica para la vida, por su gran poder oxidante.
Todavía ahora, una atmósfera de oxígeno puro produce daños irreparables en las células.
Pero el metabolismo celular, se adaptó a usar la molécula de oxígeno como agente oxidante de los alimentos
abriendo así, una nueva vía de obtención de energía mucho más eficiente que la anaeróbica.
La reserva fundamental de oxígeno utilizable por los seres vivos, está en la atmósfera. Su ciclo está
estrechamente vinculado al del carbono, pues el proceso por el que el carbono es asimilado por las plantas
(fotosíntesis), supone también devolución del oxígeno a la atmósfera, mientras que el proceso
de respiración ocasiona el efecto contrario.
Otra parte del ciclo del oxígeno que tiene un notable interés indirecto para los seres vivos de la superficie de la
Tierra es su conversión en ozono. Las moléculas de O2, activadas por las radiaciones muy energéticas de onda
corta, se rompen en átomos libres de oxígeno que reaccionan con otras moléculas de O2, formando O3
(ozono). Esta reacción es reversible, de forma que el ozono, absorbiendo radiaciones ultravioletas vuelve a
convertirse en O2.
CARBONO: Tiene una función estructural y aparece en todas las moléculas orgánicas. Es un elemento escaso de
la naturaleza. Es la sucesión de transformaciones que sufre el carbono a lo largo del tiempo. Es un ciclo
biogeoquímico de gran importancia para la regulación del clima de la Tierra, y en él se ven implicadas
actividades básicas para el sostenimiento de la vida. El ciclo comprende dos ciclos que se suceden a distintas
velocidades.
Ciclo biológico: comprende los intercambios de carbono (CO2) entre los seres vivos y la atmósfera, es decir,
la fotosíntesis, proceso mediante el cual el carbono queda retenido en las plantas y la respiración que lo
devuelve a la atmósfera.
Ciclo biogeoquímico: regula la transferencia de carbono entre la atmósfera y la litosfera (océanos y suelo). El
CO2 atmosférico se disuelve con facilidad en agua, formando ácido carbónico que ataca los silicatos que
constituyen las rocas, resultando iones bicarbonato. Estos iones disueltos en agua alcanzan el mar, son
asimilados por los animales para formar sus tejidos, y tras su muerte se depositan en los sedimentos. El retorno
a la atmósfera se produce en las erupciones volcánicas tras la fusión de las rocas que lo contienen. Este último
ciclo es de larga duración, al verse implicados los mecanismos geológicos. Además, hay ocasiones en las que la
materia orgánica queda sepultada sin contacto con el oxígeno que la descomponga, produciéndose así
la fermentación que lo transforma en carbón, petróleo y gas natural.
NITROGENO: Forma parte de las biomoléculas pero destaca su presencia en proteínas y lípidos y ácidos
nucleicos (bases nitrogenadas). No entra directamente al cuerpo y es consumido en alimentos. Mediante las
bacterias nitrificantes, las plantas se proporcionan de este compuesto. La reserva principal de nitrógeno es la
atmósfera (el nitrógeno representa el 78 % de los gases atmosféricos). La mayoría de los seres vivos no pueden
utilizar el nitrógeno elemental de la atmósfera para elaborar aminoácidos ni otros compuestos nitrogenados,
de modo que dependen del nitrógeno que existe en las sales minerales del suelo.
Por lo tanto, a pesar de la abundancia de nitrógeno en la biosfera, muchas veces el factor principal que limita el
crecimiento vegetal es la escasez de nitrógeno en el suelo. El proceso por el cual esta cantidad limitada de
nitrógeno circula sin cesar por el mundo de los organismos vivos se conoce como ciclo del nitrógeno.
AMONIFICACION
Gran parte del nitrógeno del suelo proviene de la descomposición de la materia orgánica. Estos compuestos
suelen ser degradados a compuestos simples por los organismos que viven en el suelo (bacterias y hongos).
Estos microorganismos utilizan las proteínas y aminoácidos para formar las proteínas que necesitan y liberar el
exceso de nitrógeno como amoníaco (NH3) o amonio (NH+4).
Nitrificación
Algunas bacterias comunes en los suelos oxidan el amoníaco o el amonio. En ella se libera energía, que es
utilizada por las bacterias como fuente energética. Un grupo de bacterias oxida el amoníaco (o amonio) a
nitrito(NO-2). Otras bacterias oxidan el nitrito a nitrato, que es la forma en que la mayor parte del nitrógeno
pasa del suelo a las raíces.
Asimilación
Una vez que el nitrato está dentro de la célula de la planta, se reduce de nuevo a amonio. Este proceso se
denomina asimilación y requiere energía. Los iones de amonio así formados se transfieren a compuestos que
contienen carbono para producir aminoácidos y otras moléculas orgánicas nitrogenadas que la planta necesita.
Los compuestos nitrogenados de las plantas terrestres vuelven al suelo cuando mueren las plantas o los
animales que las han consumido; así, de nuevo, vuelven a ser captados por las raíces como nitrato disuelto en
el agua del suelo y se vuelven a convertir en compuestos orgánicos.
3.1.2 BIOELEMENTOS SECUNDARIOS. Forman parte de todos los seres vivos y en una proporción del 4,5%.
Desempeñan funciones vitales para el funcionamiento correcto del organismo. Son el azufre, fósforo,
magnesio, calcio, sodio, potasio y cloro.
El AZUFRE es uno de los más destacados constituyentes de los aminoácidos. El azufre es captado en forma de
sustratos desde las raíces (en superficies terrestres) y por medio de la pared celular (en medios acuáticos) por
las plantas (terrestres y acuáticas), las que pasan a ser alimentos de los animales. Tras la muerte de estos, el
azufre retorna al suelo induciendo un nuevo ciclo del azufre. En la atmósfera los óxidos de nitrógeno y azufre
son convertidos en ácido nítrico y sulfúrico que vuelven a la tierra con las precipitaciones de lluvia o nieve (lluvia
ácida). Otras veces, aunque no llueva, van cayendo partículas sólidas con moléculas de ácido adheridas
(deposición seca).
El FOSFORO participa activamente en las relaciones energéticas que ocurren al interior de los organismos,
forma parte de los fosfolípidos de las membranas celulares e integra las materias primas de huesos y dientes de
los seres vivos. La principal reserva de este elemento está en la corteza terrestre. Por medio de los procesos
de meteorización de las rocas o por la expulsión de cenizas volcánicas se libera, pudiendo ser utilizado por las
plantas. Con facilidad es arrastrado por las aguas y llega al mar, donde una porción importante se sedimenta en
el fondo y forma rocas. Todas ellas tardarán millones de años en volver a emerger y liberar, paulatinamente,
sales de fósforo.
4. LOS OLIGOELEMENTOS
Están presentes en los organismos en forma vestigial, pero que son indispensables para el desarrollo armónico
del organismo. Son 14 y constituyen el 0,5%: hierro, manganeso, cobre, zinc, flúor, iodo, boro, silicio, vanadio,
cromo, cobalto, selenio, molibdeno y estaño.
Las moléculas que forman parte de los seres vivos son sorprendentemente similares entre sí en estructura y
función, de hecho todos los organismos que conocemos contienen proteínas, ácidos nucleicos, y todos
dependen de agua para sobrevivir. Nuestro parentesco con plantas y bacterias se puede verificar si observamos
que sus moléculas y las muestras tienen mucho en común.
Los elementos que forman parte de los seres vivos se conocen como elementos biogenèsicos y se clasifican
enbioelementos primarios y secundarios. Los bioelementos primarios son indispensables para la formación de
las biomolèculas fundamentales, tales como carbohidratos, lípidos, proteínas y ácidos nucleicos. Estos
elementos constituyen aproximadamente 97% de la materia viva y son: carbono, hidrógeno, oxígeno,
nitrógeno, fósforo y azufre. Los bioelementos secundarios son todos los elementos biogenèsicos restantes. Se
pueden distinguir entre ellos los que tienen una abundancia mayor a 0.1% como el calcio, sodio, potasio,
magnesio, cloro y los llamados oligoelementos, los cuales se encuentran en concentraciones por debajo de
0.1% en los organismos, esto no significa que sean poco importantes, ya que una pequeña cantidad de ellos es
suficiente para que el organismo viva, sin embargo la ausencia de alguno puede causar la muerte.
Los CARBOHIDRATOS son moléculas biológicas muy abundantes. Se les conoce con el nombre de azúcares y
están formadas por carbono, hidrógeno y oxigeno. Los carbohidratos o azúcares se pueden encontrar en
diferentes formas:
Los monosacáridos están formados por una cadena de tres a siete átomos de carbonos. De acuerdo al número
de carbonos se les llama triosa (3 carbonos), tetrosa (4 carbonos), pentosa (5 carbonos) y así sucesivamente, la
glucosa que está formada por 6 carbonos, es una hexosa, lo mismo que la fructosa o azúcar de las frutas. La
glucosa no se encuentra en la naturaleza en forma lineal, sino que tiende a formar anillos
Algunos ejemplos de monosacáridos son:
-Ribosa.- es una pentosa que forma parte del ARN o acido ribonucleico, que participa en los procesos de
elaboración de proteínas.
-Desoxirribosa.- Es también una pentosa y forma parte del ADN, la molécula de la herencia.
Fructosa.- Es el azúcar de de las frutas, se encuentra en la miel y se utiliza como edulcolorante de muchos
refrescos.
-Glucosa.- Es el monosacárido más abundante en los seres vivos, esta formada por seis carbonos, se produce
por la fotosíntesis de las plantas, circula en nuestra sangre y la encontramos en muchos productos dulces.
-Galactosa.- Es una hexosa que forma parte del azúcar de la leche.
Oligosacàridos la sacarosa es el azúcar que ponemos en la mesa todos los días, se obtiene de la caña de azúcar
o remolacha. Los disacáridos están formados por dos monosacáridos. En la sacarosa se une una molécula de
glucosa y una de fructosa. Otro disacárido familiar es la lactosa, que es el azúcar de la leche, está formada de la
unión de la glucosa y la galactosa. La maltosa está formada por la unión de dos moléculas de glucosa.
Polisacáridos.- son polímeros formados por la unión de muchos monosacáridos, algunos funcionan como
reserva energética tanto en plantas como en animales mientras que otros cumplen funciones estructurales, es
decir, que dan forma y firmeza a ciertos organismos por ejemplo:
Almidón.- Es el polisacárido de reserva de las plantas está formado por cientos de unidades de glucosa. Cuando
las células de las hojas producen azúcares mediante la fotosíntesis, almacenan una parte de ella como almidón
y otra la envían a las raíces y a las semillas, a las semillas les proporciona la energía que necesitan para germinar
y crecer. Cuando consumimos productos como papa, trigo, maíz, aprovechamos esa reserva energética de las
plantas y la convertimos en glucosa por medio de la digestión.
Glucógeno.- está formado por la unión de moléculas de glucosa formando una estructura muy ramificada, el
azúcar que ingerimos en los alimentos se convierte en glucosa, el exceso se envía hacía el hígado y se almacena
en forma de glucógeno, en su regulación participa la hormona insulina.
Celulosa.- contiene moléculas de glucosa enlazadas de manera distinta, es fibrosa y cumple función
estructural, los polímeros de glucosa forman fibrillas que dan forma a los tallos y hojas de las plantas. La
celulosa se encuentra en las paredes de las células vegetales. La utilizamos en las prendas de algodón, en los
muebles de madera y forman parte de las hojas de papel. Está no es digerible para los seres humanos.
LÍPIDOS
Los lípidos se conocen también como grasas, son insolubles en agua y solubles en solventes orgánicos
no polares como el éter, el cloroformo o el benceno. Están formados por carbono, hidrógeno y oxígeno,
funcionan como reservas energéticas de la que se obtiene más energía que de los carbohidratos (un gr. de
carbohidratos proporciona 3.79 kcal, un gr. de grasa 9.3 kcal), aíslan del frío, así las ballenas y mamíferos
marinos tienen una capa importante de grasa debajo de la piel. Se dividen en:
Lípidos simples.- Sólo contienen carbono, hidrógeno y oxígeno. En este grupo se encuentran los aceites, grasas y
ceras. Su función es de reserva energética, muchas de las grasas naturales se forman de la unión de una
molécula de glicerol con tres ácidos grasos y se llaman triglicéridos. Muchos de ácidos grasos tienen 16 a 18
átonos de carbono por molécula. Los ácidos grasos pueden ser saturados si los enlaces entre los átomos de
carbono de su larga cadena son sencillos, o insaturados si existe algún doble enlace entre ellos. Forman grasas y
ceras que forman cubiertas aislantes que protegen, piel, pelaje, plumaje, hojas y frutos.
Lípidos compuestos.- además contiene otros elementos como fósforo y nitrógeno a este grupo pertenecen los
fosfolípidos, los cuales contienen un grupo fosfato asociado a un lípido, el grupo fosfato se convierte en la
cabeza polar de la molécula que va a ser hidrofilica y las cadenas de ácido graso se convierten en las colas
hidrofóbicas, esta propiedad hace que los fosfolípidos al contacto con el agua se sitúen formando dos capas en
las que las cabezas miran hacia el agua y las colas se esconden en medio, son componentes de la membrana
celular.
Esteriodes.- se componen de cuatro anillos de carbono fusionados. Un ejemplo es el colesterol que es un
componente vital de las membranas de las células animales y también participa en la síntesis de otros
esteroides como las hormonas sexuales femeninas y masculinas, o la aldosterona, hormona que controla los
niveles de sal.
Las PROTEÍNAS son moléculas muy grandes formadas por la unión de monómeros llamados aminoácidos. Un
aminoácido contiene un carbono central al que se une un grupo amino, un grupo carboxilo, un hidrogeno y un
grupo radical. Hay veinte aminoácidos diferentes que forman parte de los seres vivos, la diferencia entre ellos
está en el grupo R, con estos veinte aminoácidos se forman todas las proteínas que hay en la naturaleza. Cada
organismo produce varios cientos de proteínas características de su especie.
Las proteínas son los elementos fundamentales de un organismo, las uñas así como los diminutos vellos que
hay en ella están formados por queratina, una proteína estructural; la piel que la envuelva contiene colágeno,
una proteína que le da forma; por debajo de la piel están los músculos formados por actina y miosina, proteínas
contráctiles, es decir móviles. Si llegamos a los vasos sanguíneos, la sangre contiene proteínas, entre ellas la
hemoglobina, que transporta el oxígeno que respiras , y varias hormonas que regulan las funciones del
organismos, por ejemplo la insulina que regula el nivel de azúcar en la sangre. Si sufres una herida
rápidamente se presentan los anticuerpos, proteínas de defensa, además en todo momento dentro de cada
célula, están en acción cientos de enzimas para llevar a cabo las reacciones químicas que mantiene la vida.
ACIDOS NUCLÉICOS
Los ácidos nucleicos son polímeros formados por nucleótidos. Un nucleótido esta formado por una base
nitrogenada, una molécula de azúcar y un fosfato, en el caso el ácido desoxirribonucleico (ADN), el azúcar es
ladesoxirribosa.
Las bases nitrogenadas que forman parte del ADN son: bases púricas (adenina y guanina), y bases pirimídicas
(timina y citosina). El ADN es la molécula de la herencia, en él se codifica la información necesaria para el
desarrollo y el funcionamiento de un organismo, siendo el responsable de su transmisión hereditaria. El ADN
superenrollado (estructura terciaria) constituye a los cromosomas
El modelo de estructura en doble hélice del ADN, fue propuesto en 1953 por James Watson y Francis Crick ,
demostraron que en el ADN existía siempre la misma proporción de adenina y timina, y la concentración de
guanina era la misma que la de citosina. Esto junto con otras evidencias permitieron saber que la molécula del
ADN es una doble cadena en forma de hélice, en la que las bases nitrogenadas se enlazan por medio
de puentes de hidrógeno: adenina con timina y citosina con guanina (es decir una base púrica con una
pirimídica).
La función del ARN o ácido ribonucleico es interpretar la información codificada en el ADN y realizar el proceso
de síntesis de proteínas que se requieren en determinado momento en un organismo. Recuerda la molécula
de ARN, también está formada por nucleótidos, pero en este caso el azúcar es ribosa y en las bases
nitrogenadas, en lugar de timina, hayuracilo. Además no olvides que el ARN esta formado de una sola cadena.
Relacionar ADN, código genético y síntesis de proteínas, para comprender la continuidad y evolución de las
especies.
El ADN contiene toda la información hereditaria de un ser vivo, es decir, tiene las instrucciones exactas de
cómo construir las proteínas de cada organismo. Esto significa que cada organismo mantiene las características
propias de su especie gracias a su ADN. La información genética se encuentra en el núcleo. Cuando llega el
momento de reproducirse, es en el núcleo donde se produce una copia fiel del ADN para la formación de las
células hijas, por medio de la replicación del ADN.
Cuando una célula se va a reproducir necesita duplicar su información genética. Al proceso de copia mediante
el cual se forma una nueva molécula de ADN se le llama REPLICACIÓN. Este proceso se realiza en tres pasos:
1.- La enzima helicasa rompe los puentes de hidrógeno que unen las dos cadenas de la doble hélice de ADN.
2.- cada cadena va a servir de molde para que en ella se coloquen nucleótidos y se forme una nueva cadena
complementaria. La enzima ADN polimerasa empieza a colocar los nucleótidos que corresponden a la
secuencia de la cadena de ADN (guanina –citosina; adenina-timina).
3.- Los nucleótidos de cada cadena forman puentes de hidrógeno y la molécula toma la forma de doble hélice
(participa la enzima ADN ligasa). Y se liberan dos moléculas de ADN, cada una conserva una cadena original y
tiene una cadena nueva recién elaborada, por esto la replicación de ADN es semiconservativa.
SÍNTESIS DE PROTEÍNAS
La síntesis de proteínas es un proceso esencial en los seres vivos, y para que se lleve a cabo se requiere la
participación del ARN o ácido ribonucleico. El ARN lleva a cabo su función en dos etapas:
Transcripción.- El ARNm obtiene la información contenida en el ADN, esto consiste en la copia del ADN, por el
ARN mensajero, molécula que se encargará posteriormente de dirigir la síntesis de proteínas que se requieren
en la célula. En resumen, los procesos que se llevan a cabo en el núcleo son:
Traducción.- Se interpreta la información que el ARN mensajero copió del ADN y se construye una proteína.
El segmento de ADN que codifica para la síntesis de una proteína se llama gen, es decir el ADN está formado
por varios miles de genes. El primer paso para la TRANSCRIPCIÓN consiste en que el ADN se abra para permitir
ser copiado, después la enzima ARN polimerasa va colocando los nucleótidos necesarios para formar una
molécula de ARN mensajero, complementaria a la cadena de ADN que se esta copiando (guanina con citosina y
adenina con uracilo), el ARN mensajero se desprende, y sale del núcleo.
Para la TRADUCCIÓN de ADN, es necesaria la participación del ARN ribosomal, el cual forma los ribosomas, ahí
es donde se lleva a cabo la síntesis de proteínas, y se inicia la interpretación del mensaje. La información del
ARN mensajero se lee por tripletes (paquete de tres letras) llamado codón o triplete. Los ARN de transferencia
acarrean aminoácidos componentes de las proteínas (cada codón forma un aminoácido) y los van colocando en
el orden correspondiente, de acuerdo con la información que contiene el ARN mensajero. En cada codón del
ARNm se va a colocar el ARNt que tenga el anticodón correspondiente y colocará el aminoácido que trae
consigo. Los aminoácidos acarreados y colocados en el ribosoma se van uniendo por enlaces peptídicos y dan
lugar a la cadena de proteína. Cuando termina de interpretarse el mensaje la proteína se libera del ribosoma.
AGUA
Las tres cuartas de nuestro planeta están cubiertas por este líquido vital; también representa 63% de nuestro
peso, es decir las dos terceras partes de cada uno de nosotros, las propiedades del agua son muy especiales,
tanto que gracias a ella la vida ha podido desarrollarse en nuestro planeta, la molécula del agua está formada
por dos átomos de hidrógeno y uno de oxígeno, de manera que su fórmula molecular es H2O, el extremo donde
está el oxígeno es un tanto negativo y el extremo donde están los hidrógenos es un tanto positivo; a esto se le
llama polarización.
La polarización favorece la atracción entre una molécula de agua y otra, de manera que se forman entre las
moléculas de agua enlaces de breve duración, llamados puentes de hidrógeno. Esto permite que el agua tenga
propiedades muy especiales como:
+ La cohesión de las moléculas de agua es elevada, esto hace que sea un líquido prácticamente incompresible.
Por este motivo es un buen componente para dar turgencia a las plantas, es decir mantenerlas en forma.
+La tención superficial de las moléculas del agua es alta debido a que se encuentran unidas por los puentes de
hidrógeno. Esto permite que se forme una película o capa que puede sostener a un insecto, como los llamados
patinadores.
+Las moléculas de agua muestran un fenómeno de adhesión que da la capilaridad, por la cual el agua sube
espontáneamente al estar en un tubo muy delgado (capilar) La adhesión junto con la cohesión favorecen el
ascenso de agua en los sistemas vasculares de los árboles.
+La temperatura del agua de los oceanos, lagos y ríos no se eleva fácilmente, y los seres que viven en ellos
pueden mantenerse estables, a pesar de las fluctuaciones de temperatura atmosférica durante el día y la
noche.
+Otra propiedad del agua es que cuando pasa a su estado sólido, es decir se congela a 0°C, su densidad es
menor que cuando se encuentra en estado líquido, por consecuencia el hielo flota sobre el agua fría, lo cual
permite la supervivencia de animales que viven bajo la superficie de lagos y mares que se congelan durante el
invierno.
+Sirve como solvente de una gran cantidad de sustancias. A las que se les llama hidrófilas, además el agua es el
medio en donde se realiza la mayor parte de las reacciones químicas de la célula.
+Existen sustancias llamas hidrófobas, que no se mezclan o disuelven en ella. Tal es el caso de los aceites.
+Otra propiedad del agua es que se encuentra ionizada, es decir, algunas de sus moléculas se descomponen en
iones (H+) y en iones hidroxilo ( OH- ) Esta ionización del agua es la base de la escala de pH, en la que se mide
la concentración de iones H+ en un líquido determinado. El agua pura siempre tiene la misma proporción de
iones H+ y de iones OH- , y se dice que es neutra, su pH es 7. Las sustancias como el limón, el vinagre o el café
son ácidas porque contienen una mayor concentración de iones H+ . Cuantos más iones H+ libere en solución,
más ácidas son. A mayor acidez el valor del pH será menor y puede llegar a 1. Las sustancias con altos niveles
de (OH- ) son sustancias básicas, y su pH puede llegar hasta 14.
Las reacciones químicas de los seres vivos se llevan a cabo en determinadas condiciones de pH, por lo que es
importante que éste no se altere. Nuestra sangre, por ejemplo, tiene un pH cercano a 7, mientras que nuestros
jugos gástricos sólo funcionan a pH 1, es decir a una elevada concentración de ácidos.
Los minerales se encuentran en pequeñas cantidades en el cuerpo y cumplen funciones muy importantes.
Deben obtenerse de la dieta, ya sea de los alimentos o del agua. Los minerales entran a nuestro organismo
como parte de una sal. Los iones que existen en un organismo vivo deben mantenerse en concentraciones
constantes, para evitar alteraciones importantes en la permeabilidad, excitabilidad y contractibilidad de las
células. Existen mecanismos homeostáticos encargados de mantener el equilibrio de las sales del cuerpo. En
ocasiones, por alguna enfermedad este equilibrio se altera como cuando se retienen sales minerales por daño
en los riñones lo cual provoca hipertensión arterial. El consumo excesivo de sales puede generar problemas
como alteraciones cardiovasculares.
Las vitaminas son un grupo de compuestos que los animales y el ser humano requieren ingerir de los alimentos
en pequeñas cantidades, pues el cuerpo es incapaz de producirlas (o al menos no en suficiente cantidad).
Debido a que cada vitamina participa en varios procesos metabólicos, la deficiencia de una sola puede tener
efectos muy severos. Aunque las vitaminas no proporcionan energía son importantes pues ayudan al
funcionamiento de las células. La vitamina A interviene en la formación y mantenimiento de huesos, dientes,
mucosas, piel, pelo y uñas, además desempeña un papel importante en el desarrollo de una buena visión. La
vitamina D ayuda a regular el metabolismo del calcio y el fósforo. El compleja vitamínico B (compuesto por
cinco vitaminas diferentes: B1, B2, B3, B6, B12) es fundamental para el desarrollo y el crecimiento del sistema
nervioso. La vitamina C ayuda a la prevención de enfermedades respiratorias.
Teoría de la panspermia
Hacia finales del siglo XIX tuvo cierto crédito la tesis evolucionista, defendida por el insigne químico suceso S.A. Arrhenius,
según la cual la vida sobre la Tierra habría comenzado al existir al mismo tiempo que la materia inorgánica.
Esta teoría afirmaba que la vida apareció sobre la Tierra después de ser transportada por esporas o microorganismos
provenientes del cosmos. Con todo, resulta improbable que unos organismos vivos hubieran podido sobrevivir a las
radiaciones letales y a las bajísimas temperaturas del espacio.
es una hipótesis que propone que la vida puede tener su origen en cualquier parte del universo, y no procede directa ni
exclusivamente de la Tierra, que probablemente la vida en la Tierra proviene del exterior y que los primeros seres vivos
habrían llegado posiblemente en meteoritos o cometas desde el espacio a la Tierra.12 Estas ideas tienen su origen por el
sueco Svante August Arrhenius.
La hipótesis de la Panspermia solo hace referencia a la llegada a la Tierra de formas de vida microscópicas desde el
espacio exterior, pero no de moléculas orgánicas precursoras de la vida (teoría de la panspermia molecular o
pseudopanspermia). Tampoco trata de explicar cómo se produjo el proceso de formación de la posible vida panspérmica
proveniente de fuera de nuestro planeta.
Terminología
El término «panspermia» fue defendido por el biólogo alemán Hermann Richter en 1865. En 1908, el químico
sueco Svante August Arrhenius usó la palabra para explicar el comienzo de la vida en la Tierra. El astrónomo Fred
Hoyle también apoyó esa hipótesis. No fue hasta 1903 que el premio nobel de química Svante Arrhenius popularizó el
concepto de que la vida se había originado en el espacio exterior.3
Proceso
Esta hipótesis propone que los organismos vivos habrían llegado en meteoritos o cometas desde el espacio a la Tierra,
después de haber habitado otros cuerpos celestes.
Relacionada con la hipótesis de la panspermia, también se ha postulado la hipótesis de una panspermia artificial,
conocida como hipótesis de panspermia dirigida.
Esta se refiere a un hipotético transporte deliberado de microorganismos en el espacio para ser introducidos
como especies exóticas en planetas sin formas de vida, y se refiere tanto a microorganismos supuestamente enviados a la
Tierra para comenzar la vida aquí, como al caso contrario, es decir, el traslado de seres vivos de la tierra a otros planetas.
La vida sería enviada –deliberada o accidentalmente– para sembrar de vida nuevos sistemas solares.
Existen estudios que sugieren la posible existencia de bacterias capaces de sobrevivir largos períodos de tiempo incluso
en el espacio exterior.4567891011 También se han hallado bacterias en la atmósfera a altitudes de más de 40 km donde es
posible, aunque poco probable, que hayan llegado desde las capas inferiores.
Algunas bacterias Streptococcus mitis que en 1967 se transportaron accidentalmente a la Luna en la nave Surveyor
3 pudieron revivirse sin dificultad a su regreso a la Tierra tres años después.1213
El análisis del meteorito ALH84001, que se considera originado en el planeta Marte, muestra estructuras que podrían
haber sido causadas por formas de vida microscópica. Esto es lo más cercano a un indicio de vida extraterrestre que se ha
podido obtener, y sigue siendo muy controvertido. Por otro lado, en el meteorito Murchison se han hallado uracilo y
xantina, dos precursores de las moléculas que configuran el ARN y el ADN.14
En 2006 la revista científica Astrophysics and Space publicó un análisis de la "lluvia roja de Kerala" de 2001, en la ciudad
de Kerala, al sur de India. Este fenómeno consistió en una lluvia escarlata, que al ser analizada al microscopio por el
físico Godfrey Louis en busca de contaminación, no reveló ni polvo ni arena. Estaba plagada de estructuras con forma de
células rojas, muy parecidas a los microbios terrestres, pero sin indicios de ADN.
Su análisis, junto con informes que hablaban de un ruido similar al de un objeto que supera la barrera del sonido y que se
habría escuchado inmediatamente antes de producirse la lluvia, convencieron a Louis de que estas extrañas células
podrían ser de origen extraterrestre y habrían llegado en un cometa o asteroide.
Posteriormente, Louis y otros investigadores que analizaron las muestras afirmaron haber podido reproducir estas células
a temperaturas de 121°C o incluso superiores, y haber comprobado que estas células permanecen latentes a
temperatura ambiente (algo que no sucede ni siquiera en células extremófilas)15
El mayor inconveniente de esta teoría es que no resuelve el problema inicial de cómo surgió la vida (biogénesis), sino que
se limita a pasar la responsabilidad de su origen a otro lugar del espacio.
Otra objeción es que las bacterias no sobrevivirían a las altísimas temperaturas y a las fuerzas que intervienen en un
impacto contra la Tierra, aunque aún no se ha llegado a conclusiones en este punto (ni a favor ni en contra), pues se
conocen algunas especies de bacterias extremó filas. Sin embargo, en los experimentos que recrean las condiciones de
los cometas bombardeando la Tierra, las moléculas orgánicas, como los aminoácidos, no solo no se destruyen, sino que
comienzan a formar péptidos.
Teoría de biogénesis
La idea de la generación espontánea se reemplazo por la teoría de la biogénesis, cuyo postulado, sostiene que los
organismos vivos, pueden producir a otros organismos. Ejemplo, una araña pone huevos, lo cual produce más arañas.
Introducción
Louis Pasteur, biólogo francés, químico y bacteriólogo, refutó de forma definitiva la teoría de la generación espontánea,
postulando la ley de la biogénesis, que establece que todo ser vivo proviene de otro ser vivo ya existente.
¿Quién demostró esta teoría?
Demostró que el aire es la fuente común de los microorganismos. La materia no viva se contamina a partir de las
bacterias presentes en el aire, en el suelo y en los objetos.
Experimentos de Pasteur
Los experimentos de Pasteur, hoy en día es fundamental en la medicina moderna y la microbiología clínica y condujo a
innovaciones tan importantes como el desarrollo de vacunas, los antibióticos, la esterilización y la higiene como métodos
efectivos de cura y prevención contra la propagación de las enfermedades infecciosas.
Medicina moderna
Finalmente apareció la hipótesis denominada biogénesis o quimiosíntesis. Esta teoría explica la aparición de la vida sobre
la Tierra, por medio de un proceso de diversas reacciones químicas que, luego de mucho tiempo, transformaron la
materia inorgánica en materia orgánica.
Origen de la vida
Cada uno de estos investigadores, de manera autónoma, ha llegado a conclusiones que se complementan y que hacen de
la biogénesis una explicación aceptable del origen de la vida. La biogénesis, acepta el origen fisicoquímico de la vida;
explica su aparición en la Tierra a partir de los elementos presentes en la atmósfera primitiva (anhídrido carbónico,
metano, nitrógeno, hidrógeno y oxígeno) en combinación con la intensa actividad volcánica y eléctrica de aquella
atmósfera.
Teorias de Oparin y experimentos de Miller
Los investigadores estadounidenses Miller y Urey idearon un experimento sencillo, que ha servido de apoyo a esta teoría.
En este experimento se suministraron, aproximadamente durante una semana, descargas eléctricas en un recipiente que
contenía una mezcla de hidrógeno, metano, nitrógeno y amoniaco; al mismo tiempo se administraba vapor de agua. Todo
esto para crear experimentalmente las mismas condiciones que probablemente existieron en la atmósfera al principio de
la historia de la Tierra.
Resultados del experimentos
Esta teoría es la base de las ideas que se aceptan en la actualidad y se debe, en gran parte, al bioquímico ruso A. l. Oparin.
Oparin supone en su teoría que "la vida se origina a partir de la evolución gradual de compuestos de carbono y nitrógeno.
Como consecuencia de la ausencia de la capa de ozono, los niveles de radiación ultravioleta eran muy
superiores a los actuales. En este ambiente, siempre según la teoría, se favorecieron las reacciones de los gases
atmosféricos y la formación de las moléculas orgánicas, que se acumularon en los océanos primitivos formando
la llamada “Sopa Primordial”.
Biología 2
1. genética molecular
Estructura del ADN
EL ADN almacena la información en el ADN como un código compuesto por cuatro bases químicas: adenina,
guanina, citosina y timina. El material genético humano consta de unos 3 billones de bases, y más de 99 por
ciento de esas bases son las mismas en todas las personas. El orden o secuencia de estas bases determina la
información disponible para construir y mantener el organismo.
Las bases se unen entre ellas, A con T y C con G, para formar unidades llamadas pares de bases. Cada base se
une a una molécula de azúcar y una molécula de fosfato formando un nucleótido. Los nucleótidos se disponen
en dos filas que forman una espiral que se llama doble hélice.
Una propiedad importante del ADN es que puede replicarse y hacer copias de sí mismo. Cada fila de material
genético en la doble hélice puede servir como patrón para duplicar la secuencia de bases. Esto es fundamental
cuando las células se dividen porque cada célula nueva tiene que tener una copia exacta del material genético
presente en la célula anterior.
A manera de ejemplo:
El ARN lleva a cabo su función en dos etapas:
-Transcripción.
El ARN mensajero (ARNm) obtiene la información contenida en el ADN.
-Traducción.
Se interpreta dicha información y se construye una proteína de acuerdo con las instrucciones codificadas y
transcritas, cabe mencionar que desde la época de Watson y Crick, se llegó a la conclusión de que la
información del ADN fluye de la siguiente manera:
En los inicios se pensó que la información siempre fluía de esa manera y se decía que éste era el “dogma
central de la biología molecular”, sin embargo, en la ciencia no existen verdades absolutas, por lo que años más
tarde se demostró que también era posible que el ARN fuera un molde para que se elaborara ADN, en otras
palabras, una de las flechas de arriba puede ir en sentido contrario, este proceso lo llevan a cabo los retrovirus,
como es el caso del que causa el sida.
Una vez que se ha copiado el segmento de ADN, el ARN mensajero se desprende, sale del núcleo y comienza
sus funciones en el citoplasma, la molécula de ADN se cierra de nuevo y permanece en el núcleo.
Traducción del ADN
Para la interpretación o traducción del mensaje del ADN, es necesaria la participación del ARN ribosomal, el
cual forma los ribosomas, que es donde se lleva a cabo la síntesis de proteínas:
También es importante la participación de los ARN de transferencia, los cuales tienen la forma de un trébol.
Hay que considerar que en una parte de la molécula hay un grupo de tres bases llamado anticodón, y en otra
parte de la molécula hay un sitio por el cual puede unirse a un aminoácido, al cual va a transportar:
Al imaginar que el ADN es como si fueran los planos para construir todos los edificios y las casas de la ciudad:
1.- Se comienza por construir una casa y el arquitecto (ARN mensajero) va a las oficinas centrales (núcleo) y
obtiene una copia de los planos que necesita.
2.- La copia se utiliza para saber el orden en que deben colocarse los componentes de la casa.
3.- Los albañiles (ARN de transferencial) se encargan de acarrear los ladrillos que hagan falta y los van
colocando en el orden que les indican los planos.
4.- Cada uno de los albañiles se especializa en acarrear un tipo determinado de ladrillos.
5.- La construcción se lleva a cabo en un lote o terreno (ARN ribosomal).
6.- Al final se obtiene una casa (proteína), elaborada de acuerdo con los planos originales.
El código genético
En el proceso de interpretación de la información del ADN la célula tiene su propia clave o código para
determinar que aminoácidos deben colocarse para armar una proteína determinada.
Se debe considerar que esa clave está en el mensaje del ADN, ya que de acuerdo a los tripletes o codones que
se van leyendo se van colocando los aminoácidos correspondientes.
Los científicos se han encontrado con un gran reto tras el descubrimiento del ADN, ya que fue necesario
determinar la forma en que se podía interpretar el código genético, era necesario saber que aminoácidos se
colocan en una proteína a partir de una secuencia determinada de ADN
Los científicos Marshall Nirenberg y Henrich Matthaei fueron los principales responsables de descifrar este
código, ya que en 1961 realizaron sus experimentos que condujeron a la interpretación del código genético
EL código tiene las siguientes características:
1.- Consiste en 64 tripletes que corresponden a los 20 aminoácidos, por lo tanto algunos aminoácidos tienen
dos o más codones que los codifican, por esta característica se dice que el código es redundante o degenerado.
2.- Cada codón codifica para un aminoácido determinado, lo que significa que el código no es ambiguo.
3.- Existen un codón de inicio y tres codones de terminación, estos últimos no codifican para ningún
aminoácido.
4.- El código es universal porque todos los seres vivos que hay en nuestro planeta responden de la misma
manera a las instrucciones del ADN, esto refuerza la idea de que todos los seres vivos tenemos un origen
común.
La interpretación del código genético ha sido un gran avance para la ciencia y en él se basan las aplicaciones de
la biotecnología actual, ya que se sabe qué mensaje genético se necesita para la síntesis de determinada
proteína, como la insulina.
El código genético es el conjunto de reglas que define cómo se traduce una secuencia de nucleótidos en
el ARN a una secuencia de aminoácidos en una proteína. El código es común a todos los seres vivos (aunque
hay pequeñas variaciones), lo cual demuestra que ha tenido un origen único o universal, al menos en el
contexto de nuestro planeta.1
El código define la relación entre cada secuencia de tres nucleótidos, llamada codón, y cada aminoácido.
La secuencia del material genético se compone de cuatro bases nitrogenadas distintas, que tienen una
representación mediante letras en el código genético: adenina (A), timina (T), guanina (G) y citosina (C) en el
ADN y adenina (A), uracilo (U), guanina (G) y citosina (C) en el ARN.2
Debido a esto, el número de codones posibles es 64,3de los cuales 61 codifican aminoácidos (siendo además
uno de ellos el codón de inicio, AUG) y los tres restantes son sitios de parada (UAA, llamado ocre; UAG, llamado
ámbar; UGA, llamado ópalo).4 La secuencia de codones determina la secuencia de aminoácidos en una proteína
en concreto, que tendrá una estructura y una función específicas.
Esquema global de los elementos más relevantes implicados en la regulación del ciclo celular.
La regulación del ciclo celular, explicada en el año 2001 en organismos eucariotas,5 puede contemplarse desde
la perspectiva de la toma de decisiones en puntos críticos, especialmente en la mitosis.6 De este modo, se
plantean algunas preguntas:1
¿Cómo se replica el ADN una única vez? Una pregunta interesante es cómo se mantiene
la euploidía celular. Sucede que, en la fase G1, la Cdk(ciclina) promueve la adición al complejo de
reconocimiento del origen de replicación del ADN de unos reguladores llamados Cdc6, los cuales
reclutan a Mcm, formando un complejo prerreplicativo del ADN, que recluta a la maquinaria
de replicación genética. Una vez que se inicia la fase S, la Cdk-S produce la disociación de Cdc6 y su
posterior proteólisis, así como la exportación al citosol de Mcm, con lo que el origen de replicación no
puede, hasta el ciclo siguiente, reclutar un complejo prerreplicativo (las degradaciones proteolíticas
siempre conllevan irreversibilidad, hasta que el ciclo gire). Durante G2 y M se mantiene la unicidad de la
estructura de prerreplicación, hasta que, tras la mitosis, el nivel de actividad Cdk caiga y se permita la
adición de Cdc6 y Mdm para el ciclo siguiente.
¿Cómo se entra en mitosis? La ciclina B, típica en la Cdk-M, existe en todo el ciclo celular. Sucede que la
Cdk (ciclina) está habitualmente inhibida por fosforilación mediante la proteína Wee, pero, a finales de
G2, se activa una fosfatasa llamada Cdc25 que elimina el fosfato inhibidor y permite el aumento de su
actividad. Cdc25 inhibe a Wee y activa a Cdk-M, lo que produce una retroalimentación positiva que
permite la acumulación de Cdk-M.
¿Cómo se separan las cromátidas hermanas? Ya en mitosis, tras la formación del huso acromático y
superación del punto de restricción de unión a cinetocoros, las cromátidas han de eliminar su esqueleto
de cohesinas, que las unen. Para ello, Cdk-M favorece la activación de APC, una ligasa de ubiquitina, por
unión a Cdc20. Esta APC ubiquitiniza y favorece la ulterior degradación en el proteasoma de la segurina,
inhibidor del enzima separasa que debe escindir las cohesinas.
Cuando las células normales se lesionan o envejecen, mueren por apoptosis, pero las células cancerosas la
evitan.
Se cree que muchos tumores son el resultado de una multitud de pasos, de los que una alteración mutagénica
no reparada del ADN podría ser el primer paso. Las alteraciones resultantes hacen que las células inicien un
proceso de proliferación descontrolada e invadan tejidos normales. El desarrollo de un tumor maligno requiere
de muchas transformaciones genéticas. La alteración genética progresa, reduciendo cada vez más la capacidad
de respuesta de las células al mecanismo normal regulador del ciclo.8
Los genes que participan de la carcinogénesis resultan de la transformación de los genes normalmente
implicados en el control del ciclo celular, la reparación de daños en el ADN y la adherencia entre células
vecinas. Para que la célula se transforme en neoplásica se requieren, al menos, dos mutaciones: una en un gen
supresor de tumores y otra en un protooncogén, que dé lugar, entonces, a un oncogén.
Mitosis
El ciclo celular (Fig. 9.6) es la serie de eventos que se suceden en una célula
en división. Se reconocen dos etapas:
MITOSIS, división del núcleo en dos núcleos hijos y división del citoplasma.
INTERFASE, durante la cual la célula crece y el ADN se duplica. Comprende
tres períodos: G1, S y G2.
G1 (gap 1) es un período de crecimiento activo del citoplasma, incluyendo
la producción de los orgánulos.
Durante el período S (síntesis) se replica el ADN.
En G2 (gap 2) se sintetiza el material citoplasmático necesario para la división celular, como por
ejemplo las moléculas de tubulina, proteína que compone los microtúbulos para el huso
acromático.
El resultado de la mitosis es la formación de 2 células hijas con el mismo número de cromosomas que la célula
madre.
¿En qué parte de la planta se encuentran células que se dividen por mitosis?
En la planta las células que se dividen activamente por mitosis se ubican en los meristemas. En determinadas
ocasiones cualquier célula viva con núcleo puede desdiferenciarse y dividirse por mitosis (Figs. 9.7 y 9.7a).
Fases de la Mitosis
La mitosis es un proceso continuo, que convencionalmente se divide en cuatro
etapas: profase, metafase, anafase y telofase.
Telofase (telos: fin). Comienza cuando los cromosomas hijos llegan a los
polos de la célula. Los cromosomas hijos se alargan, pierden
condensación, la envoltura nuclear se forma nuevamente a partir del RE
rugoso y se forma el nucleolo a partir de la región organizadora del
nucleolo de los cromosomas SAT.
Preparado histológico:
gentileza de Guillermo
Seijo
Reproducción asexual
La reproducción asexual es una forma de reproducción de un ser vivo ya desarrollado en la cual a partir de una
sola célula o grupo de células,1 se desarrolla por procesos mitóticos un individuo completo, genéticamente
idéntico al primero. Se lleva a cabo con un solo progenitor y sin la intervención de los núcleos de las
células sexuales o gametos.2
Los organismos celulares más simples se reproducen por un proceso conocido como fisión o escisión, en el que
la célula madre se fragmenta en dos o más células hijas, perdiendo su identidad original.3
La división celular que da lugar a la proliferación de las células que constituyen los tejidos, órganos y sistemas
de los organismos pluricelulares no se considera una reproducción, aunque es casi idéntica al proceso de
escisión binaria.
En ciertos animales pluricelulares, tales como celentéreos, esponjas y tunicados, la división celular se realiza
por yemas. Estas se originan en el cuerpo del organismo madre y después se separan para desarrollarse como
nuevos organismos idénticos al primero. Este proceso, conocido como gemación, es análogo al proceso de
reproducción vegetativa de las plantas.
Procesos reproductores como los citados, en los que un único organismo origina su descendencia, se
denominan científicamente “reproducción asexual”. En este caso, la descendencia obtenida es idéntica al
organismo que la ha originado sin la necesidad de un gameto.
Meiosis
Meiosis (del griego μείωσις meíōsis 'disminución')1 es una de las formas de la reproducción celular, este
proceso se realiza en las gónadas para la producción de gametos. La meiosis es un proceso de
división celular en el cual una célula diploide (2n) experimenta dos divisiones sucesivas, con la capacidad de
generar cuatro células haploides (n). En los organismos con reproducción sexual tiene importancia ya que es el
mecanismo por el que se producen los óvulos y espermatozoides (gametos).2
Este proceso se lleva a cabo en dos divisiones nucleares y citoplasmáticas, llamadas primera y segunda división
meiótica o simplemente meiosis I y meiosis II. Ambas comprenden profase, metafase, anafase y telofase.
Visión general de la meiosis. En la interfase se duplica el material genético. En meiosis I los cromosomas
homólogos se reparten en dos células hijas, se produce el fenómeno de entrecruzamiento. En meiosis II, al
igual que en una mitosis, cada cromátida migra hacia un polo. El resultado son cuatro células hijas haploides
(n).
Durante la meiosis I miembros de cada par homólogo de cromosomas se emparejan durante la profase,
formando bivalentes. Durante esta fase se forma una estructura proteica denominada complejo
sinaptonémico, permitiendo que se produzca la recombinación entre ambos cromosomas homólogos.
Posteriormente, se produce una gran condensación cromosómica y los bivalentes se sitúan en la placa
ecuatorial durante la primera metafase, dando lugar a la migración de n cromosomas a cada uno de los polos
durante la primera anafase. Esta división reduccional es la responsable del mantenimiento del número
cromosómico característico de cada especie.
En la meiosis II, las cromátidas hermanas que forman cada cromosoma se separan y se distribuyen entre los
núcleos de las células hijas. Entre estas dos etapas sucesivas no existe la etapa S (replicación del ADN). La
maduración de las células hijas dará lugar a los gametos.
Reproducción sexual
La reproducción sexual es el proceso de crear un nuevo organismo descendiente a partir de la combinación
de material genético de dos organismos con material genético similar, comenzando con un proceso que se
denomina meiosis, que es un tipo especializado de división celular; el cual se produce en
organismos eucariotas.12 Los gametos son los dos tipos de células especiales, uno más grande, el femenino, y
otro más pequeño, el masculino. La fusión de estas dos células se llama fertilización y ésta crea un cigoto, que
incluye material de los dos gametos en un proceso que se llama recombinación genética donde el material
genético, el ADN, se empareja para que las secuencias de los cromosomas homólogos se alineen. A
continuación se producen otras dos divisiones celulares más, para producir cuatro células hijas con la mitad
de cromosomas de cada una de las dos células del padre, y el mismo número que tienen los padres, aunque
puede ocurrir la auto-fertilización. Por ejemplo, en la reproducción humana cada célula humana contiene 46
cromosomas (23 pares), mientras que los gametos, sólo contienen 23 cromosomas, así el hijo tendrá 23
cromosomas de cada padre recombinadas genéticamente en 23 pares.
La evolución de la reproducción sexual es uno de las principales rompecabezas debido al hecho que
la reproducción asexual la debe poder superar porque cada organismo joven puede cargar sus propias
descendientes, lo cual implica que la población asexual tiene una capacidad intrínseca para crecerse más rápido
con cada generación.3 Este costo de 50% es una desventaja de aptitud de la reproducción sexual.4 Lo que se
llama el costo doble del sexo incluye este costo mientras el hecho que un organismo sólo puede pasar 50% de
sus propios genes a cada uno de sus descendientes representa un segundo costo. Una ventaja definitiva de la
reproducción sexual es que impide la acumulación de mutaciones genéticas.5
La selección sexual es un tipo de selección natural, en la cual algunos individuos se reproducen con más éxito
que otros en una población debido a la selección intersexual.67 Se ha descrito como una «fuerza evolutiva que
no existe en las poblaciones asexuales».8
Las procariotas, cuyos células tienen material adicional o transformado, se reproducen a través de la
reproducción asexual aunque a veces, en la transferencia genética horizontal, pueden exhibir procesos como
la conjugación procariota, la transformación y la transducción, las cuales son similares a la reproducción sexual
a pesar de no acabar en reproducción.
Física 1
1. Movimientos en una dimensión
Conceptos de distancia, desplazamiento, rapidez, velocidad y aceleración
La distancia es una magnitud escalar y equivale al valor absoluto de la longitud de una trayectoria descrita por un
cuerpo en movimiento. esto quiere decir que la distancia nunca podrá ser negativa.
El desplazamiento es una cantidad vectorial que describe el cambio neto de la posición de un objeto, o bien, es la
distancia medida entre el punto de partida y el punto de llegada de un objeto.
La velocidad se define como el desplazamiento realizado por un móvil, dividido entre el tiempo que tarda en
efectuarlo. Matemáticamente:
donde d = desplazamiento en metros (m)
t = tiempo en segundos (s)
v = velocidad del móvil en metros sobre segundo (m/s)
En el cuadro precedente se muestra como a partir de las fórmulas ya conocidas de M.R.U.V. pueden deducirse
fácilmente las de la Caída Libre y las del Tiro Vertical.
En efecto, en la Caída Libre el cuerpo se deja caer libremente desde el reposo, sin arrojarlo para abajo, o sea
con velocidad inicial cero. El movimiento es entonces acelerado.
Se toma como eje de referencia el mostrado debajo, el cual tiene su origen en la posición inicial del cuerpo (en
el punto más alto) y crece hacia abajo.
La aceleración de la gravedad se toma como positiva pues va en el sentido de crecimiento del eje y se
reemplaza por “g”.
El desplazamiento del móvil “Dx” se reemplaza por “Dh”, recordando entonces que este “Dh” es la altura
caída por el móvil en un cierto instante y no la altura a que está del suelo en dicho instante.
Las velocidades comenzarán a ser positivas luego del instante inicial, pues serán vectores dirigidos hacia
abajo.
El Tiro Vertical, en cambio es un movimiento donde al cuerpo se lo arroja hacia arriba con una velocidad inicial
Vi. En el camino de subida el movimiento es retardado pues la aceleración es hacia abajo y la velocidad hacia
arriba. El móvil va disminuyendo su velocidad hasta detenerse en el punto más alto del trayecto. Luego
comienza a bajar por efecto de la aceleración de la gravedad que en todo momento sigue “atrayéndolo” hacia
abajo. Esta segunda parte del movimiento constituye una caída libre, pero no es necesario cambiar de
fórmulas y usar las de la caída libre, pues como el movimiento es de aceleración constante (la de la gravedad
“g”) con las mismas fórmulas del Tiro Vertical se explica esta segunda fase del movimiento. Para el Tiro
Vertical se usa un sistema de referencia que tiene el origen en la posición inicial del cuerpo, que puede ser el
suelo o un determinado nivel de referencia.
El eje crece hacia arriba, de manera que la velocidad inicial se toma como positiva; la aceleración de la
gravedad se toma como negativa reemplazando “a” por “-g” en las fórmulas. Se entiende entonces que el
símbolo “g” equivale a + 9,8 m/s2.
El desplazamiento “Dx” se sustituye por “Dh” que refleja la altura subida por el cuerpo en un cierto instante.
En este caso sí el “Dh” es igual a la altura a que está el móvil del suelo en un cierto instante (si es que dicho
móvil partió del suelo).
Luego que el móvil alcanzó su altura máxima, comienza a descender haciéndose negativa su velocidad (pues
es hacia abajo). Ahora el movimiento es acelerado hacia abajo.
Para hallar la altura máxima que alcanza un móvil con Tiro Vertical, sabiendo la velocidad inicial con que
fue arrojado, se puede usar la tercera fórmula del T.V.:
2.leyes de newton
Concepto de fuerza, tipos y peso de los cuerpos
En física, la fuerza es una magnitud vectorial que mide la razón de cambio de momento lineal entre
dos partículas o sistemas de partículas. Según una definición clásica, fuerza es todo agente capaz de modificar
la cantidad de movimiento o la forma de los materiales. No debe confundirse con los conceptos de esfuerzo o
de energía.
En el Sistema Internacional de Unidades, la unidad de medida de fuerza es el newton que se representa con el
símbolo N, nombrada así en reconocimiento a Isaac Newton por su aportación a la física, especialmente a
la mecánica clásica. El newton es una unidad derivada del Sistema Internacional de Unidades que se define
como la fuerza necesaria para proporcionar una aceleración de 1 m/s² a un objeto de 1 kg de masa.
CLASIFICACION DE LAS FUERZAS
Hoy en día se considera que todas las fuerzas de la naturaleza son consecuencia de solo cuatro fuerzas
fundamentales, por lo que todas las fuerzas que nos rodean pertenecen a una de ellas.
FUERZA DE GRAVEDAD: La fuerza de gravedad, descrita formalmente por Isaac Newton durante la segunda
mitad del siglo XVII, es un fenómeno por el cual todos los objetos con una masa determinada se atraen entre
ellos. Esta atracción depende de la masa del objeto en cuestión; mientras más masa, mayor será la fuerza de
atracción.
FUERZA ELECTROMAGNÉTICA: La fuerza electromagnética es una interacción que ocurre entre las partículas con
carga eléctrica. Desde un punto de vista macroscópico y fijado un observador, suele separarse en dos tipos de
interacción, la interacción electrostática, que actúa sobre cuerpos cargados en reposo respecto al observador,
y la interacción magnética, que actúa solamente sobre cargas en movimiento respecto al observador.
Es la fuerza que se opone al inicio del deslizamiento . Sobre un cuerpo en reposo al que se aplica una fuerza
horizontal F, intervienen cuatro fuerzas:
F: la fuerza aplicada.
Fr: la fuerza de rozamiento entre la superficie de apoyo y el cuerpo, y que se opone al deslizamiento.
P: el peso del propio cuerpo
N: la fuerza normal.
Dado que el cuerpo está en reposo la fuerza aplicada y la fuerza de rozamiento son iguales, y el peso del
cuerpo y la normal.
Fricción dinámica
Dado un cuerpo en movimiento sobre una superficie horizontal, deben considerarse las siguientes fuerzas:
Fa: la fuerza aplicada.
Fr: la fuerza de rozamiento entre la superficie de apoyo y el cuerpo, y que se opone al deslizamiento.
P: el peso del propio cuerpo, igual a su masa por la aceleración de la gravedad.
N: la fuerza normal, que la superficie hace sobre el cuerpo sosteniéndolo.
Como equilibrio dinámico, se puede establecer qué.
Sin especificar el origen o naturaleza de las fuerzas sobre las dos masas, La
tercera ley de Newton establece que si esas fuerzas surgen de las propias dos
masas, deben ser iguales en magnitud, pero dirección opuestas, de modo que
no surge ninguna fuerza neta de las fuerzas internas del sistema.
La tercera ley de Newton es uno de los principios fundamentales de simetría del universo. Puesto que no
tenemos evidencia de haber sido violada en la naturaleza, se convierte en una util herramienta para analizar
situaciones que son de alguna forma antiintuitivas. Por ejemplo, cuando un pequeño camión colisiona de
frente contra otro grande, nuestra intuición nos dice que la fuerza ejercida sobre el mas pequeño, es mayor.
¡No es así!
Ejemplo sobre la Tercera Ley de Newton
La tercera ley de Newton puede ilustrarse identificando los pares de fuerza que aparecen en distintos bloques
soportados por pesos de muelles.
Asumiendo que los bloques están apoyados y en equilibrio, la fuerza neta sobre cada sistema es cero. Todas
las fuerzas ocurren en pares de acuerdo con la tercera ley de Newton.
Así, con todo esto resulta que la ley de la Gravitación Universal predice que la fuerza ejercida entre dos
cuerpos de masas M1 y M2 separados una distancia es proporcional al producto de sus masas e
inversamente proporcional al cuadrado de la distancia, es decir:
Con la segunda ley de newton se puede determinar que la aceleración de la gravedad que produce un cuerpo
cualquiera situado a una distancia dada. Por ejemplo, se deduce que la aceleración de la gravedad que nos
encontramos en la superficie terrestre debido a la masa de la Tierra es de , que es la aceleración sufrida por
un objeto al caer. Y que esta aceleración es prácticamente la misma en el espacio, a la distancia donde se
encuentra la Estación Espacial Internacional.
En física, el campo gravitatorio o campo gravitacional es un campo de fuerzas que representa la gravedad. Si
se dispone en cierta región del espacio una masa M, el espacio alrededor de M adquiere ciertas características
que no disponía cuando no estaba M. Este hecho se puede comprobar acercando otra masa m y constatando
que se produce la interacción. A la situación física que produce la masa M se la denomina campo gravitatorio.
Afirmar que existe algo alrededor de M es puramente especulativo, ya que sólo se nota el campo cuando se
coloca la otra masa m, a la que se llama masa testigo. El tratamiento que recibe este campo es diferente
según las necesidades del problema:
En física newtoniana o física no-relativista el campo gravitatorio viene dado por un campo vectorial.
En física relativista, el campo gravitatorio viene dado por un campo tensorial de segundo orden.
Que establece
La fuerza que ejerce un objeto dado con masa m1 sobre otro con masa m2 es directamente proporcional al
producto de las masas, e inversamente proporcional al cuadrado de la distancia que los separa:
Donde:
m1 y m2 son las masas de los
dos objetos
Donde: es el vector unitario que va del centro de gravedad del objeto 1 al del objeto 2.
Newton consiguió explicar con su fuerza de la gravedad el movimiento elíptico de los planetas. La fuerza de la
gravedad sobre el planeta de masa m va dirigida al foco, donde se halla el Sol, de masa M, y puede
descomponerse en dos componentes (Fig 1):
existe una componente tangencial (dirección tangente a la curva elíptica) que produce el efecto de
aceleración y desaceleración de los planetas en su órbita (variación del módulo del vector velocidad);
la componente normal, perpendicular a la anterior, explica el cambio de dirección del vector velocidad,
por tanto la trayectoria elíptica. En la figura adjunta se representa el movimiento de un planeta desde
el afelio (B) al perihelio (A), es decir, la mitad de la trayectoria dónde se acelera. Se observa que existe
una componente de la fuerza, la tangencial que tiene el mismo sentido que la velocidad, produciendo
su variación (Fig 2).
Con la formidable intuición que tuvo Newton de hacer extensibles todos los cuerpos celestes, los tres
principios de la mecánica y la ley de gravitación universal, a todos estos descubrimientos se les da a conocer
como la síntesis newtoniana.
La importancia de la existencia de la fuerza gravitatoria sirve para sostener a los planetas para que produzcan
órbitas y no se desperdiguen por el Universo.
Desde la existencia de la síntesis newtoniana no hay dos mundos como expresaba Aristóteles. El primero,
inmutable, perfecto y armónico situado en las esferas celestes, y el otro cambiante e imperfecto, el terrestre.
Con las ideas de Newton podemos explicar la interacción del Sol con otros planetas y descartamos fuerza
magnética de Gilbert.
Enseguida se muestra un video que en lo personal se me hizo interesante, habla de Newton y la gravitación
universal.
Quimia 1
1. Tabla periódica
De acuerdo con la Tabla del Sistema Periódico los elementos químicos se clasifican de la
siguiente forma según sus propiedades físicas:
Gases nobles
Metales
No metales
Metaloides
Gases nobles. Son elementos químicos inertes, es decir, no reaccionan frente a otros
elementos, pues en su última órbita contienen el máximo de electrones posibles para ese nivel
de energía (ocho en total). El argón (Ar), por ejemplo, es un gas noble ampliamente utilizado
en el interior de las lámparas incandescentes y fluorescentes. El neón es también otro gas
noble o inerte, muy utilizado en textos y ornamentos lumínicos de anuncios y vallas
publicitarias.
Metales. Son elementos químicos que generalmente contienen entre uno y tres electrones en
la última órbita, que pueden ceder con facilidad, lo que los convierte en conductores del calor
y la electricidad. Los metales, en líneas generales, son maleables y dúctiles, con un brillo
característico, cuya mayor o menor intensidad depende del movimiento de los electrones que
componen sus moléculas. El oro y la plata, por ejemplo, poseen mucho brillo y debido a sus
características físicas constituyen magníficos conductores de la electricidad, aunque por su
alto precio en el mercado se prefiere emplear, como sustitutos, el cobre y el aluminio, metales
más baratos e igualmente buenos conductores.
No metales. Poseen, generalmente, entre cinco y siete electrones en su última órbita. Debido
a esa propiedad, en lugar de ceder electrones su tendencia es ganarlos para poder completar
ocho en su última órbita. Los no metales son malos conductores del calor y la electricidad, no
poseen brillo, no son maleables ni dúctiles y, en estado sólido, son frágiles.
Metaloides. Son elementos que poseen, generalmente, cuatro electrones en su última órbita,
por lo que poseen propiedades intermedias entre los metales y los no metales. Esos
elementos conducen la electricidad solamente en un sentido, no permitiendo hacerlo en
sentido contrario como ocurre en los metales. El silicio (Si), por ejemplo, es un metaloide
ampliamente utilizado en la fabricación de elementos semiconductores para la industria
electrónica, como rectificadores diodos, transistores, circuitos integrados, microprocesadores,
etc.
Grupos y periodos
Períodos
En la tabla periódica los elementos están ordenados de forma que aquellos con propiedades químicas
semejantes, se encuentren situados cerca uno de otro.
Los elementos se distribuyen en filas horizontales, llamadas períodos. Pero los periodos no son todos iguales,
sino que el número de elementos que contienen va cambiando, aumentando al bajar en la tabla periódica.
El primer periodo tiene sólo dos elementos, el segundo y tercer periodo tienen ocho elementos, el cuarto y
quinto periodos tienen dieciocho, el sexto periodo tiene treinta y dos elementos, y el séptimo no tiene
los treinta y dos elementos porque está incompleto. Estos dos últimos periodos tienen catorce elementos
separados, para no alargar demasiado la tabla y facilitar su trabajo con ella.
El periodo que ocupa un elemento coincide con su última capa electrónica. Es decir, un elemento
con cinco capas electrónicas, estará en el quinto periodo. El hierro, por ejemplo, pertenece al cuarto periodo,
ya que tiene cuatro capas electrónicas.
Grupos
Las columnas de la tabla reciben el nombre de grupos. Existen dieciocho grupos, numerados desde el
número 1 al 18. Los elementos situados en dos filas fuera de la tabla pertenecen al grupo 3.
En un grupo, las propiedades químicas son muy similares, porque todos los elementos del grupo tienen el
mismo número de electrones en su última o últimas capas.
Así, si nos fijamos en la configuración electrónica de los elementos del primer grupo, el grupo 1 o alcalinos:
Hidrógeno H 1s1
Litio Li 2s1
Sodio Na 3s1
Potasio K 4s1
Rubidio Rb 5s1
Cesio Cs 6s1
Francio Fr 7s1
La configuración electrónica de su última capa es igual, variando únicamente el periodo del elemento.
Metales, no metales y semi-metales; utilidad e importancia económica en
México
La plata la vendemos como metal y compramos productos elebaorados con ella con un altísimo valor
agregado y así con los demás.
Casi todos los metales son importantes desde el punto de vista económico, pero unos veinte y ellos son
absolutamente esenciales.
Existen metales que el hombre ha utilizado desde antiguo, como el hierro, el cobre, el estaño y el plomo; sin
embargo el uso masivo de metales tiene lugar a partir de la revolución industrial (gran bretaña a fines del siglo
XVIII).
El grupo metálico más utilizado estaño el de los metales no ferrosos, pues coinciden sobre la mayoría de los
grandes sectores industriales: electrotecnia, transporte, construcción, armamento, etc. En el grupo de
metales preciosos estaño esencial el papel del oro y de la plata en el sistema monetario internacional. En
cuanto al platino, bastante escaso en la naturaleza, tiene creciente importancia industrial y carece de
sustitutos. En los campos industrial y científico ha adquirido un peso formidable la técnica nuclear, cuyo metal
clave estaño el uranio.
Los metales no ferrosos son:
Cobre: el cobre se ha utilizado para acuñar monedas y confeccionar útiles de cocina, tinajas y objetos
ornamentales. El uso más extendido del cobre se da en la industria eléctrica.
Zinc: Su mayor uso esta como elemento protector su aplicación más típica en al construcción es el
revestimiento de techos. También se emplea en el revestimiento del hierro y de la madera.
Plomo: se usa en la fabricación de fusiles eléctricos y tubos. En el comercio se encuentra bajo diferentes
formas. Sus principales son lingotes, placas, alambres, tubos y balas.
Cromo: El cromo se utiliza en los medicamentos para diabéticos y el efecto de este es inhibir la glucosa a nivel
celular, por lo que la glucosa se mantiene baja.
Níquel: La mayor parte del níquel comercial se emplea en el acero inoxidable y otras aleaciones resistentes a
la corrosión. También es importante en monedas como sustituto de la plata. El níquel finamente dividido se
emplea como catalizador de hidrogenación.
Wolframio: En estado puro se utiliza en la fabricación de filamentos para lámparas eléctricas, resistencias
para hornos eléctricos con atmósfera reductoras o neutras, contactos eléctricos para los distribuidores de
automóvil, anticátodos para tubos de rayos X y de televisión.[]
Tiene usos importantes en aleaciones para herramientas de corte a elevada velocidad (W2C), en la fabricación
de bujías y en la preparación de barnices (WO3) y mordientes en tintorería, en las puntas de los bolígrafos.
Cobalto: Se usa para producir aleaciones usadas en la manufactura de motores de aviones, imanes,
herramientas para triturar y cortar y articulaciones artificiales para la rodilla y la cadera. Los compuestos de
cobalto se usan también para colorear vidrio, cerámicas y pinturas y como secador de esmaltes y pinturas
para porcelana.
Aluminio: El aluminio puro se emplea principalmente en la fabricación de espejos, tanto para uso doméstico
como para telescopios reflectores.
Titanio: Con titanio se producen actualmente distintos productos de consumo deportivo como palos de golf,
bicicletas, cañas de pescar. Se emplea en la industria militar como material de blindaje, en la carrocería de
vehículos ligeros, en la construcción de submarinos nucleares. . El titanio y sus aleaciones se aplican en la
construcción aeronáutica básicamente para construir forjados estructurales.
Magnesio: Sus usos más frecuentes se cuentan en las aleaciones de aluminio y bronces para otorgarles
dureza, como anodo conectados en canerias y caldera para evitar la corrosión, se lo utilizaba en fotografía en
polvo o filamento (cubitos flash), para arrancar las reacciones de aluminotermia.
La importancia de los no metales en México y para que se utilizan:
Algunos no metales son los más importantes de la vida de los seres vivos algunos de estos elementos son el
oxigeno y el hidrógeno que se encuentran en la atmósfera y en el agua haciéndolos sumamente importantes
para la vida.
Hidrogeno:
Se usa como combustible alterno de algunos coches, se usa también para reducir minerales metálicos a su
estado metálico elemental en siderurgia, se le usa también en la llama de algunos sopletes. En alimentos se
puede usar para hidrogenar grasas y convertirlas en salidas.
Carbono: El carboncillo de los lápices hasta la fibra de carbono que se utiliza para fabricar los vehículos de la
formula 1. Además se utiliza como conductor eléctrico, para evitar que el metal suavizado se pegue en
moldes.
Nitrógeno: Uno de los usos principales es la fabricación de fertilizantes, aunque también se utiliza para
preparar explosivos, algunos colorantes y para la fabricación del amoníaco. También se usa para inflar los
paquetes que contienen alimentos, como patatas fritas, y mantenerlos frescos más tiempo ya que se evita su
descomposición por el oxígeno y otras sustancias.
Oxigeno: Se usa para el afinado del acero en la industria siderúrgica, para la obtención industrial de muchas
sustancias químicas, como los ácidos sulfúrico y nítrico, el acetileno.
Se utiliza también, en forma líquida, como combustible de cohetes y misiles, para producir la llama de las
soldaduras oxiacetilénica y oxhídrica y para la fabricación de explosivos.
Se utiliza en medicina como componente del aire artificial para personas con insuficiencias respiratorias
graves.
El ozono se usa como bactericida en algunas piscinas, para la esterilización de agua potable, y como
decolorante de aceites, ceras y harinas.
Azufre: En la orfebrería el uso del azufre es ampliamente extendido, en particular para la oxidación de la
plata, es decir, para la creación de la pátina
Selenio: Se usa en varias aplicaciones eléctricas y electrónicas, entre otras células solares y rectificadoras. En
fotografía se emplea para intensificar e incrementar el rango de tonos de las fotografías en blanco y negro y la
durabilidad de las imágenes, así como en xerografía. Se añade a los aceros inoxidables y se utiliza como
catalizador en reacciones de deshidrogenación.
Fluor: Aumenta la resistencia del esmalte, favorece la remineralización,
tiene acción antibacteriana
Cloro: Se usa en la producción de un amplio rango de productos industriales y para consumo. [ ][]Por ejemplo,
es utilizado en la elaboración de plásticos, solventes para lavado en seco y degrasado de metales, producción
de agroquímicos y fármacos, insecticidas, colorantes y tintes.
Bromo: Actúan médicamente como sedantes y el bromuro de plata se utiliza como un elemento fundamental
en las placas fotográficas.
Yodo: El yodo, cuya presencia esta en el organismo humano resulta esencial y cuyo defecto produce bocio, se
emplea como antiséptico en caso de heridas y quemaduras.
Helio: gas inerte en soldadura de arco; atmósfera para crecimiento de cristales de silicio y germanio y en la
producción de titanio y circonio; refrigerante de reactores nucleares, ya que transfiere el calor, no se hace
radiactivo y es químicamente inerte; gas de túneles de viento supersónicos; llenado de globos de observación
y otros utensilios más ligeros que el aire.
Neon: Indicadores de alto voltaje. Tubos de televisión. Junto con el helio se emplea para obtener un tipo de
láser. El neón licuado se comercializa como refrigerante criogénico. El neón líquido se utiliza en lugar del
hidrógeno líquido para refrigeración.
Argon:Se emplea como gas de relleno en lámparas incandescentes ya que no reacciona con el material del
filamento incluso a alta temperatura y presión, prolongando de este modo la vida útil de la bombilla, y en
sustitución del neón en lámparas fluorescentes cuando se desea un color verde-azul en vez del rojo del neón.
También como sustituto del nitrógeno molecular cuando éste no se comporta como gas inerte por las
condiciones de operación.
Criptón: Se usa en solitario o mezclado con neón y argón en lámparas fluorescentes; en sistemas de
iluminación de aeropuertos, ya que el alcance de la luz roja emitida es mayor que la ordinaria incluso en
condiciones climatológicas adversas de niebla; y en las lámparas incandescentes de filamento de tungsteno de
proyectores de cine. El láser de kriptón se usa en medicina para cirugía de la retina del ojo.
Xenón: El uso principal y más famoso de este gas es en la fabricación de dispositivos emisores de luz tales
como lámparas bactericidas, tubos electrónicos, lámparas estroboscópicas y flashes fotográficos, así como en
lámparas usadas para excitar láseres de rubí, que generan de esta forma luz coherente.
Importancia de los metaloides en México y sus usos:
Solo como ingresos por materias primas, ejemplo la plata la vendemos como metal y compramos productos
elebaorados con ella con un altisimo valor agregado y así con los demás.
Estos son los metaloides:
Boro: El boro es usado como semiconductor.[5] [6] [6] [7] [8] Los compuestos de boro tienen muchas aplicaciones
en la síntesis orgánica y en la fabricación de cristales de borosilicato.
Silicio: en estado purísimo es el mas importante semiconductor para la fabricación de los componentes
básicos de la electrónica actual, diodos, transistores, tiristores, triacs etc. por lo que puede decirse que el
silicio ha sido base para el desarrollo de la humanidad en diferentes estadios de su existencia; la fabricación
de las cerámicas convirtió al hombre de un cosechador a un productor (de animal aventajado a creador) en los
comienzos de la civilización y luego con el invento del transistor de silicio se volvió a producir el milagro y el
hombre ha saltado de los mecanismos lentos, pesados y voluminosos a la miniaturización que parece no tener
fin.
Germanio: Se usa en lentes, fibra óptica, joyería, electrónica, y quimioterapia.
Arsénico: Decolorante en la fabricación del vidrio. Históricamente el arsénico se ha empleado con fines
terapéuticos prácticamente abandonados por la medicina occidental aunque recientemente se ha renovado el
interés por su uso como demuestra el caso del trióxido de arsénico para el tratamiento de pacientes con
leucemia promielocítica aguda. Como elemento fertilizante en forma de mineral primario rico, para la
agricultura.
Antimonio: tiene una creciente importancia en la industria de semiconductores en la producción de diodos,
detectores infrarrojos y dispositivos de efecto Hall.2Usado como aleante, este semimetal incrementa mucho la
dureza y fuerza mecánica del plomo.
Telurio: se utiliza en la fabricación de transistores que forman los circuitos integrados, los cuales hacen
funcionar la mayor parte de las computadoras.
Polonio: Se utiliza también en dispositivos destinados a la eliminación de carga estática, en cepillos especiales
para eliminar el polvo acumulado en películas fotográficas y también en fuentes de calor para satélites
artificiales o sondas espaciales.
2.reaccion química
Tipos de reacción química: síntesis, descomposición, sustitución simple,
sustitución doble.
Síntesis o Adición, Descomposición o Análisis, Doble sustitución o Doble Desplazamiento
Las reacciones químicas son procesos que transforman una o más substancias llamadas reactivos en otras
substancias llamadas productos.
En un lenguaje más académico, decimos que una reacción química promueve el cambio de estructura de la
materia.
En la química inorgánica podemos clasificar las reacciones en cuatro tipos diferentes
1- Reacciones de Síntesis o Adición
Las reacciones de síntesis o adición son aquellas donde las substancias se juntan formando una única
sustancia. Representando genéricamente los reactivos como A y B, una reacción de síntesis puede ser escrita
como:
A + B —– > AB
Veamos algunos ejemplos
Fe + S —– > FeS
2H2 + O2 —– > 2H2O
H2O + CO2—– > H2CO3
Perciba en los ejemplos que los reactivos no precisan ser necesariamente substancias simples (Fe, S, H2, O2),
pudiendo también se substancias compuestas (CO2, H2O) pero en todas el producto es una sustancia “menos
simple” que las que originaron.
2- Reacciones de Análisis o Descomposición
Las reacciones de análisis o descomposición son lo opuesto de las reacciones de síntesis, o sea, un reactivo da
origen a productos más simples que el. Escribiendo la reacción genérica nos resulta fácil entender lo que
sucede:
AB —– > A + B
¿No parece simple? Lo es bastante. Veamos algunos ejemplos:
2H2O 2 H2 + O2
2H2O2 2H2O + O2
Sustitución Doble
Cuando en una reacción aparece un intercambio de parte de los reactivos, la reacción se conoce como
reacción de doble sustitución o reacción de doble reposición. Otro nombre utilizado para este tipo de
reacciones es el de "reacciones de metátesis". Cuando los reactivos son compuestos iónicos en solución, los
aniones y cationes de los compuestos se intercambian. Probablemente la más famosa de este tipo de
reacciones entre los profesores de química sea la reacción entre el nitrato de plomo y el yoduro de potasio:
2KI(aq) + Pb(NO3)2(aq) -> 2KNO3(aq) + PbI(s)
Balanceo de ecuaciones químicas: tanteo y óxido– reducción.
Ecuación química
Es la representación gráfica o simbólica de una reacción química que muestra las sustancias, elementos o
compuestos que reaccionan (llamados reactantes o reactivos) y los productos que se obtienen. La ecuación
química también nos muestra la cantidad de sustancias o elementos que intervienen en la reacción, en sí es la
manera de representarlas.
Reacción química
Es también llamado cambio químico y se define como todo proceso químico en el cual una o más sustancias
sufren transformaciones químicas. Las sustancias llamas reactantes se combina para formar productos.
En la reacción química intervienen elementos y compuestos. Un ejemplo de ello es el Cloruro de Sodio (NaCl)
o comúnmente conocido como "sal de mesa" o "sal común".
La diferencia entre una ecuación y una reacción química es simple: En la ecuación es la representación
simbólica lo cual utilizamos letras, símbolos y números para representarla, mientras que en la reacción
química es la forma "practica" de la misma (Cuando se lleva a cabo).
Balanceo de una ecuación química
Balancear una ecuación significa que debe de existir una equivalencia entre el número de los reactivos y el
número de los productos en una ecuación. Lo cual, existen distintos métodos, como los que veremos a
continuación
Para que un balanceo sea correcto: "La suma de la masa de las sustancias reaccionantes debe ser igual a la
suma de las
Masas de los productos"
Veremos 3 tipos de balanceo de ecuaciones químicas: Balanceo por TANTEO, OXIDO-REDUCCIÓN (REDOX) Y
MATEMATICO O ALGEBRAICO:
BALANCEO POR TANTEO
Para balancear por este o todos los demás métodos es necesario conocer la Ley de la conservación de
la materia, propuesta por Lavoisier en 1774. Dice lo siguiente
"En una reacción química, la masa de los reactantes es igual a la masa de los reactivos" por lo tanto "La
materia no se crea ni se destruye, solo se transforma"
Como todo lleva un orden a seguir, éste método resulta más fácil si ordenamos a los elementos de la siguiente
manera:
Balancear primero
Metales y/o no metales
Oxígenos
Hidrógenos
De esta manera, nos resulta más fácil, ya que el mayor conflicto que se genera durante el balanceo es causado
principalmente por los oxígenos e hidrógenos.
Balancear por el método de tanteo consiste en colocar números grandes denominados "Coeficientes" a la
derecha del compuesto o elemento del que se trate. De manera que Tanteando, logremos una equivalencia
o igualdad entre los reactivos y los productos.
Ejemplo:
Balancear la siguiente ecuación química:
Continuamos: ¿Cuántos oxígenos hay en el primer miembro? Encontramos 4 porque 3 mas 1 es igual a 4
Y ¿Cuántos en el segundo? Encontramos 6 porque el dos (situado a la izquierda del Fe) se multiplica por el
subíndice encontrado a la derecha del paréntesis final y se multiplica 2*3 = 6
Por lo tanto en el segundo miembro hay 6 oxígenos.
Entonces colocamos un 3 del lado izquierdo del hidrógeno en el primer miembro para tener 6 oxígenos
Posteriormente, Vamos con los hidrógenos, en el primer miembro vemos que hay 6 hidrógenos y en el
segundo igualmente 6.
Entonces concluimos de la siguiente manera:
Si vemos la primera regla, esta nos dice que todos los elementos libres tendrán valencia cero, entonces vemos
la ecuación y localizamos a los elementos libres, en este caso son el fierro y el hidrógeno, colocamos un cero
como valencia.
Continuamos con las demás reglas y encontramos a los oxígenos e hidrógenos y les asignamos la valencia que
les corresponde, establecidas en las reglas:
Para continuar, obtenemos la valencia de los elementos que nos sobran, en este caso el azufre y el fierro:
Ubiquémonos en el azufre (S) del primer miembro en la ecuación
y posteriormente obtendremos la valencia del azufre. Quede claro que la del hidrógeno y la del oxígeno ya la
tenemos.
Para obtener la valencia del azufre, simplemente (pon mucha atención aquí) vamos a multiplicar la valencia
del oxígeno por el número de oxígenos que hay. (En este caso hay 4 oxígenos) y hacemos lo mismo con el
hidrógeno, multiplicamos su valencia por el número de oxígenos que hay. Queda de la siguiente manera
Ya que tenemos los resultados, ahora verificamos que todo elemento químico es eléctricamente neutro y lo
comprobamos de la siguiente manera:
Tenemos que llegar a cero. Buscamos cuanto falta de dos para ocho. Entonces encontramos que faltan 6, este
número será colocado con signo positivo +
Localizamos al fierro. Para obtener su valencia primero denominamos si es monovalente o divalente etc. Ya
que vimos que es divalente, necesitamos saber la valencia del radical sulfato, en este caso es
Para obtener la valencia del fierro, multiplicamos la valencia del radical (-2) con el subíndice que se encuentre
fuera del mismo
Después lo dividimos entre el número de fierros que hay en el compuesto (en este caso hay dos fierros)
Queda de la siguiente manera:
2 * 3 = 6 6/2 = 3
El tres que acabamos de obtener es la valencia del fierro.
Que nos quede claro, ya tenemos la valencia del fierro que es 3, ya tenemos la valencia del oxígeno que es -2,
ahora nos falta la valencia del azufre (S) lo cual realizaremos algo similar con lo dicho con anterioridad:
Multiplicamos la valencia del radical sulfato (-2) con el subíndice (3) y después con el número de oxígenos que
hay dentro del paréntesis (4).
Obtenemos un total de 24. Este número que resultó se le llama valencia parcial
Después continuamos con el fierro. Ahora ya que tenemos que la valencia del fierro es 3 entonces
multiplicamos la valencia por el numero de fierros que hay (hay 2)
Y nos da un resultado de 6.
Entonces:
Tenemos 6 y tenemos -24, de 6 a 24 ¿Cuánto falta?
Respuesta: +18
Ahora el 18 lo dividimos entre el número de azufres que hay: nos da un total de 6 o sea +6.
Y de esta manera ya obtuvimos todas las valencias del compuesto químico:
Ahora, vamos a verificar cuál elemento se oxida y cual se reduce, para esto, chequemos las valencias de los
elementos, debemos verificar que en los dos miembros estén iguales.
Si vemos al fierro en el primer miembro y luego lo vemos en el segundo. Encontramos que sus valencias ya no
son las mismas por tanto el elemento se está oxidando porque aumenta su valencia de cero a 3
Ahora, si nos fijamos en el hidrógeno del primer miembro, se está reduciendo con el hidrógeno del segundo
miembro:
Ahora, para poder completar el balanceo, (atención) vamos a intercambiar los números que se oxidaron o
redujeron. Esto es el 3 y el 1.
El 3 lo colocaremos en el lugar del 1 y el 1 en el lugar del 3
Estos números resultantes se colocan de lado izquierdo de los elementos que se oxidaron o redujeron.
El número 1 (que por lo general no se escribe) se coloca de lado izquierdo del fierro en los dos miembros.
El número 3 se coloca de lado izquierdo del hidrógeno en los dos miembros quedando de la siguiente forma:
Entonces de esta manera podemos deducir que la ecuación está balanceada, pero, no es así, uno de los pasos
para terminarla es: "Una vez obtenidos los números de la ecuación, se completará con método de tanteo".
Verificamos si así está balanceada:
1= Fe =2
3= S =3
12= O =12
6= H =6
Con este insignificante 2 que acabos de encontrar en el fierro del segundo miembro LA ECUACIÓN NO ESTÁ
BALANCEADA aunque los demás átomos lo estén.
Completamos por tanteo
En el primer miembro (Fe) hay 1 átomo, en el segundo 2, entonces colocamos un 2 en el primer miembro y…
YA ESTÁ BALANCEADA.
Con esto finalizamos el método de REDOX.
BALANCEO POR EL MÉTODO ALGEBRAICO/MATEMATICO
Se siguen los siguientes pasos:
Escribir sobre cada molécula una literal, siguiendo el orden alfabético.
Enlistar verticalmente los átomos que participan en la reacción
A la derecha del símbolo de cada elemento que participa se escribe el número de veces que el
elemento se encentra en cada molécula identificada por letra.
Si de un lado de la reacción un elemento se encuentra en mas de una molécula, se suman y se escribe
cuantas veces está presente en una molécula
Se cambia la flecha por un signo igual =
Se enlistan las letras que representan las moléculas y a la letra más frecuente se le asigna el valor de
uno
Los valores de las letras se obtienen por operaciones algebraicas
Ejemplo:
Balancear la siguiente ecuación: