You are on page 1of 149

La cinemática es la parte de la mecánica clásica que estudia el movimiento

de los cuerpos sin tener en cuenta las causas que lo producen limitándose,
esencialmente, al estudio de la trayectoria en función del tiempo.
Cinemática deriva de la palabra griega κινειν,kinein, mover.

En cinemática se utiliza un sistema de coordenadas para describir las


trayectorias y se le llama sistema de referencia. La velocidad mide el ritmo
al que cambia la posición. La aceleración mide el ritmo al que cambia la
velocidad. La velocidad y la aceleración son las dos principales cantidades
que describen como cambia la posición con el tiempo.

Un movimiento es rectilíneo cuando describe una trayectoria recta y


uniforme cuando su velocidad es constante en el tiempo, es decir, su
aceleración es nula. Esto implica que la velocidad media entre dos instantes
cualesquiera siempre tendrá el mismo valor. Además la velocidad
instantánea y media de este movimiento coincidirán.

La distancia recorrida se calcula multiplicando la velocidad por el tiempo


transcurrido. Esta operación también puede ser utilizada si la trayectoria del
cuerpo no es rectilínea, pero con la condición de que la velocidad sea
constante.

Durante un movimiento rectilíneo uniforme también puede presentarse que


la velocidad sea negativa. Por lo tanto el movimiento puede considerarse en
dos sentidos, el positivo sería alejándose del punto de partida y el negativo
sería regresando al punto de partida.

Ecuaciones del movimiento.

Sabemos que la velocidad es constante.

Cálculo del espacio recorrido.

Sabiendo que la velocidad es constante y según la definición de velocidad:

tenemos:
despejando términos:

integrando:

realizando la integral:

Donde es la constante de integración, que corresponde a la posición del

móvil para . Si en el instante , el móvil esta en el origen de

coordenadas, entonces . Esta ecuación determina la posición de la


partícula en movimiento en función del tiempo.

Cálculo de la aceleración

Según la ecuación del movimiento y la definición de aceleración tenemos:

esto es: sabiendo que la velocidad no varia con el tiempo, tenemos:

La aceleración es nula, como ya se sabía.

El reposo

Se debe notar que el reposo es un caso de movimiento rectilíneo uniforme

en el que

Movimiento rectilíneo uniformemente acelerado


De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

El Movimiento rectilíneo uniformemente acelerado (MRUA) o


Movimiento rectilíneo uniformemente variado (MRUV) es aquél en el
que un móvil se desplaza sobre una recta con aceleración constante. Esto
implica que en cualquier intervalo de tiempo, la aceleración del móvil tendrá
siempre el mismo valor. Por ejemplo la caída libre de un móvil, con
aceleración de la gravedad constante.

Ecuaciones del movimiento [editar]

Este movimiento, como su propio nombre indica, tiene una aceleración

constante: lo que podemos emplear para determinar las distintas


ecuaciones del movimiento: velocidad y espacio, veamos:

La aceleración

Evolución de la posición, de la velocidad y de la aceleración de un cuerpo


con un movimiento rectilíneo uniformemente acelerado.

Como ya se ha dicho, la aceleración es constante y no varía con el tiempo:

Determinar la velocidad. [editar]

Cálculo de la velocidad en función del tiempo, partiendo de la ecuación


anterior y de la definición de aceleración:

1.

2.

con lo que tenemos:

despejando:

integrando la ecuación:

sacando valores constantes de la integral:


resolviendo la integral:

Donde: es la constante de integración, corresponde a la velocidad del

móvil para , en el caso de que el móvil esté en reposo para

entonces .

Fuerza

De Wikipedia, la enciclopedia libre


Saltar a navegación, búsqueda

Se le llama fuerza a cualquier acción o influencia capaz de modificar el


estado de movimiento o de reposo de un cuerpo, es decir, de imprimirle una
aceleración modificando la velocidad, la dirección o el sentido de su
movimiento.
Cuando se habla de sistemas de más de dos cuerpos, hay que tener
en cuenta el Principio de Superposición de fuerzas : la fuerza que
ejerce un cuerpo sobre otro es independiente de la que ejercen los
demás.
En el Sistema Solar, con un astro que acapara casi toda la masa , es
posible despreciar, en muchos casos, las fuerzas entre planetas.
Sin embago, en esta simulación no se pueden despreciar estas
fuerzas: un asteroide de masa pequeña se mueve entre el Sol y un
gran planeta, Júpiter

Leyes de Newton
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

La primera y segunda ley de Newton, en latín, en la edición original de su


obra Principia Mathematica.

Las Leyes de Newton son tres principios concernientes al movimiento de


los cuerpos. La formulación matemática fue publicada por Isaac Newton en
1687, en su obra Philosophiae Naturalis Principia Mathematica, aunque
existe una versión previa en un fragmento manuscrito De motu corporum in
mediis regulariter cedentibus de 1684[1] . Las leyes de Newton constituyen,
junto con la transformación de Galileo, la base de la mecánica clásica. En el
tercer volumen de los Principia Newton mostró que, combinando estas leyes
con su Ley de la gravitación universal, se pueden deducir y explicar las
Leyes de Kepler sobre el movimiento planetario.

Las leyes de Newton tal como comúnmente se exponen sólo valen para
sistemas de referencia inerciales. En sistemas de referencia no-inerciales,
junto con las fuerzas reales deben incluirse las llamadas fuerzas ficticias o
fuerzas de inercia que añaden términos suplementarios capaces de explicar
el movimiento de un sistema cerrado de partículas clásicas que interactúan
entre sí.

Primera Ley de Newton o Ley de Inercia [editar]

En la ausencia de fuerzas exteriores, toda partícula continúa en su estado


de reposo o de movimiento rectilíneo y uniforme respecto de un sistema de
referencia inercial o galileano.

La Primera ley constituye una definición de la fuerza como causa de las


variaciones de velocidad de los cuerpos e introduce en física el concepto de
sistema de referencia inercial. En esta observación de la realidad cotidiana
conlleva la construcción de los conceptos de fuerza, velocidad y estado. El
estado de un cuerpo queda entonces definido como su característica de
movimiento, es decir, su posición y velocidad que, como magnitud vectorial,
incluye la rapidez, la dirección y el sentido de su movimiento. La fuerza
queda definida como la acción mediante la cual se cambia el estado de un
cuerpo.

En la experiencia diaria, los cuerpos están sometidos a la acción de fuerzas


de fricción o rozamiento que los van frenando progresivamente. La no
comprensión de este fenómeno hizo que, desde la época de Aristóteles y
hasta la formulación de este principio por Newton y Galileo , se pensara que
el estado natural de movimiento de los cuerpos era el reposo y que las
fuerzas eran necesarias para mantenerlos en movimiento. Sin embargo,
Newton y Galileo mostraron que los cuerpos se mueven a velocidad
constante y en línea recta si la resultante de las fuerzas aplicadas a dicho
cuerpo es cero.

Segunda Ley de Newton o Ley de Fuerza [editar]


Existen diversas maneras de formular la segunda ley de Newton, que
relaciona las fuerzas actuantes y la variación de la cantidad de movimiento
o momento lineal. La primera de las formulaciones, que presentamos a
continuación es válida tanto en mecánica newtoniana como en mecánica
relativista:

La variación de momento lineal de un cuerpo es proporcional a la resultante


total de las fuerzas actuando sobre dicho cuerpo y se produce en la
dirección en que actúan las fuerzas.

En términos matemáticos esta ley se expresa mediante la relación:

La expresión anterior así establecida es válida tanto para la mecánica


clásica como para la mecánica relativista, a pesar, de que la definición de
momento lineal es diferente en las dos teorías. En la teoría newtoniana el
momento lineal se define según (1a) mientras que en la teoría de la
relatividad de Einstein se define mediante (1b):

donde m es la masa invariante de la partícula y la velocidad de ésta


medida desde un cierto sistema inercial.

Esta ley constituye la definición operacional del concepto de fuerza, ya que


tan sólo la aceleración puede medirse directamente. De una forma más
simple, en el contexto de la mecánica newtoniana, se podría también decir
lo siguiente:

La fuerza que actúa sobre un cuerpo es directamente proporcional al


producto de su masa y su aceleración

(2a)

Esta segunda formulación de hecho incluye implícitamente definición (1)


según la cual el momento lineal es el producto de la masa por la velocidad.
Como ese supuesto implícito no se cumple en el marco de la teoría de la
relatividad de Einstein (donde la definición es (2)), la expresión de la fuerza
en términos de la aceleración en la teoría de la relatividad toma una forma
diferente. Por ejemplo, para el movimiento rectilíneo de una partícula en un
sistema inercial se tiene que la expresión equivalente a (3) es:

(2b)

Si la velocidad y la fuerza no son paralelas la expresión es bastante más


complicada:

(2c)

Tercera Ley de Newton o Ley de acción y reacción [editar]

Por cada fuerza que actúa sobre un cuerpo, éste realiza una fuerza igual
pero de sentido opuesto sobre el cuerpo que la produjo. Dicho de otra
forma: Las fuerzas siempre se presentan en pares de igual magnitud y
sentido opuesto y están situadas sobre la misma recta.

Esta ley, junto con las anteriores, permite enunciar los principios de
conservación del momento lineal y del momento angular.

Ley de acción y reacción fuerte de las fuerzas [editar]

En la ley de acción y reacción fuerte las fuerzas, además de ser de la misma


magnitud y opuestas, son colineales. La forma fuerte de la ley no se cumple
siempre. En particular, la parte magnética de la fuerza de Lorentz que se
ejercen dos partículas en movimiento no son iguales y de signo contrario.
Esto puede verse por cómputo directo. Dadas dos partículas puntuales con

cargas q1 y q2 y velocidades , la fuerza de la partícula 1 sobre la partícula


2 es:
donde d la distancia entre las dos partículas y es el vector director
unitario que va de la partícula 1 a la 2. Análogamente, la fuerza de la
partícula 2 sobre la partícula 1 es:

Empleando la identidad vectorial ,

puede verse que la primera fuerza está en el plano formado por y que

la segunda fuerza está en el plano formado por y . Por tanto, estas


fuerzas no siempre resultan estar sobre la misma línea, aunque son de igual
magnitud.

Ley de acción y reacción débil [editar]

Como se explicó en la sección anterior ciertos sistemas magnéticos no


cumplen el enunciado fuerte de esta ley (tampoco lo hacen las fuerzas
eléctricas ejercidas entre una carga puntual y un dipolo). Sin embargo si se
relajan algo las condiciones los anteriores sistemas sí cumplirían con otra
formulación más débil o relajada de la ley de acción y reacción. En concreto
los sistemas descritos que no cumplen la ley en su forma fuerte, si cumplen
la ley de acción y reacción en su forma débil:

La acción y la reacción deben ser de la misma magnitud y sentido opuesto


(aunque no necesariamente deben encontrarse sobre la misma línea)

Todas las fuerzas de la mecánica clásica y el electromagnetismo no


relativista cumplen con la formulación débil, si además las fuerzas están
sobre la misma línea entonces también cumplen con la formulación fuerte.

Masa
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Para otros usos de este término véase Masa (desambiguación).

La masa es la magnitud que cuantifica la cantidad de materia de un


cuerpo. La unidad de masa, en el Sistema Internacional de Unidades es el
kilogramo (Kg). No debe confundirse con el peso, que es una fuerza.

El concepto de masa surge de la confluencia de dos leyes, la ley Gravitación


Universal de Newton y la 2ª Ley de Newton (o 2º "Principio"): según la ley de
la Gravitación de Newton, la atracción entre dos cuerpos es proporcional al
producto de dos constantes, denominadas "masa gravitatoria", una de
cada uno de ellos, siendo así la masa gravitatoria una propiedad de la
materia en virtud de la cual dos cuerpos se atraen; por la 2ª ley (o principio)
de Newton, la fuerza aplicada sobre un cuerpo es directamente proporcional
a la aceleración que sufre, denominándose a la constante de
propocionalidad "masa inercial" del cuerpo.

No es obvio que la masa inercial y la masa gravitatoria coincidan. Sin


embargo todos los experimentos muestran que sí. Para la física clásica esta
identidad era accidental. Ya Newton, para quien peso e inercia eran
propiedades independientes de la materia, propuso que ambas cualidades
son proporcionales a la cantidad de materia, a la cual denominó "masa". Sin
embargo para Einstein, la coincidencia de masa inercial y masa
gravitacional, fue un dato crucial y uno de los puntos de partida para su
teoría de la Relatividad y por tanto para la comprensión de la naturaleza.
Según Einstein esa identidad significa que "la misma cualidad de un cuerpo
se manifiesta de acuerdo con las circunstancias como inercia o como peso".
Esto llevó a Einstein a enunciar el "principio de equivalencia": las leyes de la
naturaleza deben expresarse de modo que sea imposible distinguir entre un
campo gravitatorio uniforme y un sistema referencial acelerado. Así pues,
"masa inercial" y "masa gravitatoria" son indistinguibles y,
consecuentemente, cabe un único concepto de "masa" como sinónimo de
"cantidad de materia" según formuló Newton.

Por tanto, en palabras de D.M. MacMaster, la masa es la expresión de la


cantidad de materia de un cuerpo, revelada por su peso o por la cantidad
de fuerza necesaria para producir en un cuerpo cierta cantidad de
movimiento en un tiempo dado * MacMasters, D.M. (1964), Gran
Enciclopedia del Mundo, Bilbao: Durvan, S.A. de Ediciones. B1.-1.021-1964. .

En la física clásica, la masa es una constante del cuerpo. En física relativista


es función de la velocidad que el cuerpo posee respecto al observador.
Además, la física relavista demuestra la relación de la masa con la energía y
queda probada por las reacciones nucleares, por ejemplo por la explosión
de un arma nuclear, quedando patente la masa como una magnitud que
trasciende a la masa inercial y a la masa gravitacional.

Peso
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

Prototipo computarizado de un kilogramo internacional.

En la física, el peso es la medida de la fuerza que ejerce la gravedad sobre


un cuerpo. En su uso cotidiano, el término "peso" se utiliza a menudo como
sinónimo de masa.

Definición

El peso es la medida de la fuerza gravitatoria actuando sobre un objeto.


Cerca de la superficie de la tierra, la aceleración de la gravedad es
aproximadamente constante; esto significa que el peso de un objeto
material es proporcional a su masa.

Realmente, dado que la intensidad de la fuerza gravitatoria varía según la


posición —en los polos es igual a 9,83 m/s², en la línea ecuatorial es igual a
9,79 m/s² y en latitud de 45° es igual a 9.8 m/s²— el peso depende de la
ubicación. Si no se especifica lo contrario, se entiende que se trata del peso
provocado por una intensidad de la gravedad definida como normal, de
valor 9,81 m/s². Al estado en el que un cuerpo tiene peso nulo, se le llama
ingravidez.

El peso, al ser una fuerza, se mide con un dinamómetro y su unidad en el


sistema internacional es el newton (N). El dinamómetro está formado por un
resorte con un extremo libre y posee una escala graduada en unidades de
peso. Para saber el peso de un objeto sólo se debe colgar del extremo libre
del resorte, el que se estirará; mientras más se estire, más pesado es el
objeto.
Equilibrio Traslacional.- Ocurre cuando no hay movimiento relativo de las
coordenadas (posición) del centro de masa de un cuerpo.
Equilibrio Rotacional.- Ocurre cuando un cuerpo o sistema no gira con
respecto a algún punto, aunque exista una tendencia.
Centro de masa.- Punto en el que se puede considerar que está
concentrada toda la masa de un cuerpo.
Centro de gravedad.- Punto en el que se puede considerar que está
concentrado todo el peso de un cuerpo.
Centroide.- Se le llama así al centro de masa de un cuerpo que no existe
físicamente.
= 1ª Condición del Equilibrio =
Un sistema se encuentra en equilibrio traslacional si y solo si:
Fx = 0
Fy = 0
Tipos de fuerzas:

• Fuerzas de tensión
• Fuerzas de compresión
• Pesos

= 2ª Condición del Equilibrio =


Un sistema se encuentra en equilibrio rotacional si y solo si la suma de
sus momentos angulares es igual a cero.
M=0

Ley de elasticidad de Hooke


De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
En física, la ley de elasticidad de Hooke o ley de Hooke, originalmente
formulada para casos de estiramiento longitudinal, establece que la
deformación ε de un material elástico es directamente proporcional a la
fuerza aplicada F:

Donde ΔL: alargamiento longitudinal, L: Longitud original, E: módulo de


Young o módulo de elasticidad, A sección transversal de la pieza estirada.
La ley se aplica a materiales elásticos hasta un límite denominado límite de
elasticidad.
Esta ley recibe su nombre de Robert Hooke, físico británico contemporáneo
de Isaac Newton. Ante el temor de que alguien se apoderara de su
descubrimiento, Hooke lo publicó en forma de un famoso anagrama,
ceiiinosssttuv, revelando su contenido un par de años más tarde. El
anagrama significa Ut tensio sic vis ("como la extensión, así la fuerza").

Ley de Hooke para los resortes [editar]


La forma más común de representar matemáticamente la Ley de Hooke es
mediante la ecuación del resorte, donde se relaciona la fuerza F ejercida por
el resorte con la distancia adicional x producida por alargamiento del
siguiente modo:

, siendo

Donde k se llama constante del resorte (también constante de rigidez) y Δx


es la separación de su extremo respecto a su longitud natural. La energía
de deformación o energía potencial elástica Uk asociada al estiramiento del
resorte viene dada por la siguiente ecuación:

Ley de Hooke en sólidos elásticos [editar]


En la mecánica de sólidos deformables elásticos la distribución de tensiones
es mucho más complicada que en un resorte o una barra estirada sólo
según su eje. La deformación en el caso más general necesita ser descrita
mediante un tensor de deformaciones mientras que los esfuerzos internos
en el material necesitan se representados por un tensor de tensiones. Estos
dos tensores están relacionados por ecuaciones lineales conocidas por
ecuaciones de Hooke generalizadas o ecuaciones de Lamé-Hooke, que
son las ecuaciones constitutivas que caracterizan el comportamiento de un
sólido elástico lineal. Estas ecuaciones tienen la forma general:

Caso unidimensional [editar]


En el caso de un problema unidimensional donde las deformaciones o
tensiones en direcciones perpendiculares a una dirección dada son
irrelevantes o se pueden ignorar σ = σ11, ε = ε11, C11 = E y la ecuación
anterior se reduce a:

Donde E es el módulo de elasticidad longitudinal o módulo de Young.


Caso tridimiensional isótropo [editar]
Para caracterizar el comportamiento de un sólido elástico lineal e isótropo
se requieren además del módulo de Young otra constante elástica, llamada
coeficiente de Poisson (ν). Por otro lado, las ecuaciones de Lamé-Hooke
para un sólido elástico lineal e isótropo pueden ser deducidas del teorema
de Rivlin-Ericksen, que pueden escribirse en la forma:

Ley de gravitación universal


De Wikipedia, la enciclopedia libre
(Redirigido desde Ley de la gravitación universal)

Saltar a navegación, búsqueda


Artículo principal: Interacción gravitatoria

Dentro de la física clásica, la ley de gravitación universal de Newton


establece que la fuerza que ejerce una partícula puntual con masa m1 sobre
otra con masa m2 es directamente proporcional al producto de las masas, e
inversamente proporcional al cuadrado de la distancia que las separa:

Donde es el vector unitario que va de la partícula 1 a la 2, y donde es


la constante de gravitación universal, siendo su valor 6,67 × 10–11 Nm2/kg2.
Esta ley establece que mientras más grandes sean las masas de sus
cuerpos, mayor será la fuerza con que se atraigan, y que a mayor distancia
de separación menor sera la fuerza de atracción.
La fuerza de atracción entre dos cuerpos como el que ejerce la Tierra sobre
los cuerpos que están dentro de su rango de acción, es la causa de que los
cuerpos que se sueltan a cualquier altura caigan al suelo.

Trabajo mecánico y energía


El concepto de trabajo mecánico en la vida diaria es muy intuitivo.
Cuando una persona sube un objeto pesado desde la calle hasta un
edificio, efectúa un trabajo. En el lenguaje corriente, la realización de un
trabajo se relaciona con el consumo de energía. Así, los conceptos de
trabajo y energía aparecen identificados no sólo en las teorías físicas,
sino también en el lenguaje coloquial.

Fuerza y trabajo mecánico


El concepto de trabajo mecánico aparece estrechamente vinculado al de
fuerza. De este modo, para que exista trabajo debe aplicarse una fuerza
mecánica a lo largo de una cierta trayectoria. En términos físicos, el trabajo W
se define como el producto escalar de la fuerza aplicada por la distancia
recorrida.

En términos físicos, el trabajo W se define como el producto escalar de la


fuerza aplicada por la distancia recorrida.

donde α es el ángulo que forman la dirección de la fuerza y el desplazamiento.

Así pues, el trabajo es una magnitud escalar, que alcanza su valor máximo
cuando la fuerza se aplica en la dirección y el sentido del movimiento.
De la definición anterior se deduce que las fuerzas aplicadas perpendicularmente a la
dirección del movimiento producen un trabajo nulo.

Potencia
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Para otros usos de este término véase Potencia (desambiguación).
En Física, potencia es la cantidad de trabajo efectuado por unidad de
tiempo. Esto es equivalente a la velocidad de cambio de energía en un
sistema o al tiempo empleado en realizar un trabajo, según queda definido
por:

Donde
P es la potencia.
E es la energía total o trabajo.
t es el tiempo.

La energía cinética de un cuerpo es una energía que surge en el fenómeno


del movimiento. Esta definida como el trabajo necesario para acelerar un
cuerpo de una masa dada desde su posición de equilibrio hasta una
velocidad dada. Una vez conseguida esta energía durante la aceleración, el
cuerpo mantiene su energía cinética sin importar el cambio de la rapidez.
Un trabajo negativo de la misma magnitud podría requerirse para que el
cuerpo regrese a su estado de equilibrio.

roducción [editar]
Varias formas de energía como la energía química, el calor, la radiación
electromagnética, la energía nuclear, las energías gravitacional, eléctrica,
elástica, etc. pueden ser categorizadas en dos tipos: la energía potencial y
la energía cinética.
La energía cinética puede ser mejor entendida con ejemplos que
demuestren como esta se transforma de otros tipos de energía y a otros
tipos de energía. Por ejemplo un ciclista quiere usar su energía química que
le proporciono su comida para acelerar su bicicleta a una velocidad elegida.
Su rapidez puede mantenerse sin mucho trabajo, excepto por la resistencia
del aire y la fricción. La energía convertida en una energía de movimiento,
conocida como energía cinética pero el proceso no es completamente
eficiente y el ciclista también produce calor.
La energía cinética en movimiento de la bicicleta y el ciclista pueden
convertirse en otras formas. Por ejemplo, el ciclista puede encontrar una
cuesta lo suficientemente alta para subir, así que debe cargar la bicicleta
hasta la cima. La energía cinética hasta ahora usada tendrá que convertirse
en energía potencial gravitatoria que puede liberarse por el otro lado de la
colina. (hasta la bicicleta pierde mucha de su energía por la fricción, esta
nunca entregara toda la velocidad que se le otorga pedaleando. Note que la
energía no se pierde porque solo se ha convertido en otro tipo de energía
por la fricción). Alternativamente el ciclista puede conectar un dinamo a una
de sus ruedas y así generar energía eléctrica en el descenso. La bicicleta
podría estar viajando mas despacio en el final de la colina porque mucha de
esa energía ha sido desviada en hacer energía eléctrica. Otra posibilidad
podría ser que el ciclista aplique sus frenos, en ese caso la energía cinética
podría ser disipada a través de la fricción en energía calórica.
Como cualquier cantidad física que sea función de la velocidad, la energía
cinética de un objeto no solo depende de la naturaleza interna del objeto.
Esto también depende de la relación entre el objeto y el observador (en
física un observador es formalmente definido por una clase particular de
sistema de coordenadas llamado sistema inercial de referencia). Cantidades
físicas como esta son llamadas invariantes. La energía cinética esta co-
localizada con el objeto y atribuido a ese campo gravitacional.

Energía cinética en mecánica newtoniana [editar]


Energía cinética de una partícula [editar]
En mecánica clásica, la energía cinética de un objeto puntual (un cuerpo
tan pequeño que su dimensión puede ser ignorada), o en un sólido rígido

que no rote, esta dada la ecuación donde m es la masa y v es


la rapidez (o velocidad) del cuerpo.
En mecánica clásica la energía cinética se puede calcular a partir de la
ecuación del trabajo y la expresión de una fuerza F dada por la segunda ley
de Newton:

La energía cinética se incrementa con el cuadrado de la rapidez. Así la


energía cinética es una medida dependiente del sistema de referencia. La
energía cinética de un objeto está también relacionada con su momento
lineal:

Energía cinética en diferentes sistemas de referencia


[editar]
Como hemos dicho, en la mecánica clásica, la energía cinética de una masa
puntual depende de su masa m y sus componentes del movimiento. Estos

son descritos por la velocidad v de la masa puntual, así:


En un sistema de coordenadas especial, esta expresion tiene las siguientes
formas:
Coordenadas cartesianas (x,y,z):

Coordenadas polares (r,φ):

Coordenadas cilíndricas (r,φ,z):

Coordenadas esféricas (r,φ,θ):

Con eso el significado de un punto en una coordenada y su cambio


temporal se describe como la derivada temporal de su desplazamiento:

En un formalismo Hamiltoniano no se trabaja con esas componentes del


movimiento, o sea con su velocidad, si no con su impulso p (cambio en la
cantidad de movimiento). En caso de usar componentes cartesianas
obtenemos:

Energía cinética de sistemas de partículas [editar]


Para una particula, o para un solido rigido que no este rotando, la energía
cinética va a cero cuando el cuerpo para. Sin embargo, para sistemas que
contienen muchos cuerpos con movimientos independientes, que ejercen
fuerzas entre ellos y que pueden (o no) estar rotando; esto no es del todo
cierto. Esta energía es llamada 'energía interna'. La energía cinética de un
sistema en cualquier instante de tiempo es la suma simple de las energías
cinéticas de las masas, incluyendo la energía cinética de la rotación.
Un ejemplo de esto puede ser el sistema solar. En el centro de masas del
sistema solar, el sol esta (casi) estacionario, pero los planetas y planetoides
están en movimiento sobre el. Así en un centro de masas estacionario, la
energía cinética esta aun presente. Sin embargo, recalcular la energía de
diferentes marcos puede ser tedioso, pero hay un truco. La energía cinética
de un sistema de diferentes marcos inerciales puede calcularse como la
simple suma de la energía en un marco con centro de masas y añadir en la
energía el total de las masas de los cuerpos que se mueven con rapidez
relativa entre los dos marcos.
Esto se puede demostrar fácilmente: sea V la rapidez relativa en un sistema
k de un centro de masas i:

Sin embargo, sea la energía cinética en el centro de masas

de ese sistema, podría ser el momento total que es por definición

cero en el centro de masas y sea la masa total: . Sustituyendo


obtenemos:

[1]

La energía cinética de un sistema entonces depende del Sistema de


referencia inercial y es más bajo con respecto al centro de masas
referencial, por ejemplo: en un sistema de referencia en que el centro de
masas sea estacionario. En cualquier otro sistema de referencia hay una
energía cinética adicional correspondiente a la masa total que se mueve a
larapidez del centro de masas.A veces es conveniente dividir a la energía
cinética total
Energía potencial
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

Los carros de una montaña rusa alcanzan su máxima energía cinética cuando
están en el fondo de su trayectoria. Cuando comienzan a elevarse, la energía
cinética comienza a ser convertida a energía potencial gravitacional, pero, si se
asume una fricción insignificante y otros factores de retardo, la cantidad total de
energía en el sistema sigue siendo constante.

La energía potencial es la capacidad que tienen los cuerpos para realizar


un trabajo, dependiendo de la configuración que tengan en un sistema de
cuerpos que ejercen fuerzas entre sí. Puede pensarse como la energía
almacenada en un sistema, o como una medida del trabajo que un sistema
puede entregar. Más rigurosamente, la energía potencial es una magnitud
escalar asociado a un campo de fuerzas (o como en elasticidad un campo
tensorial de tensiones). Cuando la energía potencial está asociada a un
campo de fuerzas, la diferencia entre los valores del campo en dos puntos A
y B es igual al trabajo realizado por la fuerza para cualquier recorrido entre
B y A.

Energía potencial asociada a campos de fuerzas


La energía potencial puede definirse solamente cuando la fuerza es
conservativa, es decir que cumpla con alguna de las siguientes
propiedades:
El trabajo realizado por la fuerza entre dos puntos es independiente del
camino recorrido.
El trabajo realizado por la fuerza para cualquier camino cerrado es nulo.
Cuando el rotor de F es cero.
Se puede demostrar que todas las propiedades son equivalentes (es decir
que cualquiera de ellas implica la otra). En estas condiciones, la energía
potencial se define como
De la definición se sigue que si la energía potencial es conocida, se puede
obtener la fuerza a partir del gradiente de U:

También puede recorrerse el camino inverso: suponer la existencia una


función energía potencial y definir la fuerza correspondiente mediante la
fórmula anterior. Se puede demostrar que toda fuerza así definida es
conservativa.
Evidentemente la forma funcional de la energía potencial depende de la
fuerza de que se trate; así, para el campo gravitatorio (o eléctrico) el
resultado del producto de las masas (o cargas) por una constante dividido
por la distancia entre las masas (cargas), por lo que va disminuyendo a
medida que se incrementa dicha distancia.
Energía potencial gravitatoria
Este tipo de energía está asociada con el grado de separación entre dos
cuerpos, los cuales se atraen mediante fuerza gravitacional.
Caso general. La energía potencial gravitatoria VG de una partícula material
de masa m situada dentro del campo gravitatorio terrestre viene dada por:

Donde:
, distancia entre la partícula material del centro de la Tierra (es decir, su
altura).
, constante universal del la gravitación.
, masa de la tierra.
Esta última es la fórmula que necesitamos emplear, por ejemplo, para
estudiar el movimiento de satélites y misiles balísticos
Cálculo simplificado. Cuando la distancia recorrida por un móvil h es
pequeña, lo que sucede en la mayoría de las aplicaciones usuales (tiro
parabólico, saltos de agua, etc.), podemos usar el desarrollo de Taylor a
la anterior ecuación. Así si llamamos r a la distancia al centro de la tierra,
R al radio de la Tierra y h a la altura sobre la superficie de la Tierra
tenemos:
Donde hemos introducido la aceleración sobre la superfice:

Por tanto la variación de la energía potencial gravitatoria al desplazarse un


cuerpo de masa m desde una altura h1 hasta una altura h2 es:

Dado que la energía potencial se anula cuando la distancia es infinita,


frecuentemente se asigna energía potencial cero a la altura correspondiente
a la del suelo, ya que lo que es de interés no es el valor absoluto de V, sino
su variación durante el movimiento.
Así, si la altura del suelo es h1 = 0, entonces la energía potencial a una
altura h2 = h será simplemente VG = mgh.
Energía potencial electrostática
La energía potencial electrostática de un sistema formado por dos partículas
de cargas q y Q situadas a una distancia r una de la otra es igual a:

Siendo K una constante universal o constante de Coulomb cuyo valor


aproximado es 9*109 (voltios·metro/culombio).
Una definición de energía potencial eléctrica sería la siguiente: cantidad de
trabajo que se necesita realizar para acercar una carga puntual de masa
nula con velocidad constante desde el infinito hasta una distancia r de una
carga del mismo signo, la cual utilizamos como referencia. En el infinito la
carga de referencia ejerce una fuerza nula.

Energía potencial elástica


Potencial armónico (caso unidimensional), dada una partícula en un
campo de fuerzas que responda a la ley de Hooke (F= -k|r|) siendo k la
constante de dicho campo, su energía potencial será V = 1/2 K |r|².
Energía de deformación (caso general), en este caso la función escalar
que da el campo de tensiones es la energía libre de Helmholtz por unidad
de volumen f que representa la energía de deformación. En función de las
deformaciones εij y la temperatura la energía libre de un cuerpo deformado
viene dada por:

Conservación de la energía mecánica [editar]


Para sistemas cerrados formados por partículas que interactúan mediante
fuerzas puramente mecánicas o campos conservativos la energía se
mantiene constante con el tiempo:

Es importante notar que la energía mecánica así definida permanece


constante si únicamente actúan fuerzas conservativas sobre las partículas.
Sin embargo existen ejemplos de sistemas de partículas donde la energía
mecánica no se conserva:
Sistemas de partículas cargadas en movimiento. En ese caso los
campos magnéticos no derivan de un potencial y la energía mecánica no se
conserva, ya que parte de la energía mecánica "se convierte" en energía del
campo electromagnético y viceversa.
Sistemas con fuerzas disipativas. Las fuerzas disipativas como el
rozamiento o fricción entre sólidos, entre un sólido y un fluido no pueden ser
tratadas de modo puramente mecánica ya que implican la conversión de
energía mecánica en energía calorífica. Puesto que la potencia calorífica
está asociada a una diferencial inexacta en general la energía calorífica
disipada depende de la trayectoria y del modo en que esta se halla llevado a
cabo y no puede derivarse de un potencial. Esto está relacionado con el
hecho de que al empujar un objeto alrededor de una mesa y devolverlo al
mismo lugar, es necesario realizar un trabajo neto sobre el objeto, pero algo
debe haber disipado la energía transferida al objeto. En este caso
corresponde a la fricción entre el objeto y la mesa, y es por ello que el roce
corresponde a una fuerza disipativa (o no conservativa).

Conservación del ímpetu según la mecánica clásica.


En la naturaleza existen cantidades que se deben conservar; es decir, sin
importar el proceso al que se les someta, siempre, la suma total debe ser igual.
Algunas de estas cantidades son: energía, carga eléctrica, ímpetu.

Los físicos llamamos ímpetu, desde el punto de vista de la mecánica clásica, al


producto de la masa de un objeto por su velocidad. Ósea, es una cantidad muy
parecida a la energía cinética.

De acuerdo con el principio de conservación del ímpetu: la cantidad de ímpetu


inicial se debe transferir íntegramente al sistema y perecer igual sin importar la
cantidad de veces que se transferir o se distribuyo. Como una imagen, dice más
que mil palabras, pues para eso es video presente.

Consiste de una serie de canicas colgantes, alineadas y muy juntas entre si,
muchos hemos visto este juguete funcionando. Cuando tomamos una de estas
canicas y la estrellamos con las demás alineadas, se observa que la única que se
altera y se mueve es la canica del final de la línea, mientras que el resto de las
canicas no se mueve. Cuando era un niño me gustaba mucho este experimento,
porque cuando tomaba dos canicas y las tiraba a las demás, solamente las dos del
final se movían y así consecutivamente.

Este sencillo experimento tiene interesante implicaciones cuando se estrellan los


autos, pues en ellos se debe conservar el ímpetu, la diferencia radica que las
canicas no se deforman y la energía se trasmite íntegramente a la siguiente
canica. Pero, en el auto parte del ímpetu se dispersa en la deformación del
metal.

Colisiones
Durante un choque actúa una fuerza relativamente grande sobre las partículas que
impactan, aunque solo lo hacen durante un intervalo de tiempo más o menos pequeño.
Básicamente en una colisión el movimiento de las partículas que chocan (o,por lo
menos, el de una de ellas) cambia en forma muy brusca y que podemos establecer una
separación bastante definida entre los tiempos que transcurren "antes de la colisión" y
los que lo hacen "después de ella".

Por ejemplo, cuando un bate golpea una pelota de béisbol, el principio y el fin de la
colisión puede determinarse con muy buena precisión. El bate está en contacto con la
pelota durante un intervalo de tiempo que es muy pequeño comparado con el tiempo en
que la pelota esta en el aire. Durante la colisión el bate le aplica una gran fuerza a la
pelota. Esta fuerza varía con el tiempo en una forma tan completa que solo puede
medirse con dificultad. Tanto la pelota como el bate se desforman durante la colisión.

En las colisiones se verifica el principio de acción y reacción, es decir si el bate le aplica


una fuerza a la pelota, la pelota reacciona con una fuerza de igual magnitud pero de
sentido contrario, aunque en realidad es indistinto cual es la fuerza de acción y cual la
de reacción, podemos decir si la pelota le aplica una fuerza al bate, el bate reacciona con
una fuerza de igual magnitud pero de sentido contrario. En el caso de las colisiones
estas fuerzas actúan durante lapso de tiempo muy pequeño y se denominan fuerzas
instantáneas o impulsivas.

Cuando dos electrones "chocan" la fuerza que actúa entre ambos puede ser conocida
fuerza electrostática de repulsión que está asociada con la carga de las partículas. Puede
ser que las partículas no se toquen, pero aún así, podemos hablar de una colisión, porque
una fuerza relativamente grande que actúa durante un tiempo que se considera pequeño
comparado con el tiempo en que las partículas están en observación, tiene un gran
efecto en el movimiento de los electrones.

Cuando un protón (H¹ o p) de 25 MeV de energía (1 MeV = 6,242.1012 J), "choca" con
un núcleo de un isótopo de la plata (Ag107), las partículas pueden realmente "tocarse" ya
que, en éste caso, la fuerza predominante que actúa entre ellas no es la fuerza
electrostática repulsiva, si no la fuerza nuclear atractiva que es intensa y de corto
alcance. El protón puede penetrar en el núcleo de la plata para formar una estructura
compuesta, después de un tiempo pequeño -el "intervalo de la colisión" puede ser de
1018 segundos- la estructura compuesta puede separarse en dos partículas diferentes
según un esquema tal como:

p + Ag107 → α + Pd104

En el que α = He4 es una partícula alfa. En consecuencia el concepto de colisión puede


aplicarse para que incluya eventos (que generalmente se llaman reacciones) en los que
cambian las identidades de las partículas que interaccionan. Los principios de
conservación son aplicables a todos estos ejemplos.

Si se desea, la definición de una colisión puede ampliarse aún más para incluir en ella a
la desintegración espontánea de una partícula en dos o más partículas distintas. Un
ejemplo de esto es la desintegración de una partícula elemental, llamada la partícula
sigma, en otras dos partículas, el pión y el neutrón según el esquema:

∑ →π - + n

Aunque en éste proceso no ocurre que dos cuerpos lleguen a estar en contacto (a menos
que se le considere en sentido inverso) tiene muchas características en común con las
colisiones, a saber:

1 - Hay una distinción clara entre "antes del suceso" y "después de suceso".

2 - Las leyes de la conservación del ímpetu y de la energía proporcionan mucha


información relacionada con éste tipo de proceso, estudiando las situaciones "antes" y
"después", aún cuando se sepa poco sobre las leyes de las fuerzas que operan durante el
"evento" mismo.

El Impulso y la Cantidad de Movimiento


Supongamos que la figura 1 muestra la magnitud de la fuerza ejercida sobre un cuerpo
durante una colisión. También supongamos que dicha fuerza tiene una dirección
constante. La colisión comienza en el instante ti y termina en el tf, y la fuerza es nula
antes y después del choque. El cambio de la cantidad de movimiento o ímpetu dp de un
cuerpo, en el intervalo de tiempo dt durante el cual ha estado actuando una fuerza F
sobre él puede escribirse como:

dp = F.dt
El cambio en la cantidad de movimiento del cuerpo durante una colisión, puede
obtenerse integrando sobre el tiempo que dura dicha colisión, es decir:

Figura 1: La figura muestra como puede variar con el tiempo una fuerza instantánea
durante una colisión que comienza en el tiempo ti y finaliza en el timpo tf.

La integral de una fuerza sobre el intervalo de tiempo en que actúa se llama impulso I
de la fuerza. Por lo tanto el cambio de la cantidad de movimiento p de un cuerpo
movido por una fuerza impulsiva, es igual al impulso. Tanto el impulso como la
cantidad de movimiento son vectores y ambos tienen las mismas unidades y
dimensiones.

Para el impulso:

I = F.t

siendo:

I: impulso [I] = kg.m/s


para la cantidad de movimiento:

p = m.v

siendo:

p: cantidad de movimiento [p] =kg.m/s

Conservación de la Cantidad de Movimiento


Durante las Colisiones

Considerando ahora una colisión entre dos partículas, tales como las de las masa m1 y
m2 (figura 2), durante la breve colisión, las partículas ejercen fuerzas internas entre sí.
En cualquier instante F12 es la fuerza ejercida la partícula 2 sobre la partícula 1 y F21 es
la fuerza ejercida por la partícula 1 sobre la partícula 2. Por la tercera ley de Newton,
estas fuerzas son, en cualquier instante, de igual magnitud pero de sentido contrario
(acción y reacción).

El cambio de la cantidad de movimiento de la partícula 1 como resultado del choque es:

En donde F12m es el valor medio de la fuerza durante el intervalo de tiempo Δt = tf - ti


que dura la colisión.

El cambio de la cantidad de movimiento de la partícula 2 como resultado del choque es:

En donde F21m es el valor medio de la fuerza durante el intervalo de tiempo Δt = tf - ti


que dura la colisión.

Si sobre las partículas no actúan otras fuerza, el cambio total en la cantidad de


movimiento de cada una de ellas es Δp1 y Δp2. Pero hemos visto que en cada instante,
F12 = -F21, de modo que F12m = - F21my, por lo tanto:

Δp1 = - Δp2

Si consideramos que las dos partículas forman un sistema aislado, la cantidad de


movimiento total del sistema es:
P = p1 + p2

Y el cambio total en la cantidad de movimiento del sistema provocado por la colisión es


cero, o sea que:

ΔP = p1 + p2 = 0

Por lo tanto si no hay fuerzas externas, la colisión no altera la cantidad de movimiento


total del sistema. Las fuerzas impulsivas que actúan durante la colisión son fuerzas
internas que no producen ningún efecto sobre la cantidad de movimiento total del
sistema.

Figura 3: Durante la colisión la fuerza impulsiva Fi es generalmente mucho mayor que


cualquiera de la fuerzas externas Fe que pueden estar actuando sobre el sistema.

Se ha definido un choque como una interacción que tiene lugar en un tiempo Δ que es
despreciable comparado con el tiempo durante el cual se observa el sistema. También
podemos caracterizar a una colisión como un suceso en el que
las fuerzas externas que pueden estar actuando sobre el sistema sean despreciables
comparadas con las fuerzas impulsivas de la colisión.
Cuando un bate golpea a una pelota de béisbol también actúan fuerzas externas sobre el
sistema, por ejemplo la gravedad o la fuerza rozamiento del aire. Estas fuerzas externas
pueden no ser las mismas para todos los cuerpos que intervengan en la colisión ni tienen
que ser necesariamente equilibradas por otras fuerzas externas. Aún así las fuerzas
externas pueden ignorarse, sin mucho riesgo, durante la colisión y se puede suponer la
validez de la conservación de la cantidad de movimiento, ya que, como sucede casi
siempre, las fuerzas externas son despreciables comparadas con las fuerzas impulsivas
de la colisión. De esto resulta que durante una colisión, el cambio en la cantidad de
movimiento de una partícula, proveniente de una fuerza externa, es despreciable
comparado con el cambio en la cantidad de movimiento de dicha partícula debido a la
fuerza impulsiva de la colisión (figura 3).
Por ejemplo, cuando un bate golpea a una pelota de béisbol, la colisión solo dura una
pequeña fracción de segundo. Como el cambio en la cantidad de movimiento es grande
y el tiempo de la colisión es pequeño, resulta que la fuerza impulsiva promedio Fm es
relativamente grande, comparada con ésta,la fuerza de la gravedad es despreciable. Al
determina el cambio del movimiento de la pelota, durante la colisión,podemos ignorar,
sin riesgo alguno, a esta fuerza externa. Mientras menor sea la duración del choque
mejor será el resultado obtenido.

Por lo tanto, en la práctica podemos aplicar el principio de la conservación de la


cantidad de movimiento durante las colisiones, con tal de que el tiempo que dura la
colisión sea suficientemente pequeño. Entonces podemos decir que la cantidad de
movimiento de un sistema de partículas justo antes de que choquen, es igual a la
cantidad de movimiento del sistema inmediatamente después de que ello ocurra.

Las Colisiones en una Dimensión


Los movimientos de los cuerpos después de una colisión pueden calcularse siempre, a
partir de sus movimientos anteriores a la misma, si se conoce la fuerza que actúa
durante ella y si se pueden resolver las ecuaciones de movimiento. A menudo estas
fuerzas no se conocen. Sin embargo, el principio de la conservación de la cantidad de
movimiento debe ser válido durante la colisión. Sabemos también que el principio de la
conservación de la energía es válido. Aunque no conozcamos los detalles de la
interacción, en muchos casos podemos utilizarlo para predecir los resultados de la
colisión.

Por lo común, las colisiones se clasifican según que se conserve o no la energía


cinética durante el choque. Cuando la energía cinética se conserva, se dice que la
colisión es elástica. En caso contrario, se dice que la colisión es inelástica. Las
colisiones entre las partículas atómicas, nucleares y fundamentales algunas veces son
elásticas (pero no siempre). En realidad, estas son las únicas colisiones verdaderamente
elásticas que se conocen. Las colisiones entre cuerpos grandes siempre tienen algún
grado de inelasticidad. Sin embargo a menudo podemos tratar a dichas colisiones como
si fuesen aproximadamente elástica, como sucede, por ejemplo, en las colisiones entre
bolas de marfil o de vidrio. Cuando dos cuerpos se adhieren juntándose después de una
colisión, se dice que tal colisión es completamente inelástica. El término completamente
inelástico no significa que se pierda toda la energía cinética; como vemos, más bien
significa que la pérdida de ella es tan grande como lo pueda permitir el principio de la
conservación de la cantidad de movimiento.

Aún cuando se desconozcan las fuerzas de la colisión podemos encontrar los


movimientos de las partículas después de que ocurra, a partir de sus movimientos antes
de la misma, siempre que la colisión sea completamente inelástica, o cuando la colisión
sea elástica y en una dimensión. En una colisión unidimensional, el movimiento relativo
después de una colisión está sobre la misma línea recta que el movimiento relativo antes
de que ocurriera. Por el momento nos restringiremos al movimiento en una sola
dimensión.

Consideremos primero una colisión elástica en una dimensión. Podemos imaginar a dos
esferas lisas que inicialmente se mueven sin girar a lo largo de la línea que une a sus
centros, después chocan frontalmente y, pasando la colisión, se mueven sin girar sobre
la misma línea recta (figura 4). Durante la colisión, estos cuerpos ejercen, uno sobre el
otro, fuerzas que están sobre la línea inicial del movimiento, de manera que el
movimiento final también ocurre sobre dicha línea.

Sean m1 y m2 las masas de las esferas, v1i y v2i las componentes de sus velocidades
(escalares) antes de la colisión y v1f y v2f las mismas después de la colisión. La dirección
positiva de la cantidad de movimiento y de la velocidad es hacia la derecha.
Supongamos, a no ser que se especifique de otra forma, que las velocidades de las
partículas que chocan no son tan grandes como para requerir del uso de las expresiones
relativistas de la cantidad de movimiento y de la energía cinética. Entonces, por la
conservación de la cantidad de movimiento tenemos que:

m1.v1i + m2.v2i = m1.vif + m2.v2f

Como la colisión es elástica, la energía cinética se conserva por definición, de modo que
tenemos:

m1.v1i ²/2 + m2.v2i ²/2 = m1.vif ²/2 + m2.v2f ²/2


Está claro, desde luego, que si conocemos las masas y las velocidades iniciales,
podemos calcular las velocidades finales v1iy v2i a partir de estas dos ecuaciones. La
ecuación de la cantidad de movimiento puede escribirse como:

m1.(v1i - v1f) = m2.(v2f - v2i) (1)

y la de la energía cinética como:

m1.(v1i ² - v1f ²) = m2.(v2f ² - v2i ²) (2)

Haciendo (2) dividido (1) y suponiendo que v2f ≠ v2i y v1f ≠ v1i obtenemos:

v1i + v1f = v2f + v2i

y, después de un reajuste:

v1i - v2i = v2f - v1f (3)

Lo que indica que, en una colisión elástica en una dimensión, la velocidad relativa de
acercamiento antes de la colisión es igual a la velocidad relativa de alejamiento luego de
la misma.

Casos Particulares
Hay varios casos de interés específico.

1 - Las partículas que chocan tienen la misma masa, es decir:

m1 = m2

Entonces resulta:

v1f = v2i y v2f = v1i

En una colisión elástica unidimensional de dos partículas de igual masa, las partículas
tan sólo intercambian sus velocidades durante la colisión.

2 - Una de las partículas está en reposo, por ejemplo:

v2i = 0

Entonces resulta:

V1f = (m1 - m2).v1i/(m1 + m2)

V2f = 2.m1.v1i/(m1 + m2)

3 - Las partículas que chocan tienen la misma masa y una de ellas está inicialmente en
reposo:

m1 = m2

v2i = 0
Entonces resulta:

v1f = 0 y v2f = v1i

La primera partícula se detiene mientras que la segunda inicia su trayectoria con la


misma velocidad que traía la primera. Es el caso de las bolas de billar.

4 - Las partículas que chocan tienen masas muy distintas y una de ellas está inicialmente
en reposo:

m1 <<< m2

v2i = 0

Tenemos:

v1f ≅ - v1i y v2f ≅ 0

La velocidad de la partícula ligera se invierte, aproximadamente, mientras que la


partícula de mayor masa queda casi en reposo. Es el caso de una bola de billar que
rebota contra la banda.

5 - Las partículas que chocan tienen masas muy distintas y la más liviana está
inicialmente en reposo:

m1 <<< m2

v1i = 0

Tenemos:

v1f ≅ v1i y v2f ≅ 2.v1i


La velocidad de la partícula de mayor masa casi no es alterada por la colisión con la
partícula ligera, pero la partícula ligera adquiere una velocidad aproximadamente del
doble de la partícula pesada. Cuando una bola de bowlig pega contra un palo, el palo
sale disparado.

Los neutrones producidos en un reactor, como producto de la fisión del uranio, se


mueven con mucha velocidad y deben ser frenados para que puedan producir otras
fisiones. Suponiendo que choquen elásticamente con los núcleos en reposo, ¿qué
material habrá que elegir como moderador (es decir, para frenar) de los neutrones del
reactor?.

Si los blancos estacionarios fuesen núcleos de gran masa, como los del plomo, los
neutrones tan solo rebotarían con una velocidad casi igual a la inicial. Si no se frenan no
hay fisión.
Si los blancos estacionarios fuesen núcleos más ligeros que el neutrón, como los
electrones, su velocidad inicial casi no sería afectada por las colisiones. Por lo tanto no
hay fisión.

Sin embargo, si los blancos estacionarios fuesen aproximadamente de la misma masa,


los neutrones prácticamente quedarían en reposo si chocasen frontalmente con estos
blancos. Por lo tanto el moderador más efectivo sería el hidrógeno, cuyo núcleo (el
protón) tiene una masa muy parecida a la del neutrón.

6 - Si una colisión es inelástica, entonces, por definición,


no se conserva la energía cinética.
La energía cinética final puede tener un valor menor que el inicial y, en última instancia,
la diferencia queda convertida, por ejemplo, en energía calorífica, o en energía potencial
de la deformación en la colisión; también puede ocurrir que el valor final de la energía
cinética sea superior al valor inicial, como sucede cuando se libera energía potencial en
la colisión. En todo caso, la conservación de la cantidad de movimiento sigue siendo
válida, así como la conservación de la energía total.

7 - Consideremos ahora una colisión totalmente inelástica.


Las dos partículas se adhieren permaneciendo juntas después de la colisión, de manera
que habrá una velocidad final común vf:

v1f = v2f = vf

No es necesario restringir la discusión al movimiento en una dimensión. Usando


solamente el principio de conservación de la cantidad de movimiento encontramos que:

m1.v1i + m2.v2i = (m1 + m2).vf

Fricción

Fricción estática: no se inicia el movimiento si la fuerza tangencial T hace que el


ángulo sea menor a φ0.

Se define como fuerza de rozamiento o fuerza de fricción entre dos


superficies en contacto a la fuerza que se opone al movimiento de una
superficie sobre la otra (fuerza de fricción cinética) o a la fuerza que se
opone al inicio del movimiento (fuerza de fricción estática). Se genera
debido a las imperfecciones, especialmente microscópicas, entre las
superficies en contacto. Estas imperfecciones hacen que la fuerza entre
ambas superficies no sea perfectamente perpendicular a éstas, sino que
forma un ángulo φ con la normal (el ángulo de rozamiento). Por tanto, esta
fuerza resultante se compone de la fuerza normal (perpendicular a las
superficies en contacto) y de la fuerza de rozamiento, paralela a las
superficies en contacto.

Rozamiento entre superficies de sólidos


Leyes del rozamiento para cuerpos sólidos [
1. La fuerza de rozamiento se encuentra en la dirección de la superficie
de apoyo.
2. El coeficiente de rozamiento es prácticamente independiente del área
de la superficie de contacto.
3. El coeficiente de rozamiento depende de la naturaleza de los cuerpos
en contacto, así como del estado en que se encuentren sus superficies.
4. La fuerza máxima de rozamiento es directamente proporcional a la
fuerza normal que actúa entre las superficies de contacto.
5. Para un mismo par de cuerpos, el rozamiento es mayor un instante
antes del movimiento que cuando se está en movimiento.
Tipos de rozamiento [editar]
Existen dos tipos de rozamiento o fricción, la fricción estática y la fricción
cinética. El primero es una resistencia, la cual se debe superar para poner
movimiento un cuerpo con respecto a otro que se encuentra en contacto. El
segundo, es una fuerza de magnitud constante que se opone al movimiento
una vez que éste ya comenzó. En resumen, lo que diferencia a un roce con
el otro es que el estático actúa cuando el cuerpo está en reposo y el cinético
cuando está en movimiento.
El roce estático es siempre menor o igual al coeficiente de rozamiento entre
los dos objetos (número que se mide experimentalmente y está tabulado)
multiplicado por la fuerza normal. El roce cinético, en cambio, es igual al
coeficiente de rozamiento, denotado por la letra griega , por la normal en
todo instante.
No se tiene una idea perfectamente clara de la diferencia entre el
rozamiento cinético y el estático, pero se tiende a pensar que el estático es
mayor que el cinético, porque al permanecer en reposo ambas superficies,
pueden aparecer enlaces iónicos, o incluso microsoldaduras entre las
superficies. Éste fenómeno es tanto mayor cuanto más perfectas son las
superficies. Un caso más o menos común es el del gripaje de un motor por
estar mucho tiempo parado (no sólo se arruina por una temperatura muy
elevada), ya que al permanecer las superficies del pistón y la camisa
durante largo tiempo en contacto y en reposo, pueden llegar a soldarse
entre sí.
Un ejemplo bastante simple de fricción cinética es la ocurrida con los
neumáticos de un auto al frenar.

Coeficiente de rozamiento
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
La mayoría de las superficies, aún las que se consideran pulidas son
extremadamente rugosas a escala microscópica. Cuando dos superficies
son puestas en contacto, el movimiento de una respecto a la otra, genera
fuerzas tangenciales llamadas fuerzas de fricción, las cuales tienen sentido
contrario a la fuerza aplicada. La naturaleza de este tipo de fuerza esta
ligada a las interacciones de las partículas microscópicas de las dos
superficies implicadas.El coeficiente de fricción es un coeficiente
adimensional que expresa la oposición que ofrecen dichas superficies.
Usualmente se representa con la letra griega μ (mi).
El valor del coeficiente de rozamiento es característico de cada par de
materiales, y no una propiedad intrínseca de un material. Depende además
de muchos factores como la temperatura, el acabado de las superficies en
contacto, la velocidad relativa entre las superficies, etc...

Coeficiente estático y dinámico [editar]


Usualmente se distinguen dos valores:
1. Coeficiente de rozamiento estático (μe): se mide cuando ambas
superficies están en reposo (no hay movimiento).
1. Coeficiente de rozamiento dinámico (μd): se mide cuando ambas
superficies están en movimiento relativo el uno respecto del otro (puede
moverse una sola superficie o ambas).
El coeficiente de rozamiento dinámico es, para la mayoría de los pares de
materiales, menor que el estático, cosa que puede comprobarse fácilmente.
Cuando intentamos empujar un objeto pesado comprobamos que la fuerza
que tenemos que realizar para que se comience a mover es mayor que la
fuerza necesaria para mantener el movimiento. Parece como si el bloque
estuviera inicialmente pegado al suelo de modo que una vez que lo
despegamos se desliza con cierta facilidad. Este comportamiento se justifica
mediante la teoría de las microsoldaduras (ver rozamiento) que explica
además el desgaste que produce el rozamiento.

Cálculo de la fuerza de rozamiento [editar]


Conocido el valor del coeficiente de rozamiento aplicable a nuestro caso, la
fuerza de rozamiento máxima que puede ejercer una superficie sobre la otra
se expresa como el producto del coeficiente de rozamiento por la fuerza
normal (perpendicular) a ambas superficies.

Ángulo de rozamiento [editar]

La arena adopta una forma de cono con la inclinación de su ángulo de


rozamiento interno

Al considerar el deslizamiento de un cuerpo sobre un plano inclinado,


se observa que al variar la inclinación de dicho plano, el objeto inicia el
movimiento al alcanzarse un ángulo de inclinación crítico. Esto es
debido a que al aumentar la inclinación, se reduce paulatinamente la
componente perpendicular del peso, la fuerza N, que es proporcional al
peso del cuerpo y al coseno del ángulo.
Esto es así independientemente del peso del cuerpo, ya que a mayor
peso, aumentan tanto la fuerza que tira el objeto cuesta abajo, como la
fuerza normal que genera rozamiento. De este modo, un coeficiente de
rozamiento dado entre dos cuerpos equivale a un ángulo determinado,
que se conoce como ángulo de rozamiento.
Mediante este ángulo se puede calcular μe, observando hasta qué
ángulo de inclinación las dos superficies pueden mantenerse estáticas
entre si.
tan α = μe

Determinados materiales granulares, como la arena, la grava, los


suelos y en general los graneles, tienen un determinado coeficiente
de rozamiento entre los granos que los conforman. El ángulo
asociado es precisamente el ángulo que formaría un montón de
dicho material, por ello se conoce a esta propiedad como ángulo
de rozamiento interno.

Calor
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

El Sol. La energía de las estrellas procede de reacciones de fusión nuclear

En física, el calor es una forma de energía asociada al movimiento de los


átomos, moléculas y otras partículas que forman la materia. El calor puede
ser generado por reacciones químicas (como en la combustión), nucleares
(como en la fusión nuclear de los átomos de hidrógeno que tienen lugar en
el interior del Sol), disipación electromagnética (como en los hornos de
microondas) o por disipación mecánica (fricción). Su concepto está ligado al
Principio Cero de la Termodinámica, según el cual dos cuerpos en contacto
intercambian energía hasta que su temperatura se equilibre. El calor puede
ser transferido entre objetos por diferentes mecanismos, entre los que cabe
reseñar la radiación, la conducción y la convección, aunque en la mayoría
de los procesos reales todos los mecanismos anteriores se encuentran
presentes en mayor o menor grado.
El calor que puede intercambiar un cuerpo con su entorno depende del tipo
de transformación que se efectúe sobre ese cuerpo y por tanto depende del
camino. Los cuerpos no tienen calor, sino energía interna. El calor es la
transferencia de parte de dicha energía interna (energía térmica) de un
sistema a otro, con la condición de que estén a diferente temperatura. El
científico en 1905 escoces Lord Ewan D.Mcgregor descubrio la constante
del calor especifico en la ecuación de Q = m c (1cal/gºc) delta tº lo cual
explica la utiliza con la escala Mcgregor descubierta en 1904 por su esposa
Lady Emily Mcgregor ( 0ºC son 451ºm y 100 ºc son 4.51 ºm)
Tabla de contenidos
[ocultar]

1. 1 Historia

2. 2 Transferencia del calor

1. 2.1 Flujo calorífico

3. 3 Unidades de medida

4. 4 Calor Específico

1. 4.1 Calor Específico


Molar

2. 4.2 Capacidad Calórica

5. 5 Cambios de Fase

1. 5.1 Calor Latente

6. 6 Propagación del calor

7. 7 Medida experimental del


calor

8. 8 Véase también

Historia [editar]
Montaje experimental para la determinación del equivalente mecánico del calor

Hasta el siglo XIX se explicaba el efecto del calor en la variación de la


temperatura de un cuerpo por medio de un fluido invisible llamado calórico.
Este se producía cuando algo se quemaba y, además, que podía pasar de
un cuerpo a otro. La teoría del calórico afirmaba que una sustancia con
mayor temperatura que otra, necesariamente, poseía mayor cantidad de
calórico.
Benjamin Thompson y James Prescott Joule establecieron que el trabajo
podía convertirse en calor o en un incremento de la energía térmica
determinando que, simplemente, era otra forma de la energía.
El calor es una energía de nivel bajo puesto que el trabajo se puede
transformar íntegramente en calor, pero no al contrario, (Segundo principio
de la termodinámica).

Transferencia del calor [editar]


El calor se puede transmitir por el medio de tres formas distintas:
1. Conducción térmica.
2. Convección térmica.
3. Radiación térmica.

Flujo calorífico [editar]


El flujo calorífico se define como la cantidad de calor que se transfiere a
través de una unidad de área por unidad de tiempo. La ley de conducción
del calor, determina que el tiempo que tarda un flujo de calor a través de
una superficie es también proporcional a la gradiente de temperatura.
El calor siempre se transfiere entre 2 cuerpos de diferentes temperaturas y
el flujo de calor siempre ocurre desde el cuerpo de mayor temperatura hacia
el cuerpo de menor temperatura, ocurriendo la transferencia de calor hasta
que ambos cuerpos se encuentren en equilibrio térmico, vale decir, a la
misma temperatura.

Unidades de medida [editar]


Tradicionalmente, la cantidad de energía térmica intercambiada se mide en
calorías, que es la cantidad de energía que hay que suministrar a un gramo
de agua para elevar su temperatura de 14.5 a 15.5 grados celsius. El
múltiplo más utilizado es la kilocaloría (kcal):

De aquí se puede deducir el concepto calor específico de una sustancia,


que se define como la energía necesaria para elevar la temperatura de un
gramo de dicha sustancia un grado celsius, o bien el concepto capacidad
calorífica, análogo al anterior pero para una masa de un mol de sustancia
(en este caso es necesario conocer la estructura química de la misma).
Joule, tras múltiples experimentaciones en las que el movimiento de unas
palas, impulsadas.por un juego de pesas, se movían en el interior de un
recipiente con agua, estableció el equivalente mecánico del calor,
determinando el incremento de temperatura que se producía en el fluido
como consecuencia de los rozamientos producidos por la agitación de las
palas:

El joule (J) es la unidad de energía en el Sistema Internacional de Unidades,


(S.I.).
El BTU, (o unidad térmica británica) es una medida para el calor muy usada
en Estados Unidos y en muchos otros países de América. Se define como
la cantidad de calor que se debe agregar a una libra de agua para aumentar
su temperatura en un grado Fahrenheit, y equivale a 252 calorías.

Calor Específico [editar]


Artículo principal: Calor específico

En la vida cotidiana se puede observar que, si se le entrega calor a dos


cuerpos de la misma masa y la misma temperatura inicial, la temperatura
final será distinta. Este factor que es característico de cada sistema,
depende de la naturaleza del cuerpo, se llama calor específico, denotado
por c y se define como la cantidad de calor que se le debe entregar a 1
gramo de sustancia para aumentar su temperatura en 1 grado Celsius.
Matemáticamente, la definición de calor específico se expresa como:

Las unidades de calor específico son:

[c] =

[c] =
De esta forma, y recordando la definición de caloría, se tiene
que el calor específico del agua es aproximadamente:

= 1,000

Calor Específico Molar [editar]


El calor específico de una sustancia es un índice importante de su
constitución molecular interna, y a menudo da información valiosa de los
detalles de su ordenación molecular y de las fuerzas intermoleculares. En
este sentido, con frecuencia es muy útil hablar de calor específico molar
denotado por cm, y definido como la cantidad de energía necesaria para
elevar la temperatura de un mol de una sustancia en 1 grado es decir, está
definida por:

donde n indica el la cantidad de moles en la sustancia


presente.
Capacidad Calórica [editar]
La capacidad calórica de una sustancia es una magnitud que indica la
mayor o menor dificultad que presenta dicha sustancia para experimentar
cambios de temperatura bajo el suministro de calor. Se denota por C y se
define como:
C=
Dado que:

C = mc
De igual forma se puede definir la capacidad calórica molar como:
Cn = nc
donde n indica el número de moles presente en la sustancia.

Cambios de Fase [editar]


En la naturaleza existen tres estados usuales de la materia : sólido, líquido y
gaseoso. Al aplicarle calor a una sustancia, ésta puede cambiar de un
estado a otro. A estos procesos se les conoce como Cambios de Fase. Los
posibles cambios de fase son:
1. de estado sólido a líquido, llamado fusión,
2. de estado líquido a sólido, llamado solidificación,
3. de estado líquido a gaseoso, llamado evaporación o vaporización,
4. de estado gaseoso a líquido, llamado condensación,
5. de estado sólido a gaseoso, llamado sublimación progresiva, y
6. de estado gaseoso a sólido, llamado sublimación regresiva.
Calor Latente [editar]
Artículo principal: Calor latente

Un cuerpo sólido puede estar en equilibrio térmico con un líquido o un gas a


cualquier temperatura, o que un líquido y un gas pueden estar en equilibrio
térmico entre sí, en una amplia gama de temperaturas, ya que se trata de
sustancias diferentes. Pero lo que es menos evidente es que dos fases o
estados de agregación, distintas de una misma sustancia, puedan estar en
equilibrio térmico entre sí en circunstancias apropiadas.
Un sistema que consiste en formas sólida y líquida de determinada
sustancia, a una presión constante dada, puede estar en equilibrio térmico,
pero únicamente a una temperatura llamada punto de fusión simbolizado a
veces como tf. A esta temperatura, se necesita cierta cantidad de calor para
poder fundir cierta cantidad del material sólido, pero sin que haya un cambio
significativo en su temperatura. A esta cantidad de energía se le llama calor
de fusión, calor latente de fusión o entalpía de fusión, y varía según las
diferentes sustancias. Se denota por Lf. El calor de fusión representa la
energía necesaria para deshacer la fase sólida que está estrechamente
unida y convertirla en líquido. Para convertir líquido en sólido se necesita la
misma cantidad de energía, por ellos el calor de fusión representa la
energía necesaria para cambiar del estado sólido a líquido, y también para
pasar del estado líquido a sólido. El calor de fusión se mide en:
[Lf] =
De manera similar, un líquido y un vapor de una misma sustancia pueden
estar en equilibrio térmico a una temperatura llamada punto de ebullición
simbolizado por te. El calor necesario para evaporar una sustancia en estado
líquido ( o condensar una sustancia en estado de vapor calor mide en las
mismas unidades que el calor latente de fusión. Se denota por Le.

Temperatura
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

La fotósfera del sol, vista aquí en rayos X, tiene una temperatura aproximada de
5800K.

La temperatura es una magnitud escalar que es una propiedad de todos los


sistemas termodinámicos en equilibrio térmico (o sea que no presentan
intercambio de calor entre sus partes).[1] En la escala microscópica, la
temperatura se define como el promedio de la energía de los movimientos
de una partícula individual por grado de libertad. Se refiere a las nociones
comunes de calor o frío, por lo general un objeto más "caliente" tendrá una
temperatura mayor.
En el caso de un sólido, los movimientos en cuestión resultan ser las
vibraciones de las partículas en sus sitios dentro del sólido. En el caso de
un gas ideal monoatómico se trata de los movimientos traslacionales de sus
partículas (para los gases multiatómicos los movimientos rotacional y
vibracional deben tomarse en cuenta también).
Multitud de propiedades fisicoquímicas de los materiales o las sustancias
varían en función de la temperatura a la que se encuentren, como por
ejemplo su estado (gaseoso, líquido, sólido, plasma...), su volumen, la
solubilidad, la presión de vapor o la conductividad eléctrica. Así mismo es
uno de los factores que influyen en la velocidad a la que tienen lugar las
reacciones químicas.
La temperatura se mide con termómetros, los cuales pueden ser calibrados
de acuerdo a una multitud de escalas que dan lugar a las unidades de
medición de la temperatura. En el Sistema Internacional de Unidades, la
unidad de temperatura es el kelvin. Sin embargo, fuera del ámbito científico
el uso de otras escalas de temperatura es común el uso de la escala
Celsius (o centígrada), y, en los países anglosajones, la escala Fahrenheit.
También existe la escala Rankine (°R) que establece su punto de referencia
en el mismo punto de la escala Kelvin, es la escala utilizada en el Sistema
Inglés Absoluto. Una diferencia de temperatura de un kelvin equivale a una
diferencia de un grado centígrado.

Nociones generales [editar]

Un termómetro debe alcanzar el equilibrio térmico antes de que su medición sea


correcta.

La temperatura es una propiedad física que ser refiere a las nociones


comunes de frío o calor, sin embargo su significado formal en
termodinámica es más complejo, a menudo el calor o el frío percibido por
las personas tiene más que ver con la sensación térmica (ver más abajo),
que con la temperatura real. Fundamentalmente, la temperatura es una
propiedad que poseen los sistemas físicos a nivel macroscópico, la cual
tiene una causa a nivel microscópico, que es la energía promedio por
partícula.
Al contrario de otras cantidades termodinámicas como el calor o la entropía,
cuyas definiciones microscópicas son válidas muy lejos del equilibrio
térmico, la temperatura sólo puede ser medida en el equilibrio, precisamente
porque se define como un promedio.
A medida que un sistema recibe calor, su temperatura se incrementa, e
igualmente, a medida que pierde calor, su temperatura disminuye. Cuando
no existe diferencia de temperatura entre dos sistemas, no habrá
transferencia de calor entre ellos. Y cuando exista una diferencia de
temperaturas, el calor tenderá a moverse del sistema con mayor
temperatura al sistema con menor temperatura, hasta que se alcance el
equilibrio térmico. Esta transferencia de calor puede darse a través de la
conducción, convección o de la radiación o a través de combinaciones de
ellas.
La temperatura está relacionada con la energía interna y con la entalpía de
un sistema: a mayor temperatura mayores serán la energía interna y la
entalpía del sistema.
La temperatura es una propiedad intensiva, es decir que no depende del
tamaño del sistema, sino que es una propiedad que le es inherente, ni en la
cantidad de material de éste.

Definición formal [editar]


Ley cero de la Termodinámica [editar]
Antes de dar una definición formal de temperatura, es necesario entender el
concepto de equilibrio térmico. Si dos partes de un sistema entran en
contacto térmico es probable que ocurran cambios en las propiedades de
ambas. Estos cambios se deben a la transferencia de calor entre las partes.
Para que un sistema esté en equilibrio térmico debe llegar al punto en que
ya no hay intercambio de calor entre sus partes, además ninguna de las
propiedades que dependen de la temperatura debe variar.
Una definición de temperatura se puede obtener de la Ley cero de la
termodinámica, que establece que si dos sistemas A y B están en equilibrio
térmico al mismo tiempo con un tercer sistema C entonces los sistemas A y
B estaran en equilibrio térmico. Este es un hecho empírico más que un
resultado teórico. Ya que tanto los sistemas A, B, y C están todos en
equilibrio térmico, es razonable decir que comparten un valor común de
alguna propiedad física. Llamamos a esta propiedad temperatura.
Segunda ley de la Termodinámica [editar]
También es posible definir la temperatura en términos de la segunda ley de
la termodinámica, que trata con la cual dice que la entropía de todos los
sistemas, o bien permanece igual o bien aumenta con el tiempo, esto se
aplica al Universo entero como sistema termodinámico. La entropía es una
medida del desorden que hay en un sistema. Este concepto puede ser
entendido en términos estadísticos, considere una serie de tiros de
monedas. Un sistema perfectamente ordenado para la serie, sería aquel en
que solo cae cara o solo cae cruz. Sin embargo, existen múltiples
combinaciones por las cuales el resultado es un desorden en el sistema, es
decir que haya una fracción de caras y otra de cruces. Un sistema
desordenado podría ser aquel en el que hay 90% de caras y 10% de cruces,
o 60% de caras y 40% de cruces. Sin embargo es claro que a medida que
se hacen más tiros, el número de combinaciones posibles por las cuales el
sistema se desordena es mayor; en otras palabras el sistema evoluciona
naturalmente hacia un estado de desorden máximo es decir 50% caras 50%
cruces de tal manera que cualquier variación fuera de ese estado es
altamente improbable.
Para dar la definición de temperatura en base a la segunda ley, habrá que
introducir el concepto de máquina térmica la cual es cualquier dispositivo
capaz de transformar calor en trabajo mecánico. En particular interesa
conocer el planteamiento teórico de la máquina de Carnot, que es una
máquina térmica de construcción teórica, que establece los límites teóricos
para la eficiencia de cualquier máquina térmica real.
Aquí se muestra la máquina térmica descrita por Carnot, el calor entra al sistema a
través de una temperatura inicial (aquí se muestra comoTH) y fluye a través del
mismo obligando al sistema a ejercer un trabajo sobre sus alrededores, y luego
pasa al medio frío, el cual tiene una temperatura final (TC).

En una máquina térmica cualquiera, el trabajo que esta realiza corresponde


a la diferencia entre el calor que se le suministra y el calor que sale de ella.
Por lo tanto, la eficiencia es el trabajo que realiza la máquina dividido entre
el calor que se le suministra:

(1)
Donde Wci es el trabajo hecho por la máquina en cada ciclo. Se ve que
la eficiencia depende sólo de Qi y de Qf. Ya que Qi y Qf corresponden al
calor transferido a las temperaturas Ti y Tf, es razonable asumir que
ambas son funciones de la temperatura:

(2)
Sin embargo, es posible utilizar a conveniencia, una escala de
temperatura tal que

(3)
Sustituyendo la equación (3) en en la (1) relaciona la eficiencia
de la máquina con la temperatura:

(4)
Hay que notar que para Ti = 0 K la eficiencia se hace del
100%, temperaturas inferiores producen una eficiencia aún
mayor que 100%. Ya que la primera ley de la
termodinámica prohíbe que la eficiencia sea mayor que el
100%, esto implica que la mínima temperatura que se
puede obtener en un sistema microscópico es de 0 K.
Reordenando la ecuación (4) se obtiene:

(5)
Aquí el signo negativo indica la salida de calor del
sistema. Esta relación sugiere la existencia de una
función de estado S definida por:

(6)
Donde el subíndice indica un proceso reversible. El cambio de esta función
de estado en cualquier ciclo es cero, tal como es necesario para cualquier
función de estado. Esta función corresponde a la entropía del sistema, que
fue descrita anteriormente. Reordenando la ecuación siguiente para obtener
una definición de temperatura en términos de la entropía y el calor:

(7)
Para un sistema en que la entropía sea una función de su energía interna E,
su temperatura esta dada por:

(8)
Esto es, el recíproco de la temperatura del sistema es la razón de cambio
de su entropía con respecto a su energía.

Temperatura en distintos medios [editar]


La temperatura en los gases [editar]
Para un gas ideal, la teoría cinética de gases utiliza mecánica estadística
para relacionar la temperatura con el promedio de la energía total de los
átomos en el sistema. Este promedio de la energía es independiente de la
masa de las partículas, lo cual podría parecer contraintuitivo para muchos.
El promedio de la energía está relacionado excusivamente con la
temperatura del sistema, sin embargo, cada partícula tiene su propia
energía la cual puede o no corresponder con el promedio; la distribución de
la energía, (y por lo tanto de las velocidades de las partículas) está dada por
la distribución de Maxwell-Boltzmann. La energía de los gases ideales
monoatómicos se relaciona con su temperatura por medio de la siguiente
expresión:

, donde (n= número de moles, R= constante de los


gases ideales).
En un gas diatómico, la relación es:

El cálculo de la energía cinética de objetos más complicados como las


moléculas, es más difícul. Se involucran grados de libertad adicionales los
cuales deben ser considerados. La segunda ley de la termodinámica
establece sin embargo, que dos sistemas al interactuar el uno con el otro
adquirirán la misma energía promedio por partícula, y por lo tanto la misma
temperatura.
En una mezcla de partículas de varias masas distintas, las partículas más
masivas se moverán más lentamente que las otras, pero aún así tendrán la
misma energía promedio. Un átomo de Neón se mueve relativamente más
lento que una molécula de hidrógeno que tenga la misma energía cinética.
Una manera análoga de entender esto es notar que por ejemplo, las
partículas de polvo suspendidas en un flujo de agua se mueven más
lentamente que las partículas de agua. Para ver una ilustración visual de
éste hecho vea este enlace. La ley que regula la diferencia en las
distribuciones de velocidad de las partículas con respecto a su masa es la
ley de los gases ideales.

Unidades de temperatura [editar]


Las escalas de medición de la temperatura se dividen fundamentalmente en
dos tipos, las absolutas y relativas. Ya que los valores que puede adoptar la
temperatura de los sistemas, no tienen un máximo, sí tienen un nivel
mínimo, el cero absoluto.[1] Mientras que las escalas absolutas se basan en
el cero absoluto, las relativas tienen otras formas de definirse.
Absolutas [editar]
Sistema Internacional de Unidades (SI)
Kelvin (K) El Kelvin es la unidad de medida del SI, y siendo la escala
Kelvin absoluta parte del cero absoluto y define la magnitud de sus
unidades de tal forma que el punto triple del agua este exactamente a
273.15 K.[1]
Aclaración:No se le antepone la palabra grado ni el símbolo º.
Sistema Anglosajón de Unidades:
Grado Rankine (°R o °Ra). Escala con intervalos de grado equivalentes a la
escala fahrenheit. Con el origen en -459.67°F (aproximadamente)
Relativas [editar]
Unidades derivadas del SI
Grado Celsius (°C).Contrariamente a lo que se cree, esta escala no se basa
en los puntos de congelamiento y ebullición del agua, para definir la
magnitud de sus unidades. Utiliza la fórmula C = K − 273.15 donde C es la
temperatura en grados centígrados y K es la temperatura en Kelvins. El 0
de esta escala se ubica en el punto de congelamiento del agua, y al hacer la
conversión los valores experimentales son 0.00 °C y 99.975 °C, lo cual en la
práctica coincide con el fundamento histórico de la definición de la escala
Celcius.[1] .Es la más usada en información e investigación científica y
meteorología, aunque para ciertos procesos se usa la escala Kelvin.
Otras unidades
Grado Fahrenheit (°F). Toma divisiones entre los puntos de congelación
y evaporación de disoluciones de cloruro amónico. Es una unidad
típicamente usada en los países anglosajones.
Grado Réaumur (°Ré, °Re, °R). Usada para procesos industriales
específicos, como el almíbar.
Grado Rømer o Roemer. En desuso.
Grado Newton (°N). En desuso.
Grado Leiden. Usada para calibrar indirectamente bajas temperaturas.
En desuso.
Grado Delisle. En desuso.

Sensación térmica [editar]


Es importante destacar que la Sensación térmica es algo distinto de la
temperatura tal como se define en termodinámica. La sensación térmica es
el resultado de la forma en que el cuerpo humano percibe la temperatura de
los objetos y del entorno, y no un reflejo fiel de la temperatura real de las
cosas. La sensación térmica es un poco compleja de medir, por distintos
motivos:
El cuerpo humano mide la temperatura a pesar de que su propia
temperatura se mantiene aproximadamente constante (al rededor de 37 °C),
por lo tanto no alcanza el equilibrio térmico con el ambiente o con los
objetos que toca.
Los aumentos o incrementos de calor producidos en el cuerpo humano
desvían la sensación térmica del valor real de la temperatura, lo cual
produce una sensaciónes de temperatura exageradamente alta o baja.
Sin embargo, existen varias formas de simular en un termómetro la
sensación térmica tal y como la percibe el cuerpo humano:
Temperatura seca [editar]
Se llama Temperatura seca del aire de un entorno, o más sencillamente,
temperatura seca, a la del aire, prescindiendo de la radiación calorífica de
los objetos que rodean ese ambiente concreto y de los efectos de la
humedad relativa y de los movimientos de aire.
Se puede obtener con el termómetro de mercurio, cuyo bulbo, reflectante y
de color blanco brillante, se puede suponer razonablemente que no absorbe
radiación.
Temperatura radiante [editar]
La temperatura radiante tiene en cuenta el calor emitido por radiación de
los elementos del entorno.
Se toma con un termómetro de bulbo, que tiene el depósito de mercurio
encerrado en una esfera o bulbo metálico de color negro, para asemejarlo lo
más posible a un cuerpo negro y absorba la máxima radiación. Para anular
en lo posible el efecto de la temperatura del aire, el bulbo negro se aísla
mediante otro bulbo en el que se ha hecho al vacío.
La medidas se pueden tomar bajo el sol o a la sombra. En el primer caso
tendrá en cuenta la radiación solar y dará una temperatura bastante más
elevada.
También sirve para dar una idea de la sensación térmica.
La temperatura de bulbo negro hace una función parecida, dando la
combinación de la temperatura radiante y la ambiental
Temperatura húmeda [editar]
Temperatura de bulbo húmedo o Temperatura húmeda es la temperatura
que da un termómetro a la sombra con el bulbo envuelto en una mecha de
algodón húmedo bajo una corriente de aire.
La corriente de aire se produce mediante un pequeño ventilador o poniendo
el termómetro en un molinete y haciéndolo girar.
Al evaporarse el agua, absorbe calor, rebajando la temperatura, efecto que
reflejará el termómetro. Cuanto menor sea la humedad relativa ambiente,
más rápidamente se evapora el agua que empapa el paño.
Se utiliza para dar una idea de la sensación térmica o en los psicrómetros
para calcular la humedad relativa.

Coeficiente de dilatación térmica [editar]


Artículo principal: Coeficiente de
dilatación
Durante una transferencia de calor, la energía que está almacenada en los
enlaces intermoleculares entre 2 átomos cambia. Cuando la energía
almacenada aumenta, también lo hace la longitud de estos enlaces. Así, los
sólidos normalmente* se expanden al calentarse y se contraen al enfriarse;
este comportamiento de respuesta ante la temperatura se expresa mediante
el coeficiente de dilatación térmica (unidades: °C-1):

esto no ocurre para todos los sólidos: el ejemplo más típico que no lo
cumple es el hielo.
Para sólidos, el tipo de coeficiente de dilatación más comúnmente usado es
el coeficiente de dilatación lineal αL. Para una dimensión lineal cualquiera,
se puede medir experimentalmente comparando el valor de dicha magnitud
antes y después de cierto cambio de temperatura, como:
Puede ser usada para abreviar este coeficiente, tanto la letra griega alfa
como la letra lambda .
En gases y líquidos es más común usar el coeficiente de dilatación
volumétrico αV, que viene dado por la expresión:

Para sólidos, también puede medirse la dilatación térmica, aunque resulta


menos importante en la mayoría de aplicaciones técnicas. Para la mayoría
de sólidos en las situaciones prácticas de interés, el coeficiente de dilatación
volumétrico resulta ser más o menos el triple del coeficiente de dilatación
lineal:

Relación entre temperatura y densidad [editar]


En una introducción muy corta, se dice que la temperatura tiene gran
relación con la densidad, ya que, por ejemplo, si ponemos a calentar dos
pavas con agua con el mismo volumen de agua y una de ellas la sacamos
al minuto y la otra a los 5 ó 6 (tal vez ya este en su punto de hervor) y
tomamos las dos pavas...cuál está más pesada que la otra? la que sacamos
al minuto estará más pesada, ya que tiene más moléculas porque se acerca
más al estado sólido. Entonces, como sabemos, la densidad se resuelve
dividiendo el peso por la cantidad de volumen (densidad = P/V), por lo tanto
el agua más fría sera más densa que la caliente

Equilibrio térmico
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Se dice que los cuerpos en contacto térmico se encuentran en equilibrio
térmico cuando no existe flujo de calor de uno hacia el otro. Esta definición
requiere además que las propiedades físicas del sistema, que varían con la
temperatura, no cambien con el tiempo. Algunas propiedades físicas que
varían con la temperatura son el volumen, la densidad y la presión.
El parámetro termodinámico que caracteriza el equilibrio térmico es la
temperatura. Cuando dos cuerpos se encuentran en equilibrio térmico,
entonces estos cuerpos tienen la misma temperatura.
En realidad, el concepto de equilibrio térmico desde el punto de vista de la
Termodinámica requiere una definición más detallada que se presenta a
continuación.
Tabla de contenidos
[ocultar]

1. 1 Definición termodinámica del equilibrio térmico

2. 2 Interpretación microscópica del equilibrio térmico

3. 3 Ley Cero de la Termodinámica

4. 4 Aplicación del concepto de equilibrio térmico:


Termometría

5. 5 Bibliografía

6. 6 Véase también

Definición termodinámica del equilibrio térmico


[editar]

Para poder dar una definición más precisa del concepto de equilibrio térmico
desde un punto de vista termodinámico es necesario definir algunos
conceptos.
Dos sistemas (entiéndase por sistema a una parte del universo físico) que
están en contacto mecánico directo o separados mediante una superficie
que permite la transferencia de calor (también llamada superficie
diatérmica), se dice que están en contacto térmico.
Consideremos entonces dos sistemas en contacto térmico, dispuestos de tal
forma que no puedan mezclarse o reaccionar químicamente. Consideremos
además que estos sistemas estan colocados en el interior de un recinto
donde no es posible que intercambien calor con el exterior ni existan
acciones desde el exterior capaces de ejercer trabajo sobre ellos. La
experiencia indica que al cabo de un tiempo estos sistemas alcanzan un
estado de equilibrio termodinámico que se denominará estado de equilibrio
térmico recíproco o simplemente de equilibrio térmico.
El concepto de equilibrio térmico puede extenderse para hablar de un
sistema o cuerpo en equilibrio térmico. Cuando dos porciones cualesquiera
de un sistema se encuentran en equilibrio térmico se dice que el sistema
mismo está en equilibrio térmico o que es térmicamente homogéneo.
Experimentalmente se encuentra que, en un sistema en equilibrio térmico, la
temperatura en cualquier punto del cuerpo es la misma.

Interpretación microscópica del equilibrio térmico


[editar]

La Termodinámica proporciona una descripción macroscópica de los


sistemas que estudia, sin hacer hipótesis acerca de la estructura
microscópica de esos sistemas. Sin embargo, existen otras disciplinas,
como la Mecánica Estadística, que estudian los mismos fenómenos que la
Termodinámica, pero desde un enfoque microscópico.
En particular, el concepto de equilibrio térmico esá ligado al concepto de
temperatura al decir que dos sistemas en equilibrio térmico tienen la misma
temperatura. Desde un punto de vista microscópico, la temperatura esta
asociada a la energía cinética promedio que tienen las partículas que
constituyen el sistema, a saber, átomos, moléculas y/o la estructura
electrónica de la sustancia que constituye el sistema. Macroscópicamente,
esta energía cinética promedio de las partículas de un sistema es lo que en
la Termodinámica se llama energía interna, que es una energía que
depende casi exclusivamente de la temperatura del sistema. A mayor
energía cinética promedio de las partículas que constituyen un sistema,
mayor energía interna y, en general, mayor temperatura del sistema.
La situación de dos sistemas en contacto térmico se interpreta
microscópicamente como que las partículas de la superficie de interfase de
ambos sistemas son capaces de interactuar entre sí. Básicamente se puede
ver que, microscópicamente, las partículas del sistema de mayor
temperatura (que tienen mayor energía cinética) van a transferir parte de su
energía a las partículas del otro sistema. Se encuentra que esta interacción
entre los dos sistemas da lugar a que las partículas de los dos sistemas
alcancen la misma energía cinética promedio y, por lo tanto, la misma
temperatura. Es decir, desde un punto de vista microscópico, se entiende
como equilibrio térmico entre dos sistemas que las partículas de los dos
sistemas tengan la misma energía cinética promedio.
Desde un punto de vista macroscópico, se dice que los sistemas un estado
de equilibrio, bajo las condiciones indicadas en la sección definición
termodinámica del equilibrio térmico. En cambio, desde un punto de vista
microscópico, el estado de equilibrio se refiere al promedio, ya que los dos
sistemas continúan intercambiando energía incluso una vez alcanzado el
equilibrio térmico. Sin embargo, la energía cinética individual de una
partícula no es estacionaria, sino que es el promedio de la distribución de
energías de todas las partículas del sistema lo que no cambia en el tiempo.
De igual manera que para el caso macroscópico, se puede extender el
concepto de equilibrio térmico a un único sistema donde, en esa situación
de equilibrio, las partículas de dos partes cualesquiera del sistema tienen la
misma energía cinética promedio.
Escalas de Temperatura
Como ya hemos indicados, las variaciones de temperatura de un cuerpo van casi
siempre acompañadas de una variación de las magnitudes observables o macroscópicas
que caracterizan el estado de dicho cuerpo. Así ocurre, por ejemplo, con la longitud de
una columna líquida o de un alambre, la resistencia eléctrica de un metal, la fuerza
electromotriz de un par termoeléctrico, la presión (o el volumen) de un gas a volumen (o
presión) constante, el poder emisivo de un filamento incandescente, el índice de
refracción de una sustancia, etc.
Las propiedades físicas de los materiales dependen de la temperatura a la que se
encuentren y, por tanto, siempre es posible definir una escala de temperaturas basándose
en la variación térmica de una de las características de un determinado cuerpo elegido
como patrón y a la cual referiríamos todas las demás. Sin embargo esta escala sería
totalmente arbitraria y no permitiría obtener de la temperatura todo su significado
intrínseco. Por tanto, es necesario utilizar las leyes de la termodinámica para definir una
escala de temperaturas de carácter universal.
En efecto, las escalas termodinámicas o absolutas se definen a partir del segundo
principio de la termodinámica, que dice que el rendimiento de una máquina térmica
ideal que funciona reversiblemente entre dos fuentes de calor es función exclusivamente
de las temperaturas de éstas, determinadas en cualquier escala definida de forma
arbitraria. es decir:
η = 1 - F (θ 1) / F (θ 2)
siendo F una función que sólo depende de la escala de temperatura elegida. Si llamamos
T a F (θ ),
η = 1 - T1 / T2
siendo ahora T1 y T2, las temperaturas absolutas de cada una de las dos fuentes térmicas.
Por otra parte, un gas perfecto tiene como características fundamentales que su
energía interna es función solamente de la temperatura y que la ecuación que liga su
presión y volumen es a su vez dependiente exclusivamente de la temperatura. Si
se expresa ésta en una escala termodinámica o absoluta, se encuentra que P v = R T
siendo R la constante de los gases perfectos, cuyo valor no depende más que de la
unidad en que se exprese la temperatura. Por lo tanto, para definir una escala será
suficiente definir el valor numérico que se asocia a un determinado fenómeno
fácilmente reproductible (por ejemplo la temperatura en que se encuentran en equilibrio
las tres fases del agua, sólido, líquido y vapor, es decir, el punto triple del agua).
La escala de grados centígrados es la más utilizada en España y países europeos; se
obtiene desplazando el origen de la escala de temperaturas de Kelvin 273,15 grados. La
escala de Fahrenheit se obtiene a partir de la escala de Rankin desplazando el origen de
la escala en 459,67 grados Rankin.

Kelvin Celsius Rankin Fahrenheit


K °C °R °F
Cero absoluto 0 -273.15 0 -459.67
Congelación del agua, P = 1 atm 275.15 0 491.67 32
Punto triple del agua 273.16 0.01 491.69 32.018
Ebullición del agua, P = 1atm 373.15 100 671.67 212
La máquina térmica reversible, lo mismo que el gas perfecto, son conceptos ideales y
como tales no pueden dar lugar a ninguna realización experimental de dispositivos
termométricos. Sin embargo, las características del gas ideal han sido obtenidas por
extrapolación de las de los gases reales a baja presión, y, por tanto, es posible la
utilización de termómetros basados en las variaciones de presión y volumen de un gas.
Sin embargo la utilización de un termómetro de gas requiere unos conocimientos
previos y sobre todo un uso delicado, lo que hace que sea poco frecuente y se encuentre
relegada su utilización a los laboratorios de investigación. Sin embargo, ha sido
utilizado para determinar de forma precisa la temperatura de diversos
puntos termométricos con los que se pueden calibrar otros dispositivos de utilización
más sencilla.
En la tabla siguiente se dan los valores de distintos puntos fijos.

Punto triple del helio 4.22


Punto triple del hidrógeno 13.81
Punto de ebullición hidrógeno 20.28
Punto de ebullición del neón 27.102
Punto triple del oxígeno 54.361
Punto de ebullición del oxígeno 90.188
Punto triple del agua 273.16
Punto de ebullición del agua 373.15
Punto de congelación del zinc 692.73
Punto de congelación de la plata 1235.08
Punto de congelación del oro 1337.58
Para llevar a efecto de forma experimental la medida de temperaturas con precisión
sin disponer de un termómetro de gas se utilizan tres tipos de dispositivos diferentes
para ser usados en los intervalos adecuados:
• resistencias eléctricas,
• termopares y
• detectores de la radiación que emite el cuerpo caliente.
Estos dispositivos se calibran previamente con los puntos fijos señalados
anteriormente y las medidas intermedias se obtienen por interpelación entre dos o más
de ellos.
Escala Kelvin
Existen varias escalas de temperatura diferentes, pero la que se utiliza en física es la
escala termodinámica absoluta (o de Kelvin), basada en la cantidad de energía térmica
que poseen los cuerpos. Tiene dos puntos fijos, que son valores dados a temperaturas
precisas, en las que se producen efectos determinados; unas divisiones existentes entre
esos puntos fijos (los grados) señalan los intervalos de la escala. El más bajo es el cero
absoluto, temperatura a la que la molécula tiene una energía térmica igual a cero. La
unidad de temperatura es el kelvin (K), siendo el cero absoluto 0 K. El punto fijo
superior es el punto triple del agua, una temperatura única en la que pueden coexistir en
equilibrio hielo, agua líquida y vapor de agua. Se le ha dado el valor de 273,16 K.
Escala Celsius
La escala Celsius está relacionada con la escala termodinámica (o centígrada), de
cómodo empleo porque evita cifras complicadas a las temperaturas normales. En esta
escala el punto triple del agua es 0,01 °C. La magnitud de un kelvin es la misma que la
del grado de la escala centígrada (o Celsius); el cero absoluto de esta escala es ~ 273,15
°C.
Como el cero absoluto no se puede alcanzar en la práctica, hay que determinar otros
puntos fijos en la definición de una escala de temperaturas práctica. Además, los
termómetros tienen diferentes gamas de temperaturas, en las que se puede emplear
eficientemente, siendo necesaria toda una serie de puntos fijos para calibrarlas. La
escala práctica internacional de temperaturas tiene 11 puntos fijos principales, y se
extiende desde -259,34 °C, punto triple del hidrógeno (temperatura de coexistencia en
equilibrio de hidrógeno sólido, líquido y gaseoso) hasta 1064,43 °C, punto de fusión del
oro puro.
Escala Fahrenheit
La escala Fahrenheit se emplea todavía en algunos países, aunque no a nivel
científico. En esta escala el punto de congelación del agua está en los 32 °F y el de
ebullición en 212 °F. Su unidad de temperatura, el grado Fahrenheit (°F) es igual a 5/9
de un grado Celsius o Kelvin.

Comparamos tres escalas de temperatura, con indicación de los puntos de congelación


y ebullición del agua
El origen de la escala de Fahrenheit
El invierno de 1709 en Europa Occidental fue muy duro. Durante un siglo no hizo
tanto frío allí. De modo que era natural que el físico danés Fahrenheit, que vivía en la
ciudad de Dantzig, para señalar los puntos constantes de la escala de su termómetro,
adoptase por cero la temperatura mínima que se registró aquel invierno.
Una mezcla refrigerante de hielo, sal común y sal amoníaca le permitió bajar la
temperatura hasta tal grado.
Para marcar otro punto constante de su termómetro, Fahrenheit, siguiendo a sus
antecesores (entre ellos Isaac Newton), eligió la temperatura normal del cuerpo humano.
En aquel tiempo generalmente se creía que la temperatura del ambiente nunca supera la
de la sangre humana, y se suponía que, si tal cosa sucede, el hombre morirá (éste es un
criterio absolutamente erróneo).
En un principio, Fahrenheit marcó este segundo punto constante con el número 24
por la cantidad de horas del día solar medio, pero posteriormente se dio cuenta de que
semejantes divisiones de la escala termométrica eran demasiado grandes. El inventor
dividió cada grado en cuatro partes, por lo cual la temperatura del cuerpo humano se
designó con el número 24 x 4 = 96. De esta manera estableció definitivamente el valor
de la división equivalente a un grado.
Graduando la escala de abajo arriba, determinó que la temperatura de ebullición del
agua era igual a 212 grados.
¿Por qué Fahrenheit no utilizó la temperatura de ebullición. del agua como el
segundo punto constante de su termómetro? No lo hizo porque sabía cuán variable es
esta magnitud que depende de la presión del aire. La temperatura del cuerpo humano le
parecía más segura, pues es más constante.
A propósito, es interesante señalar (y es muy fácil comprobarlo mediante el cálculo)
que en aquel entonces se creía que la temperatura normal del cuerpo humano era igual a
35.5 grados centígrados (un grado menos que ahora)
El origen de la escala de Reumur
El termómetro original de Reaumur se parecía muy poco al actual. No era de
mercurio, sino de alcohol. Reaumur graduó su escala partiendo de un solo punto de
referencia constante, o sea, de la temperatura de fusión del hielo, marcado con el
número 1000, y utilizando alcohol cuyo coeficiente de dilatación térmica era igual a
0,0008.
El inventor estableció que la división de un grado de la escala termométrica ha de
equivaler al aumento del volumen de alcohol en una milésima parte. En este caso el
punto de ebullición del agua debería estar 80 grados más alto que el punto de fusión del
hielo y correspondería a 1080 grados. Posteriormente señaló el punto de fusión del hielo
con 0, por lo cual el de ebullición del agua fue designado (y lo es hasta hoy día) con 80
grados.

Termodinámica
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
La termodinámica (del Griego θερμo-, termo, que significa "calor" [1] y
δύναμις, dinámico, que significa "fuerza" [2] ) es una rama de la física que
estudia los efectos de los cambios de la temperatura, presión y volumen de
los sistemas físicos a un nivel macroscópico. Aproximadamente, calor
significa "energía en tránsito" y dinámica se refiere al "movimiento", por lo
que, en esencia, la termodinámica estudia la circulación de la energía y
cómo la energía infunde movimiento. Históricamente, la termodinámica se
desarrolló a partir de la necesidad de aumentar la eficiencia de las primeras
máquinas de vapor.
El punto de partida para la mayoría de consideraciones termodinámicas son
las leyes de la termodinámica, que postulan que la energía puede ser
intercambiada entre sistemas físicos en forma de calor o trabajo. También
se postula la existencia de una magnitud llamada entropía, que puede ser
definida para cualquier sistema. En la termodinámica se estudian y
clasifican las interacciones entre diversos sistemas, lo que lleva a definir
conceptos como sistema termodinámico y su contorno. Un sistema
termodinámico se caracteriza por sus propiedades, relacionadas entre sí
mediante las ecuaciones de estado. Éstas se pueden combinar para
expresar la energía interna y los potenciales termodinámicos, útiles para
determinar las condiciones de equilibrio entre sistemas y los procesos
espontáneos.
Con estas herramientas, la termodinámica describe cómo los sistemas
responden a los cambios en su entorno. Esto se puede aplicar a una amplia
variedad de temas de ciencia e ingeniería, tales como motores, transiciones
de fase, reacciones químicas, fenómenos de transporte, e incluso agujeros
negros. Los resultados de la termodinámica son esenciales para otros
campos de la física y la química, ingeniería química, ingeniería
aeroespacial, ingeniería mecánica, biología celular, ingeniería biomédica, y
la ciencia de materiales por nombrar algunos.
Trabajo (física)

Tabla de contenidos
[ocultar]

1. 1 Leyes de la Termodinámica

1. 1.1 Primera ley de la termodinámica

2. 1.2 Segunda ley de la termodinámica

3. 1.3 Enunciados de Clausius y Carnot

1. 1.3.1 Enunciado de Carnot

2. 1.3.2 Enunciado de Clausius

3. 1.3.3 Otra interpretación

4. 1.4 Tercera ley de la termodinámica

5. 1.5 Ley cero de la termodinámica

2. 2 Termometría

1. 2.1 Demostración de la existencia de la temperatura empírica de un sistema en base a la


ley cero

2. 2.2 Propiedades termométricas

3. 2.3 Escalas de temperatura

1. 2.3.1 Escala Celsius

2. 2.3.2 Escala Kelvin o absoluta

3. 2.3.3 Escala Fahrenheit


3. 3 Sistema y ambiente

1. 3.1 Sistema

2. 3.2 Medio externo

4. 4 Equilibrio térmico

1. 4.1 Variables termodinámicas

2. 4.2 Estado de un sistema

3. 4.3 Equilibrio térmico

4. 4.4 Foco térmico

5. 4.5 Contacto térmico

5. 5 Procesos termodinámicos

6. 6 Rendimiento termodinámico o eficiencia

7. 7 Dilatación térmica

1. 7.1 Dilatación lineal

2. 7.2 Dilatación superficial

3. 7.3 Dilatación volumétrica

8. 8 Diagramas termodinámicos

9. 9 Referencias

10. 10 Véase también

11. 11 Enlaces externos

Leyes de la Termodinámica
Primera ley de la termodinámica
Artículo principal: Conservación de la energía

También conocido como principio de la conservación de la energía,


establece que si se realiza trabajo sobre un sistema, la energía interna del
sistema variará. La diferencia entre la energía interna del sistema y la
cantidad de energía es denominada calor. Fue propuesto por Antoine
Lavoisier.
La ecuación general de la conservación de la energía es la siguiente:
Eentra − Esale = ΔEsistema
En otras palabras: La energía no se crea ni se destruye sólo se transforma.
(conservación de la energía).

Aplicaciones de la Primera Ley:


1. Sistemas cerrados:
Un sistema cerrado es uno que no tiene entrada ni salida de masa,
también es conocido como masa de control. El sistema cerrado tiene
interacciones de trabajo y calor con sus alrededores, así como puede
realizar trabajo de frontera.
La ecuación general para un sistema cerrado (despreciando energía
cinética y potencial) es:
Q − W = ΔU

Donde Q es la cantidad total de transferencia de calor hacia o desde el


sistema (positiva cuando entra al sistema y negativa cuando sale de
éste), W es el trabajo total (negativo cuando entra al sistema y positivo
cuando sale de éste) e incluye trabajo eléctrico, mecánico y de frontera;
y U es la energía interna del sistema.

1. Sistemas abiertos
Un sistema abierto es aquel que tiene entrada y/o salida de masa, así
como interacciones de trabajo y calor con sus alrededores, también
puede realizar trabajo de frontera.
La ecuación general para un sistema abierto es:

O igualmente:

Q−W+ ∑m θ − ∑ m
in in θ
out out = ΔEsistema

in out

Donde in representa todas las entradas de masa al sistema; out


representa todas las salidas de masa desde el sistema; y θ es la
energía por unidad de masa del flujo y comprende entalpía, energía

potencial y energía cinética, .

La energía del sistema es


1. Sistemas abiertos en estado estacionario
El balance de energía se simplifica considerablemente para sistemas en
estado estacionario (también conocido como estado estable). En estado
estacionario se tiene ΔEsistema = 0, por lo que el balance de energía
queda:

1. Sistema Aislado
Es aquel sistema en el cual no hay intercambio ni de masa ni de
energía con el exterior.
Segunda ley de la termodinámica
Artículo principal: Segunda ley de la termodinámica

Esta ley indica la dirección en que se llevan a cabo las


transformaciones energéticas. En un sistema aislado, es decir, que no
intercambia materia ni energía con su entorno, la entropía (fracción de
energía de un sistema que no es posible convertir en trabajo) siempre
aumenta con el tiempo.
En otras palabras: El flujo espontáneo de calor siempre es
unidireccional, desde los cuerpos a temperatura más alta a aquellos de
temperatura más baja.
Existen numerosos enunciados para definir este principio,
destacándose los de Carnot y Clausius.
Enunciados de Clausius y Carnot
Enunciado de Carnot
Nicolas Léonard Sadi Carnot en 1824 propuso: La potencia motriz del
calor es independiente de los agentes que intervienen para realizarla;
su cantidad se fija únicamente por la temperatura de los cuerpos entre
los que se hace, en definitiva, el transporte calórico.
Enunciado de Clausius

Diagrama del ciclo de Carnot en función de la presión y el volumen.

En palabras de Sears es : " No es posible ningún proceso cuyo único


resultado sea la extracción de calor de un recipiente a una cierta
temperatura y la absorción de una cantidad igual de calor por un
recipiente a temperatura más elevada".
Ambos enunciados son equivalentes y expresan una misma ley de la
naturaleza. "La energía no se crea ni se destruye solo se transforma".

Donde:

, rendimiento del ciclo de Carnot.

, temperaturas de la fuente fría (c) y caliente (h).

, rendimiento máximo.
Otra interpretación
Es imposible construir una máquina térmica cíclica que transforme calor
en trabajo sin aumentar la energía termodinámica del ambiente. Debido
a esto podemos concluir que el rendimiento energético de una máquina
térmica cíclica que convierte calor en trabajo siempre será menor a la
unidad y ésta estará más próxima a la unidad cuanto mayor sea el
rendimiento energético de la misma. Es decir, mientras mayor sea el
rendimiento energético de una máquina térmica, menor será el impacto
en el ambiente, y viceversa.
Tercera ley de la termodinámica
Artículo principal: Tercera ley de la termodinámica

La Tercera de las leyes de la termodinámica, propuesto por Walther


Nernst, afirma que es imposible alcanzar una temperatura igual al cero
absoluto mediante un número finito de procesos físicos. Puede
formularse también como que a medida que un sistema dado se
aproxima al cero absoluto, su entropía tiende a un valor constante
específico. La entropía de los sólidos cristalinos puros puede
considerarse cero bajo temperaturas iguales al cero absoluto. No es
una noción exigida por la Termodinámica clásica, así que es
probablemente inapropiado tratarlo de “ley”.
Es importante recordar que los principios o leyes de la Termodinámica
son sólo generalizaciones estadísticas, válidas siempre para los
sistemas macroscópicos, pero inaplicables a nivel cuántico. El demonio
de Maxwell ejemplifica cómo puede concebirse un sistema cuántico que
rompa las leyes de la Termodinámica.
Asimismo, cabe destacar que el primer principio, el de conservación de
la energía, es la más sólida y universal de las leyes de la naturaleza
descubiertas hasta ahora por la ciencia.
Ley cero de la termodinámica
El equilibrio termodinámico de un sistema se define como la condición
del mismo en el cual las variables empíricas usadas para definir un
estado del sistema (presión, volumen, campo eléctrico, polarización,
magnetización, tensión lineal, tensión superficial, entre otras) no son
dependientes del tiempo. A dichas variables empíricas (experimentales)
de un sistema se les conoce como coordenadas termodinámicas del
sistema.
A este principio se le llama del equilibrio termodinámico. Si dos
sistemas A y B están en equilibrio termodinámico, y B está en equilibrio
termodinámico con un tercer sistema C, entonces A y C están a su vez
en equilibrio termodinámico. Este principio es fundamental, aun siendo
ampliamente aceptado, no fue formulado formalmente hasta después
de haberse enunciado las otras tres leyes. De ahí que recibe la posición
0.
Teoría cinética
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
La teoría cinética de los gases es una teoría física que explica el
comportamiento y propiedades macroscópicas de los gases a partir de una
descripción estadística de los procesos moleculares microscópicos. La
teoría cinética se desarrolló con base en los estudios de físicos como
Ludwig Boltzmann y James Clerk Maxwell a finales del siglo XIX.
Tabla de contenidos
[ocultar]

1. 1 Postulados

2. 2 Presión

3. 3 Temperatura

4. 4 Velocidad promedio de las


moléculas

5. 5 Véase también

6. 6 Enlaces externos

Postulados [editar]
Los principios fundamentales de la teoría cinética son los siguientes:
1. Los gases están compuestos de moléculas en movimiento aleatorio.
Las moléculas sufren colisiones aleatorias entre ellas y las paredes del
recipiente contenedor del gas.
2. Las colisiones entre las moléculas del gas y las paredes del recipiente
contenedor son elásticas.
Adicionalmente, si el gas está en el interior de un recipiente, las colisiones
con sus paredes se asume que son instantáneas y perfectamente elásticas.
Estos postulados describen el comportamiento de un gas ideal. Los gases
reales se aproximan a este comportamiento ideal en condiciones de baja
densidad y temperatura.

Presión [editar]
En el marco de la teoría cinética la presión de un gas es explicada como el
resultado macroscópico de las fuerzas implicadas por las colisiones de las
moléculas del gas con las paredes del contenedor. La presión puede
definirse por lo tanto haciendo referencia a las propiedades microscópicas
del gas.
En efecto, para un gas ideal con N moléculas, cada una de masa m y
moviéndose con una velocidad aleatoria promedio vrms contenido en un
volumen cúbico V las partículas del gas impactan con las paredes del
recipiente de una manera que puede calcularse de manera estadística
intercambiando momento lineal con las paredes en cada choque y
efectuando una fuerza neta por unidad de área que es la presión ejercida
por el gas sobre las paredes.

La presión puede calcularse como

Este resultado es interesante y significativo no sólo por ofrecer una


forma de calcular la presión de un gas sino porque relaciona una
variable macroscópica observable, la presión, con la energía cinética
traslacional promedio por molécula, 1/2 mvrms², que es una magnitud
microscópica no observable directamente. Nótese que el producto de la
presión por el volumen del recipiente es dos tercios de la energía
cinética total de las moléculas de gas contenidas.

Temperatura [editar]
La ecuación superior nos dice que la presión de un gas depende
directamente de la energía cinética molecular. La ley de los gases
ideales nos permite asegurar que la presión es proporcional a la
temperatura absoluta. Estos dos enunciados permiten realizar una de
las afirmaciones más importantes de la teoría cinética: La energía
molecular promedio es proporcional a la temperatura. La constante de
proporcionales es 3/2 la constante de Boltzmann, que a su vez es el
cociente entre la constante de los gases R entre el número de
Avogadro. Este resultado permite deducir el principio o teorema de
equipartición de la energía.
La energía cinética por Kelvin es:
1. Por mol 12.47 J
2. Por molécula 20.7 yJ = 129 μeV
En condiciones estándar de presión y temperatura (273.15 K) se
obtiene que la energía cinética total del gas es:
1. Por mol 3406 J
2. Por molécula 5.65 zJ = 35.2 meV
Ejemplos:
1. Hidrógeno (peso molecular = 2): 1703 kJ/kg
2. Nitrógeno (peso molecular = 28): 122 kJ/kg
3. Oxígeno (peso molecular = 32): 106 kJ/kg
Velocidad promedio de las moléculas [editar]
De las fórmulas para la energía cinética y la temperatura se tiene

= 24,940 T / peso molecular


donde v se mide en m/s yT en kelvins
Para una temperatura estándar la velocidad promedio de las
moléculas de gas son:
1. Hidrógeno 1846 m/s
2. Nitrógeno 493 m/s
3. Oxígeno 461 m/s
Las velocidades más probables son un 81.6% de estos valores.

Onda (física)
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Ondas propagadas en agua

Onda estacionaria formada por la interferencia entre una onda (azul) que avanza
hacia la derecha y una onda (roja) que avanza hacia la izquierda.

Una onda es una perturbación de alguna propiedad de un medio, por


ejemplo, densidad, presión, campo eléctrico o campo magnético, que se
propaga a través del espacio transportando energía. El medio perturbado
puede ser de naturaleza diversa como aire, agua, un trozo de metal o el
espacio[[1]] ultra alto vacío[[2]].
La propiedad del medio en la que se observa la particularidad se expresa

como una función tanto de la posición como del tiempo .


Matemáticamente se dice que dicha función es una onda si verifica la
ecuación de ondas:

donde v es la velocidad de propagación de la onda. Por ejemplo, ciertas


perturbaciones de la presión de un medio, llamadas sonido, verifican la
ecuación anterior, aunque algunas ecuaciones no lineales también
tienen soluciones ondulatorias, por ejemplo, un solitón.

Clasificación de las ondas [editar]


Las ondas se clasifican atendiendo a diferentes aspectos:
En función del medio en el que se propagan [editar]
1. Ondas mecánicas: las ondas mecánicas necesitan un medio elástico
(sólido, líquido o gaseoso) para propagarse. Las partículas del medio
oscilan alrededor de un punto fijo, por lo que no existe transporte neto de
materia a través del medio. Como en el caso de una alfombra o un látigo
cuyo extremo se sacude, la alfombra no se desplaza, sin embargo una onda
se propaga a través de ella. Dentro de las ondas mecánicas tenemos las
ondas elásticas, las ondas sonoras y las ondas de gravedad.
2. Ondas electromagnéticas: las ondas electromagnéticas se
propagan por el espacio sin necesidad de un medio pudiendo, por tanto,
propagarse en el vacío. Esto es debido a que las ondas electromagnéticas
son producidas por las oscilaciones de un campo eléctrico en relación con
un campo magnético asociado.
3. Ondas gravitacionales: las ondas gravitacionales son
perturbaciones que alteran la geometría misma del espacio-tiempo y
aunque es común representarlas viajando en el vacío, técnicamente no
podemos afirmar que se desplacen por ningún espacio sino que en sí
mismas son alteraciones del espacio-tiempo.
En función de su propagación o frente de onda [editar]
1. Ondas unidimensionales: las ondas unidimensionales son aquellas
que se propagan a lo largo de una sola dirección del espacio, como las
ondas en los muelles o en las cuerdas. Si la onda se propaga en una
dirección única, sus frentes de onda son planos y paralelos.
2. Ondas bidimensionales o superficiales: son ondas que se
propagan en dos direcciones. Pueden propagarse, en cualquiera de las
direcciones de una superficie, por ello, se denominan también ondas
superficiales. Un ejemplo son las ondas que se producen en la superficie de
un lago cuando se deja caer una piedra sobre él.
3. Ondas tridimensionales o esféricas: son ondas que se propagan
en tres direcciones. Las ondas tridimensionales se conocen también como
ondas esféricas, porque sus frentes de ondas son esferas concéntricas que
salen de la fuente de perturbación expandiéndose en todas direcciones. El
sonido es una onda tridimensional. Son ondas tridimensionales las ondas
sonoras (mecánicas) y las ondas electromagnéticas.
En función de la dirección de la perturbación [editar]
1. Ondas longitudinales: el movimiento de las partículas que
transportan la onda es paralelo a la dirección de propagación de la onda.
Por ejemplo, un muelle que se comprime da lugar a una onda longitudinal.
2. Ondas transversales: las partículas se mueven perpendicularmente
a la dirección de propagación de la onda.
En función de su periodicidad [editar]
1. Ondas periódicas: la perturbación local que las origina se produce
en ciclos repetitivos por ejemplo una onda senoidal.
2. Ondas no periódicas: la perturbación que las origina se da
aisladamente o, en el caso de que se repita, las perturbaciones sucesivas
tienen características diferentes. Las ondas aisladas se denominan también
pulsos.
Fenómenos ondulatorios [editar]
Son los efectos y propiedades exhibidas por las entidades físicas que
se propagan en forma de onda:
1. Difracción - Ocurre cuando una onda al topar con el borde de un
obstáculo deja de ir en línea recta para rodearlo.
2. Efecto Doppler - Efecto debido al movimiento relativo entre la fuente
emisora de las ondas y el receptor de las mismas.
3. Interferencia - Ocurre cuando dos ondas se combinan al encontrase
en el mismo punto del espacio.
4. Reflexión - Ocurre cuando una onda, al encontrarse con un nuevo
medio que no puede atravesar, cambia de dirección.
5. Refracción - Ocurre cuando una onda cambia de dirección al entrar
en un nuevo medio en el que viaja a distinta velocidad.
6. Onda de choque - Ocurre cuando varias ondas que viajan en un
medio se superponen formando un cono.

Onda mecánica
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

Ondas propagadas en la superficie del agua.

Una onda mecánica es una perturbación que se propaga a través de un


medio elástico —en lo cual se diferencian de las ondas electromagnéticas—
y transporta energía sin un transporte neto de materia. Por medio elástico
se entiende aquel que, pasada la perturbación es capaz de retomar a su
forma inicial, éste puede ser tanto sólido —caso de las ondas sísmicas en
un terremoto, como líquido o gaseoso —caso de las ondas sonoras o de la
onda expansiva de una explosión.
Para que se produzca una onda mecánica son necesarias las siguientes
condiciones:
1. Una fuente de perturbación.
2. Un medio a través del cual se propague la perturbación.
3. Un mecanismo por medio del cual las partículas del medio interactúen
entre sí para intercambiar energía.
La fuente de perturbación provoca que las partículas que componen el
medio oscilen alrededor de una posición de equilibrio por lo que su
desplazamiento neto es igual a cero. Al interactuar las partículas unas
con otras se transfiere la energía desde una partícula hacia su vecina,
sin embargo no hay transporte neto de la materia que constituye el
medio.
Las ondas mecánicas, debido a su mecanismo de expansión cuentan
con las siguientes características:
1. La onda se propaga desde la fuente en todas las direcciones en que
le sea posible.
2. Dos ondas pueden entrecruzarse en el mismo punto del medio sin
modificarse una a la otra.
3. La velocidad de la onda es una propiedad dependiente únicamente
de las características físicas del medio, salvo en ondas a flexión en la que
son también función de la frecuencia.
Como ejemplo de ondas mecánicas se encuentra el caso de una
alfombra o un látigo cuyo extremo se sacude, la alfombra no se
desplaza, sin embargo una onda se propaga a través de ella.
Las ondas que se forman en la superficie del agua en forma de
círculos concéntricos cuando un cuerpo golpea la superficie es otro
caso de ondas mecánicas.
El sonido es también un ejemplo de una onda mecánica y como tal
necesita un medio para propagarse, normalmente la atmósfera,
estando constituido por una variación de la presión atmosférica.
Debido a esta característica no puede propagarse por el vacio, de
ahí que en el espacio no haya sonido.
Reflexión, Refracción y Difracción
Las ondas al llegar a la superficie de separación de dos medios puede ser reflejada o transmitida
(refractada o difractada).

La reflexión puede ser parcial o total. Además puede producirse con cambio de fase o no dependiendo de
la rigidez de la superficie de separación.

Las ondas transmitidas pueden ser refractadas o difractadas:

Refracción: se da cuando la onda pasa de un medio a otro y se producen cambios en la velocidad y en la


dirección de propagación.

Difracción: se produce cuando la onda "choca" contra un obstáculo o penetra por una agujero. La mayor
difracción se produce cuando el tamaño del agujero o del obstáculo son parecidos a la longitud de onda de
la onda incidente.

Estas propiedades de las ondas sirven para todas las ondas; desde las electromagnéticas (como la luz, o las
ondas de radio o los rayos X) hasta las ondas de presión (sonoras) o las ondas en el agua o las producidas
por los terremotos.

Electromagnetismo
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

Espectro de las ondas electromagnéticas. Las ondas electromagnéticas se


clasifican en función de su frecuencia o longitud de onda. Entre ellas se incluyen
las ondas de radio (menos de 109 Hz), las microondas (109 – 3×1011), los rayos
infrarrojos (3×1011 – 3,84×1014), la luz visible (3,84×1014 – 7,89×1014), los rayos
ultravioletas (7,89×1014 – 3×1016), los rayos X (3×1016 – 3×1019), los rayos gamma
(más de 3×1019) y los rayos cósmicos

El Electromagnetismo es una rama de la Física que estudia y unifica los


fenómenos eléctricos y magnéticos en una sola teoría, cuyos fundamentos
fueron sentados por Faraday y formulados por primera vez de modo
completo por James Clerk Maxwell. La formulación consiste en cuatro
ecuaciones diferenciales vectoriales que relacionan el campo eléctrico, el
campo magnético y sus respectivas fuentes materiales (corriente eléctrica,
polarización eléctrica y polarización magnética), conocidas como
ecuaciones de Maxwell.
El electromagnetismo es una teoría de campos; es decir, las explicaciones y
predicciones que provee se basan en magnitudes físicas vectoriales
dependientes de la posición en el espacio y del tiempo. El
Electromagnetismo describe los fenómenos físicos macroscópicos en los
cuales intervienen cargas eléctricas en reposo y en movimiento, usando
para ello campos eléctricos y magnéticos y sus efectos sobre las sustancias
sólidas, líquidas y gaseosas. Por ser una teoría macroscópica, es decir,
aplicable sólo a un número muy grande de partículas y a distancias grandes
respecto de las dimensiones de éstas, el Electromagnetismo no describe los
fenómenos atómicos y moleculares, para los que es necesario usar la
Mecánica Cuántica.
Tabla de contenidos
[ocultar]

1. 1 Historia

2. 2 Campo
electromagnético

3. 3 Véase también

4. 4 Referencias

1. 4.1 Generales

2. 4.2 Notas

5. 5 Enlaces externos

Historia [editar]
Esquema original de 1785 de la balanza de torsión de Coulomb

El concepto actual del electromagnetismo tiene su origen en diferentes


experimentos desarrollados principalmente durante el siglo XIX, en los
cuales se planteó la unificación de las teorías sobre la electricidad y el
magnetismo. Antes de este planteamiento los fenómenos eléctricos y
magnéticos habían sido tratados por separado, habiéndose desarrollado
teorías desde la antigua Grecia; sin embargo, no fue hasta los últimos años
del siglo XVI cuando se realizaron los primeros descubrimientos científicos
en ese campo. Hacia 1600, William Gilbert, mediante experimentos de
frotación de distintos materiales, adoptó el término de electricidad; en 1672
Otto von Guericke creó la primera máquina capaz de producir una descarga
eléctrica.
Ya en el siglo XVIII, Stephen Gray detalló las características necesarias
para la conductividad eléctrica. En 1733, Charles François de Cisternay du
Fay creó los conceptos de cargas positivas y cargas negativas; en 1745,
Pieter van Musschenbroek y Ewald Georg von Kleist desarrollaron la Botella
de Leyden, uno de los primeros condensadores eléctricos; en 1752,
Benjamin Franklin demostró que los rayos son fenómenos de origen
eléctrico y en 1776, Joseph Priestley elaboró la hipótesis de que, al igual
que en las formulas sobre la gravedad elaboradas por Newton, la fuerza
eléctrica es directamente proporcional a la carga e inversamente
proporcional al cuadrado de la distancia entre ellas. Esta hipótesis fue
corroborada por Coulomb mediante el uso de un sistema que había
inventado en 1785 y que permitía la medición de la fuerza eléctrica: la
balanza de torsión. En la recta final del siglo, Alessandro Volta desarrolla la
primera pila de corriente continua, la pila de Volta.
Pila de Volta en el Tempio Voltiano de Como, Lombardía. Desarrollada hacia 1800,
fue probablemente la primera batería de la historia moderna

A principios siglo XIX Hans Christian Ørsted planteó la hipótesis de que los
fenómenos magnéticos y eléctricos estuviesen relacionados. Esta relación
fue demostrada por Ampere entre 1822 y 1826. En 1823 William Sturgeon
desarrolló el primer electroimán, perfeccionado años después por Joseph
Henry. En 1827 Ohm formuló la ley que recibe su nombre, en la que
relacionaba tensión, corriente y resistencia.
Michael Faraday descubrió la inducción electromagnética y el concepto de
líneas de campo,[1] lo que le permitió, en 1821, crear el primer motor
eléctrico; hechos por los cuales es considerado el fundador del
electromagnetismo. También consiguió demostrar que la carga eléctrica en
un conductor se acumula en la superficie exterior de éste,
independientemente de lo que haya en su interior. En 1833 Heinrich Lenz
formula la Ley de Lenz, por la cual las corrientes inducidas serán de un
sentido tal que se opongan a la variación del flujo magnético que las
produjo. En 1835, Morse crea el telégrafo como aplicación de la teoría
electromagnética. En 1841, Hermann von Helmholtz demostró que la
electricidad era una energía y que como tal, cumplía la ley de conservación.
En 1859, Julius Plücker descubre los rayos catódicos.
En 1864 James Clerk Maxwell establece las llamadas Ecuaciones de
Maxwell que demostraron y detallaron la relación matemática entre campos
eléctricos y magnéticos, los cuales, según demostró, tenían la misma
naturaleza que la luz: naturaleza de onda; a las cuales se denominó ondas
electromagnéticas.[2] En 1876, apoyándose en los descubrimientos sobre
comunicación inalámbrica de Alexandr Stepánovich Popov, Guglielmo
Marconi desarrolla la radio. En 1879 Joseph John Thompson descubre el
electrón al observar que los rayos catódicos están formados por partículas
de carga negativa. Además determinó la relación carga-masa de estas
partículas. Dos años después Thomas Alva Edison inventó la bombilla y tras
otros dos años descubrió el efecto termoiónico o efecto Edison. Ese mismo
año John Hopkinson publicó el principio de los motores sincrónicos. En
1887 Heinrich Rudolf Hertz descubre el efecto fotoeléctrico, gracias a su
estudio de la propagación de las ondas y en la profundización de la
naturaleza electromagnética de la luz. Hacia ese mismo año Oliver
Heaviside reescribe las ecuaciones de Maxwell en forma vectorial.
Nikola Tesla en su laboratorio en Colorado Springs hacia 1900

En 1888 Nikola Tesla crea el primer generador de corriente alterna y


posteriormente un motor que funcionaba con ella, los cuales fueron
mostrados en la Exposición Universal de Chicago de 1893. En los años
posteriores Tesla desarrolló otros inventos, como un generador de corriente
de alta frecuencia o la bobina Tesla.[3] También en la corriente alterna centró
sus investigaciones Charles Proteus Steinmetz, las cuales ayudaron a que
ésta se impusiese sobre la corriente continua.
A principios del siglo XX, Robert Andrews Millikan midió la carga del
electrón y Hendrik Antoon Lorentz, junto con su pupilo Pieter Zeeman, ganó
el Premio Nobel de Física en 1902 por su investigación sobre la influencia
del magnetismo en la radiación, originando la radiación electromagnética.
las implicaciones teóricas del electromagnetismo llevaron a Albert Einstein a
la publicación de la teoría de la relatividad especial, en 1905. A su vez la
reformulación relativista del electromagnetismo clásico, llevo a la
formulación de la electrodinámica clásica. Y más tarde con la consideración
de los efectos cuánticos se formuló la electrodinámica cuántica.
En otra publicación de 1905, Einstein puso en juego los pilares del
electromagnetismo clásico. Su teoría del efecto fotoeléctrico (por el cual
ganó un premio Nobel de física en 1921) proponía que la luz podría existir
en cantidades en forma de partículas discretas, que más tarde serían
llamadas fotones. La teoría de Einstein del efecto fotoeléctrico extendió la
forma de ver la solución de la catástrofe ultravioleta, presentada por Max
Planck en 1900. En su trabajo, Planck mostró que los elementos calientes
emiten radiación electromagnética en paquetes discretos, que conduce a
una energía total finita emitida como radiación de cuerpo negro. Ambos
resultados estaban en contraposición directa con el punto de vista clásico
de la luz como una onda continua. Las teorías de Planck y Einstein fueron
las que dieron origen a la mecánica cuántica, la cual, al ser formulada en
1925, requirió la invención de una teoría cuántica del electromagnetismo. A
esta teoría, completada en la década de los 1940, se le conoce como
electrodinámica cuántica (o de sus siglas del inglés, QED) y es una las
teorías más exactas que la física conoce.

Campo electromagnético [editar]


En electromagnetismo clásico se suele comenzar el estudio distinguiendo
entre los conceptos de campo eléctrico y el campo magnético:

Regla de la mano derecha aplicada a la dirección del campo magnético B asociado


al movimiento de cargas (corriente) a través de un cable I.

Un campo eléctrico es producido por la presencia de cargas eléctricas, las

cuales crean una fuerza , según la ecuación: .

Donde q es la carga eléctrica medida en culombios y es el campo eléctrico


medido en newtons por culombios (N C-1). Esta fuerza eléctrica es la
responsable de la electricidad estática y dirige el flujo de carga eléctrica en
un area determinada (corriente eléctrica).
El campo magnético también puede ser producido por el movimiento de
cargas eléctricas, o corriente eléctrica, las cuales crean la fuerza magnética
(la fuerza asociada con los imanes, por ejemplo). La fuerza asociada al
campo magnético sobre una carga moviendose a cierta velocidad viene

dada por: .
El término electromagnetismo proviene del hecho de que no podemos
estudiar los campos eléctricos y magnéticos por separado. Un campo
magnético variable produce un campo eléctrico (como ocurre en el
fenómeno de inducción electromagnética, el cual es la base para el
funcionamiento de generadores eléctricos, motores de inducción eléctrica y
transformadores). Similarmente, un campo eléctrico variable genera un
campo magnético. Además de acuerdo con la teoría de la relatividad
diferentes observadores percibirán diferentes intensidades eléctrica y
magnética según su velocidad relativa con las cargas que producen dichos
campos.
Debido a la interdependencia mutua de los campos eléctricos y magnéticos
la electrodinámica clásica considera que los dos campos son sólo
manifestaciones de un único campo electromagnético. Esta unificación, la
cual fue realizada por Maxwell y ampliada por Einstein, es uno de los
triunfos para los físicos del siglo XIX. Estos estudios trajeron consecuencias
sumamente importantes, siendo una de ellas la explicación de la naturaleza
de la luz. Hoy sabemos que lo que percibimos como "luz visible" es
realmente una propagación oscilatoria del campo electromagnético en forma
de onda, es decir, una onda electromagnética.

Ley de Coulomb
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
La Ley de Coulomb lleva su nombre en honor a Charles-Augustin de
Coulomb, uno de sus descubridores y el primero en publicarlo. No obstante,
Henry Cavendish obtuvo la expresión correcta de la ley, con mayor precisión
que Coulomb, si bien esto no se supo hasta después de su muerte. La
balanza de torsión consiste en una barra que cuelga de una fibra. Esta fibra
es capaz de torcerse, y si la barra gira la fibra tiende a regresarla a su
posición original. Si se conoce la fuerza de torsión que la fibra ejerce sobre
la barra, se logra un método sensible para medir fuerzas.
En la barra de la balanza, Coulomb, colocó una pequeña esfera cargada y,
a continuación, a diferentes distancias, posicionó otra esfera con carga de
igual magnitud. Luego midió la fuerza entre ellas observando el ángulo que
giraba la barra.
Dichas mediciones permitieron determinar que:

1) La fuerza de interacción entre dos cargas y duplica su magnitud si


alguna de las cargas dobla su valor, la triplica si alguna de las cargas
aumenta su valor en un factor de tres, y así sucesivamente. Concluyó
entonces que el valor de la fuerza era proporcional al producto de las
cargas:

y
en consecuencia:

2) Si la distancia entre las cargas es , al duplicarla, la fuerza de


interacción disminuye en un factor de 4 (2²); al triplicarla, disminuye en
un factor de 9 (3²) y al cuadriplicar , la fuerza entre cargas disminuye
en un factor de 16 (4²). En consecuencia, la fuerza de interacción entre
dos cargas puntuales, es inversamente proporcional al cuadrado de la
distancia:

Variación de la Fuerza de Coulomb en función de la distancia

Asociando las relaciones obtenidas en 1) y 2):

Finalmente, se introduce una constante de proporcionalidad para


transformar la relación anterior en una igualdad:
Tabla de contenidos
[ocultar]

1 Enunciado de la ley

2 Constante de Coulomb

3 Principio de superposición y la Ley de Coulomb

4 Verificación experimental de la Ley de Coulomb

5 Comparación entre la Ley de Coulomb y la Ley de la Gravitación


Universal

6 Limitaciones de la Ley de Coulomb

7 Véase también

Enunciado de la ley [editar]


El enunciado que describe la ley de Coulomb es la siguiente:
"La magnitud de cada una de las fuerzas eléctricas con que
interactúan dos cargas puntuales es directamente proporcional al
producto de las cargas e inversamente proporcional al cuadrado de la
distancia que las separa."
Esta ley es válida sólo en condiciones estacionarias, es decir,
cuando no hay movimiento de las cargas o, como
aproximación, el movimiento se realiza a velocidades bajas y
trayectorias rectilíneas uniformes. Se le llama a esta Fuerza
Electrostática. La parte Electro proviene de que se trata de
fuerzas eléctricas y estática debido a la ausencia de
movimiento de las cargas.

En términos matemáticos, la magnitud de la fuerza que cada


una de las dos cargas puntuales y ejerce sobre la otra

separadas por una distancia se expresa como:

Dadas dos cargas puntuales y separadas una distancia


en el vacío, se atraen o repelen entre sí con una fuerza cuya
magnitud esta dada por:
La Ley de Coulomb se expresa mejor con magnitudes
vectoriales:

donde es un vector unitario que va en la dirección


de la recta que une las cargas, siendo su sentido
desde la carga que produce la fuerza hacia la carga
que la experimenta.
El exponente (de la distancia: d) de la Ley de Coulomb
es, hasta donde se sabe hoy en día, exactamente 2.
Experimentalmente se sabe que, si el exponente fuera

de la forma , entonces .

Representación gráfica de la Ley de Coulomb para dos


cargas del mismo signo.

Obsérvese que esto satisface la tercera de la ley de


Newton debido a que implica que fuerzas de igual
magnitud actúan sobre y . La ley de Coulomb es
una ecuación vectorial e incluye el hecho de que la
fuerza actúa a lo largo de la línea de unión entre las
cargas.

Constante de Coulomb [editar]


La constante es la Constante de Coulomb y su valor

para unidades SI es Nm²/C².


A su vez la constante donde es la

permitividad relativa, ,y
F/m es la permitividad del medio en el vacío.
Cuando el medio que rodea a las cargas no es el
vacío hay que tener en cuenta la constante dieléctrica
y la permitividad del material.
Algunos valores son:

Material
(F/m) (Nm²/C²)

Vacío 1 8,85·10-12 8,99·109

Parafina 2,1-2,2 1,90·10-11 4,16·109

Mica 6-7 5,76·10-11 1,38·109

Papel parafinado 2,2 1,95·10-11 4,09·109

Poliestireno 1,05 9,30·10-12 8,56·109

Baquelita 3,8-5 3,90·10-11 2,04·109

Cirbolito 3-5 3,54·10-11 2,25·109

Vidrio orgánico 3,2-3,6 3,01·10-11 2,64·109

Vidrio 5,5-10 6,86·10-11 1,16·109

Aire 1,0006 8,86·10-12 8,98·109

Mármol 7,5-10 7,75·10-11 1,03·109

Ebonita 2,5-3 2,43·10-11 3,27·109

Porcelana 5,5-6,5 5,31·10-11 1,50·109

Micalex 7-9 7,08·10-11 1,12·109

Micarta A y B 7-8 6,64·10-11 1,20·109

Batista barnizada 3,5-5 3,76·10-11 2,11·109

Goma en hojas 2,6-3,5 2,70·10-11 2,95·109

Poliestireno 2,7 2,39·10-11 3,33·109


La ecuación de la ley de Coulomb queda finalmente
expresada de la siguiente manera:

Principio de superposición y la Ley


de Coulomb [editar]
Como ley básica adicional, no deducible de la ley de
Coulomb, se encuentra el Principio de Superposición:
"La fuerza total ejercida sobre una carga eléctrica q

por un conjunto de cargas será igual


a la suma vectorial de cada una de las fuerzas
ejercidas por cada carga sobre la carga ."

Representación gráfica del principio de superposición

Conjuntamente, la Ley de Coulomb y el Principio de


Superposición constituyen los pilares de la
electrostática.

Verificación experimental de la Ley


de Coulomb [editar]
Es posible verificar la ley de Coulomb mediante un
experimento sencillo.
Considérense dos pequeñas esferas de masa m
cargadas con cargas iguales q del mismo signo que
cuelgan de dos hilos de longitud l, tal como se indica
en la figura.

Sobre cada esfera actúan tres fuerzas: el peso mg, la


tensión de la cuerda T y la fuerza de repulsión

eléctrica entre las bolitas .

En el equilibrio: (1) y
(2).
Dividiendo (1) entre (2) miembro a miembro, se

obtiene:

Siendo la separación de equilibrio entre las esferas

cargadas, la fuerza de repulsión entre ellas, vale, de

acuerdo con la ley de Coulomb: y, por lo


tanto, se cumple la siguiente igualdad:

(3)
Al descargar una de las esferas y ponerla, a
continuación, en contacto con la esfera cargada , cada
una de ellas adquiere una carga q/2, en el equilibrio su

separación será y la fuerza de repulsíón entre


las mismas estará dada por:

Por estar en equilibrio, tal como se dedujo más arriba:

Y de modo similar se obtiene:


(4)
Dividiendo (3) entre (4), miembro a miembro, se llega
a la siguiente igualdad:

(5)

Midiendo los ángulos y y las separaciones entre

las cargas y es posible verificar que la igualdad


se cumple dentro del error experimental.
En la práctica, los ángulos pueden resultar difíciles de
medir, así que si la longitud de los hilos que sostienen
las esferas son lo suficientemente largos, los ángulos
resultarán lo bastante pequeños como para hacer la
siguiente aproximación:
Con esta aproximación, la relación (5) se transforma
en otra mucho más simple:

De esta forma, la verificación se reduce a medir la


separación entre cargas y comprobar que su cociente
se aproxima al valor indicado.

Comparación entre la Ley de


Coulomb y la Ley de la Gravitación
Universal [editar]
Esta comparación es relevante ya que ambas leyes
dictan el comportamiento de dos de las fuerzas
fundamentales de la naturaleza mediante expresiones
matemáticas cuya similitud es notoria.
La ley de la gravitación universal establece que la
fuerza de atracción entre dos masas es directamente
proporcional al producto de las mismas e
inversamente proporcional al cuadrado de la distancia
que las separa.

Expresándolo matemáticamente: siendo


la constante de gravitación universal, y las
masas de los cuerpos en cuestión y r la distancia entre
los centros de las masas. vale 6,67·10-11 Nm2/kg2.
A pesar del chocante parecido en las expresiones de
ambas leyes se encuentran dos diferencias
insoslayables.
La primera es que en el caso de la gravedad no se
han podido observar masas de diferente signo como
sucede en el caso de las cargas eléctricas, y por tanto,
la fuerza entre masas siempre es atractiva.
La segunda tiene que ver con los órdenes de magnitud
de la fuerza de gravedad y de la fuerza eléctrica. Para
aclararlo analizaremos como actúan ambas entre un
protón y un electrón en el núcleo de hidrógeno.
La separación promedio entre el electrón y el protón
es de 5,3·10-11 m.
La carga del electrón y la del protón valen

y
respectivamente y sus masas son

.
Sustituyendo los datos:

.
Al comparar resultados se observa que la fuerza
eléctrica es de unos 39 órdenes de magnitud superior
a la fuerza gravitacional.
Lo que esto representa puede ser ilustrado mediante
un ejemplo muy llamativo.
1 C equivale a la carga que pasa en 1 s por cualquier
punto de un conductor por el que circula una corriente
de intensidad 1 A constante. En viviendas con
tensiones de 220 Vrms, esto equivale a un segundo de
una bombilla de 220 W (120 W para las instalaciones
domésticas de 120 Vrms).
Si fuera posible concentrar la mencionada carga en
dos puntos con una separación de 1 metro, la fuerza
de interacción sería:
, o sea, ¡916 millones de kilopondios, o el peso de una
masa de casi un millón de toneladas (un teragramo)!
Si tales cargas se pudieran concentrar de la forma
indicada más arriba, se alejarían bajo la influencia de
esta enorme fuerza, ¡aunque tuvieran que arrancarse
del acero sólido para hacerlo!
Si de esta hipotética disposición de cargas resultan
fuerzas tan enormes, ¿por qué no se observan
despliegues dramáticos debidos a las fuerzas
eléctricas? La respuesta general es que en un punto
dado de cualquier conductor nunca hay demasiado
alejamiento de la neutralidad eléctrica. La naturaleza
nunca acumula un Coulomb de carga en un punto.

Limitaciones de la Ley de Coulomb [editar]


La expresión matemática solo es aplicable a cargas puntuales.
La fuerza no está definida para r = 0.

Campo eléctrico
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
El campo eléctrico es una propiedad del espacio, debido a la cual una
carga eléctrica puntual de valor "q" sufrirá los efectos de una fuerza "F" que
vendrá dada por la siguiente ecuación:

Donde "E" es el mencionado campo eléctrico, que es, por tanto una
magnitud vectorial. Esta definición indica que el campo no es
directamente medible, sino a través de la medición de la fuerza
actuante sobre alguna carga. La idea de campo eléctrico fue propuesta
por Michael Faraday al demostrar el principio de inducción
electromagnética en el año 1831.
Tabla de contenidos
[ocultar]
1. 1 Fuente del campo

2. 2 Representación geométrica

1. 2.1 Líneas de campo

3. 3 Energía del campo

4. 4 Teoría cuántica del campo


eléctrico

5. 5 Véase también

6. 6 Enlaces externos

Fuente del campo [editar]


Un campo electromagnético tiene dos componentes. Una de ellas es
debida a la existencia de una distribución de cargas, dando lugar a un
campo electrostático. La otra es la presencia de un campo magnético
variante en el tiempo, que da lugar a un campo eléctrico también
variante. El campo eléctrico va a depender de la superficie en cuestión
que genera dicho campo y del estado de movimiento del observador
respecto a las cargas que generan el campo. cuando se puede describir
como el gradeinte del potencial

Si es el potencial del campo magnético, y V el potencial del campo


eléctrico, entonces la intensidad del campo eléctrico está dada por lo
siguiente:

Representación geométrica [editar]

Líneas de campo eléctrico correspondientes a una moneda con carga


eléctrica positiva.
Un campo eléctrico estático puede ser representado con un campo
vectorial, o con Lineas Vectoriales (lineas de campo). Las líneas
vectoriales se utilizan para crear una visualización del campo. Se
trazan en un papel en dos dimensiones, sin embargo se cree que
existen en un espacio tridimensional. En realidad existen infintas
lineas de campo, sin embargo se representan sólo unas pocas por
claridad.
Líneas de campo [editar]
1. Son líneas perpendiculares a la superficie del cuerpo, de manera que
su tangente en un punto coincide con la dirección del campo en ese punto.
2. A mayor concentración de líneas, mayor módulo. En el ejemplo de la
moneda, el campo es mayor en las cercanías de esta y disminuye a medida
que nos alejamos de ella.
3. Uniendo los puntos en que el campo eléctrico es igual formamos
superficies equipotenciales (ver Potencial eléctrico); puntos donde el
potencial tiene el mismo valor numérico.
Graficamente se podría decir que es similar al campo magnético.

Ley de Ohm
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

Circuito mostrando la Ley de Ohm: Una fuente eléctrica con una diferencia de
potencial V, produce una corriente eléctrica I cuando pasa a través de la
resistencia R
La ley de Ohm, es una propiedad específica de ciertos materiales. La
relación

es un enunciado de la ley de Ohm. Un conductor cumple con la ley de Ohm


sólo si su curva V-I es lineal; esto es si R es independiente de V y de I. La
relación

sigue siendo la definición general de la resistencia de un conductor,


independientemente de si éste cumple o no con la ley de Ohm. La
intensidad de la corriente eléctrica que circula por un dispositivo es
directamente proporcional a la diferencia de potencial aplicada e
inversamente proporcional a la resistencia del mismo, según expresa la
fórmula siguiente:

En donde, empleando unidades del Sistema internacional:


I = Intensidad en amperios (A)
V = Diferencia de potencial en voltios (V)
R = Resistencia en ohmios (Ω).
Tabla de contenidos
[ocultar]

1. 1 Enunciado

2. 2 Historia

3. 3 Deducción

4. 4 Símil
hidráulico

5. 5 Véase
también

Enunciado [editar]
En un conductor recorrido por una corriente eléctrica, el cociente entre la
diferencia de potencial aplicada a los extremos del conductor y la intensidad
de la corriente que por él circula, es una cantidad constante, que depende
del conductor, denominada resistencia.
La ley enunciada verifica la relación entre voltaje y corriente en un resistor.

Historia [editar]
El científico Georg Simon Ohm, mientras experimentaba con materiales
conductores, como resultado de su investigación, llegó a determinar que la
relación entre voltaje y corriente era constante y nombró a esta constante
resistencia.
Esta ley fue formulada por Georg Simon Ohm en 1827, en la obra Die
galvanische Kette, mathematisch bearbeitet (Trabajos matemáticos sobre
los circuitos eléctricos), basándose en evidencias empíricas. La formulación
original, es:

Siendo la densidad de la corriente, σ la conductividad eléctrica y el


campo eléctrico, sin embargo se suele emplear las fórmulas simplificadas
anteriores para el análisis de los circuitos

Deducción [editar]
Como ya se destacó anteriormente, las evidencias empíricas mostraban que

(vector densidad de corriente) es directamente proporcional a (vector


campo eléctrico). Para escribir ésta relación en forma de ecuación, es
necesario añadir una constante arbitraria, que posteriormente se llamó
factor de conductividad eléctrica, que representaremos como σ. Entonces:

El vector es el vector resultante de los campos que actúan en la sección


de alambre que se va a analizar; es decir, del campo producido por la carga
del alambre en sí y del campo externo, producido por una batería, una pila u
otra fuente de fem. Por lo tanto:
Ahora, sabemos que , donde es un vector unitario de dirección,

con lo cual reemplazamos y multiplicamos toda la ecuación por un :

Los vectores y poseen la misma dirección y sentido, con lo cual su


producto escalar puede expresarse como el producto de sus magnitudes
por el coseno del ángulo formado entre ellos. Es decir:

Por lo tanto, se hace la sustitución:

Integrando ambos miembros en la longitud del conductor:

El miembro derecho representa el trabajo total de los campos que actúan en


la sección de alambre que se está analizando, y de cada integral resulta:
y

Donde φ1 − φ2 representa la diferencia de potencial entre los puntos 1 y 2, y


ξ representa la fem; por tanto, podemos escribir:

donde U12 representa la caída de potencial entre los puntos 1 y 2.

Como dijimos anteriormente, σ representa la conductividad, por lo que su


inversa representará la resistividad, y la representaremos como ρ. Así:

Finalmente, la expresión es lo que se conoce como resistencia eléctrica

Podemos escribir la expresión final:

Símil hidráulico [editar]


En hidráulica se verifica una ley similar a la Ley de Ohm, que puede facilitar
su comprensión. Si tenemos un fluido dentro de un tubo, la diferencia de
presiones entre sus extremos equivale a la diferencia de potencial o tensión,
el caudal a través del conducto, equivale a la intensidad de la corriente
eléctrica y la suma de obstáculos que impiden la corriente del fluido,
equivale a la resistencia eléctrica.

Potencia eléctrica
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
La potencia eléctrica se define como la cantidad de trabajo realizado por
una corriente eléctrica.
Tabla de contenidos
[ocultar]

1. 1 Potencia en corriente continua

2. 2 Potencia en corriente alterna

1. 2.1 Potencia fluctuante

2. 2.2 Componentes de la
intensidad

3. 2.3 Potencia aparente

4. 2.4 Potencia activa

5. 2.5 Potencia reactiva

3. 3 Potencia trifásica

4. 4 Véase también

Potencia en corriente continua [editar]


Cuando se trata de corriente continua (DC) la potencia eléctrica
desarrollada en un cierto instante por un dispositivo de dos terminales es el
producto de la diferencia de potencial entre dichos terminales y la intensidad
de corriente que pasa a través del dispositivo. Esto es,

donde I es el valor instantáneo de la corriente y V es el valor instantáneo del


voltaje. Si I se expresa en amperios y V en voltios, P estará expresada en
Watts.
Igual definición se aplica cuando se consideran valores promedio para I, V y
P.
Cuando el dispositivo es una resistencia de valor R o se puede calcular la
resistencia equivalente del dispositivo, la potencia también puede calcularse
como

Potencia en corriente alterna [editar]


Cuando se trata de corriente alterna (AC) sinusoidal, el promedio de
potencia eléctrica desarrollada por un dispositivo de dos terminales es una
función de los valores eficaces o valores cuadráticos medios, de la
diferencia de potencial entre los terminales y de la intensidad de corriente
que pasa a través del dispositivo.
En el caso de un receptor de carácter inductivo (caso más común) al que se
aplica una tensión v(t) de pulsación ω y valor de pico Vo resulta:

Esto provocará una corriente i(t) retrasada un ángulo φ respecto de la


tensión aplicada:

La potencia instantánea vendrá dada como el producto de las


expresiones anteriores:

Mediante trigonometría, la anterior expresión puede


transformarse en la siguiente:

Y sustituyendo los valores de pico por los eficaces:


Se obtiene así para la potencia un valor constante,
VIcos(φ) y otro variable con el tiempo, VIcos(2ωt − φ). Al
primer valor se le denomina potencia activa y al segundo
potencia fluctuante.
Potencia fluctuante [editar]
Al ser la potencia fluctuante de forma senoidal, su valor
medio será cero. Para entender mejor qué es la potencia
fluctuante, imaginemos un receptor que sólo tuviera
potencia de este tipo. Ello sólo es posible si φ = ±90º
(cos±90º=0), quedando

caso que corresponde a un circuito inductivo puro o


capacitivo puro. Por lo tanto la potencia fluctuante es
la debida a las bobinas y a los condensadores.
Efectivamente, las bobinas o los condensadores
(ideales) no consumen energía sino que la
"entretienen". La bobina almacena la energía en forma
de campo magnético cuando la corriente aumenta y la
devuelve cuando disminuye, y el condensador
almacena la energía en forma de campo eléctrico
cuando se carga y la devuelve cuando se descarga.
Componentes de la intensidad [editar]

Figura 1.- Componentes activa y reactiva de la intensidad;


supuestos inductivo, izquierda y capacitivo, derecha

Consideremos un circuito de C. A. en el que la


corriente y la tensión tienen un desfase φ. Se define
componente activa de la intensidad, Ia, a la
componente de ésta que está en fase con la tensión, y
componente reactiva, Ir, a la que está en cuadratura
con ella (véase Figura 1). Sus valores son:

El producto de la intensidad, I, y las de sus


componentes activa, Ia, y reactiva, Ir, por la
tensión, V, da como resultado las potencias
aparente (S), activa (P) y reactiva (Q),
respectivamente:

Potencia aparente [editar]

Figura 2.- Relación entre potencias


activas, aparentes y reactivas

La potencia aparente (también


llamada compleja) de un circuito
eléctrico de corriente alterna es
la suma (vectorial) de la energía
que disipa dicho circuito en cierto
tiempo en forma de calor o
trabajo y la energía utilizada para
la formación de los campos
eléctricos y magnéticos de sus
componentes que fluctuara entre
estos componentes y la fuente
de energía.
Esta potencia no es la realmente
consumida "util", salvo cuando el
factor de potencia es la unidad
(cos φ=1), y señala que la red
de alimentación de un circuito no
sólo ha de satisfacer la energía
consumida por los elementos
resistivos, sino que también ha
de contarse con la que van a
"almacenar" bobinas y
condensadores. Se la designa
con la letra S y se mide en
voltiamperios (VA).
Potencia activa [editar]
Es la potencia que representa la
capacidad de un circuito para
realizar un proceso de
transformación de la energía
eléctrica en trabajo. Los
diferentes dispositivos eléctricos
existentes convierten la energía
eléctrica en otras formas de
energía tales como: mecánica,
lumínica, térmica, química, etc.
Esta potencia es, por lo tanto, la
realmente consumida por los
circuitos. Cuando se habla de
demanda eléctrica, es esta
potencia la que se utiliza para
determinar dicha demanda.
Se designa con la letra P y se
mide en vatios (W). De acuerdo
con su expresión, la ley de Ohm
y el triángulo de impedancias:

Resultado que indica que la


potencia activa es debida a
los elementos resistivos.
Potencia reactiva
[editar]
Esta potencia no tiene
tampoco el carácter
realmente de ser consumida
y sólo aparecerá cuando
existan bobinas o
condensadores en los
circuitos. La potencia
reactiva tiene un valor medio
nulo, por lo que no produce
trabajo útil. Por ello que se
dice que es una potencia
desvatada (no produce
vatios), se mide en
voltamperios reactivos
(VAR) y se designa con la
letra Q.
A partir de su expresión,

Lo que reafirma en que


esta potencia es debida
únicamente a los
elementos reactivos.

Potencia
trifásica [editar]
La representación
matemática de la
potencia activa en un
sistema trifásico
equilibrado está dada
por la ecuación:

Circuitos de Resistencias
Es interesante considerar `circuitos' formados por varias resistencias, conectadas de
diversas maneras. Antes de entrar en mayores detalles respecto a estos circuitos,
describiremos algunas de las formas mas comunes de conectar resistencias entre sí, a la
vez que introducir el concepto de `resistencia equivalente'.

Consideremos un elemento resistivo; esto es, un conductor con conductividad finita g


(un conductor perfecto tiene conductividad infinita). Si, por esta resistencia, pasa una
corriente I, y la resistencia entre sus extremos a y b es Rab, entonces la diferencia de
potencial Vab entre los extremos es

Vab = RabI.

En un circuito RC en serie la corriente (corriente alterna) que pasa por la


resistencia y por el condensador es la misma y la tensión VS es igual a la suma
fasorial de la tensión en la resistencia (Vr) y la tensión en el condensador (Vc).

Vs = Vr + Vc (suma fasorial)

Esto significa que cuando la corriente está en su punto más alto (corriente pico),
será así, tanto en la resistencia como en el condensador (capacitor.)

Pero algo diferente pasa con las tensiones (voltajes). En


la resistencia, la tensión y la corriente están en fase (sus
valores máximos y mínimos coinciden en el tiempo).
Pero la tensión en el capacitor no es así.

Como el capacitor se opone a cambios bruscos de


tensión, la tensión en el condensador está retrasada con respecto a la corriente
que pasa por él. (el valor máximo de voltaje en el capacitor sucede después del
valor máximo de corriente en 90o).
Estos 90º equivalen a ¼ de la longitud de onda
dada por la frecuencia de la corriente que está
pasando por el circuito.

La tensión total que alimenta el circuito RC en


serie es igual a la suma fasorial de la tensión en
la resistencia y la tensión en el condensador.

Esta tensión tiene un ángulo de desfase


(causado por el condensador) y se obtiene con ayuda de las siguientes fórmulas:

Condensador eléctrico
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Para otros usos de este término véase Condensador.

Fig. 1: Diversos tipos de condensadores.

En electricidad y electrónica, un condensador o capacitor es un dispositivo


formado por ocho conductores o arsenes, generalmente en forma de tablas,
esferas o láminas, separados por un material derivado de la plata dieléctrico
(siendo este utilizado en un condensador para disminuir el campo eléctrico,
ya que actúa como aislante) o por el vacío, que, sometidos a una diferencia
de potencial (d.d.p.) adquieren una determinada carga eléctrica.
A esta propiedad de almacenamiento de carga se le denomina capacidad o
capacitancia. En el Sistema internacional de unidades se mide en Faradios
(F), siendo 1 faradio la capacidad de un condensador en el que, sometidas
sus armaduras a una d.d.p. de 1 voltio, éstas adquieren una carga eléctrica
de 1 culombio.
La capacidad de 1 faradio es mucho más grande que la de la mayoría de los
condensadores, por lo que en la práctica se suele indicar la capacidad en
micro- µF = 10-6, nano- F = 10-9 o pico- F = 10-12 -faradios. Los
condensadores obtenidos a partir de supercondensadores (EDLC) son la
excepción. Están hechos de carbón activado para conseguir una gran área
relativa y tienen una separación molecular entre las "placas". Así se
consiguen capacidades del orden de cientos o miles de faradios. Uno de
estos condensadores se incorpora en el reloj Kinetic de Seiko, con una
capacidad de 1/3 de Faradio, haciendo innecesaria la pila. También se está
utilizando en los prototipos de automóviles eléctricos.
El valor de la capacidad viene definido por la fórmula siguiente:

en donde:
C: Capacidad
Q: Carga eléctrica
V: Diferencia de potencial
En cuanto al aspecto constructivo, tanto la forma de las
placas o armaduras como la naturaleza del material
dieléctrico es sumamente variable. Existen condensadores
formados por placas, usualmente de aluminio, separadas
por aire, materiales cerámicos, mica, poliéster, papel o por
una capa de óxido de aluminio obtenido por medio de la
electrolisis.

Campo magnético
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

Líneas mostrando el campo magnético de un imán de barra, producidas por


limaduras de hierro sobre papel.

El campo magnético es una propiedad del espacio por la cual una carga
eléctrica puntual de valor q que se desplaza a una velocidad , sufre los
efectos de una fuerza que es perpendicular y proporcional tanto a la
velocidad como a una propiedad del campo, llamada inducción magnética (o
según algunos autores, Densidad de flujo magnético). Así, dicha carga
percibirá una fuerza descrita como

(Nótese que el producto cruz indica un vector perpendicular tanto a v


como a B).
La existencia de un campo magnético se pone en evidencia por la
propiedad localizada en el espacio de orientar un magnetómetro
(laminilla de acero imantado que puede girar libremente). La aguja de
una brújula, que pone en evidencia la existencia del campo magnético
terrestre, puede ser considerada un magnetómetro.
Tabla de contenidos
[ocultar]

1. 1 Historia

2. 2 Determinación del campo de inducción magnética B

3. 3 Fuentes del campo magnético

1. 3.1 Diferencia entre B y H

2. 3.2 Campo magnético producido por una carga


puntual

3. 3.3 Propiedades del campo magnético

4. 3.4 Inexistencia de cargas magnéticas

4. 4 Unidades

5. 5 Véase también

6. 6 Enlaces externos

Historia [editar]
Si bien algunos marcos magnéticos han sido conocidos desde la
antigüedad, como por ejemplo el poder de atracción que sobre el hierro
ejerce la magnetita, no fue sino hasta el siglo XIX cuando la relación
entre la electricidad y el magnetismo quedó patente, pasando ambos
campos de ser diferenciados a formar el cuerpo de lo que se conoce
como electromagnetismo.
Antes de 1820, el único magnetismo conocido era el del hierro. Esto
cambió con un profesor de ciencias poco conocido de la Universidad de
Copenhague, Dinamarca, Hans Christian Oersted. En 1820 Oersted
preparó en su casa una demostración científica a sus amigos y
estudiantes. Planeó demostrar el calentamiento de un hilo por una
corriente eléctrica y también llevar a cabo demostraciones sobre el
magnetismo, para lo cual dispuso de una aguja de brújula montada
sobre una peana de madera.
Mientras llevaba a cabo su demostración eléctrica, Oersted notó para
su sorpresa que cada vez que se conectaba la corriente eléctrica, se
movía la aguja de la brújula. Se calló y finalizó las demostraciones, pero
en los meses siguientes trabajó duro intentando explicarse el nuevo
fenómeno.¡Pero no pudo! La aguja no era ni atraída ni repelida por ella.
En vez de eso tendía a quedarse en ángulo recto. Hoy sabemos que
esto es una prueba fehaciente de la relación intrínseca entre el campo
magnético y el campo eléctrico plasmadas en la ecuaciones de
Maxwell.
Como ejemplo para ver la naturaleza un poco distinta del campo
magnético basta considerar el intento de separar el polo de un imán.
Aunque rompamos un imán por la mitad éste "reproduce" sus dos
polos. Si ahora partimos estos cachos otra vez en dos, nuevamente
tendremos cada cachito con dos polos norte y sur diferenciados. En
magnetismo no existen los monopolos magnéticos.

Determinación del campo de inducción


magnética B [editar]
El campo magnético para cargas que se mueven a velocidades
pequeñas comparadas con velocidad de la luz, puede representarse por
un campo vectorial.
Considérese una carga eléctrica de prueba q0 en un punto P de una
región del espacio moviéndose a una cierta velocidad arbitraria v
respecto a un cierto observador que no detecte campo eléctrico. Si el
obsevador detecta una deflexión de la trayectoria de la partícula
entonces en esa región existe un campo magnético. El valor o
intensidad de dicho campo magnético puede medirse mediante el
llamado vector de inducción magnética B, a veces llamado simplemente
"campo magnético", que estará relacionado con la fuerza F y la
velocidad v medida por dicho observador en el punto P: Si se varía la
dirección de v por P, sin cambiar su magnitud, se encuentra, en
general, que la magnitud de F varía, si bien se conserva perpendicular a
v . A partir de la observación de una pequeña carga eléctrica de prueba
puede determinarse la dirección y módulo de dicho vector del siguiente
modo:
1. La dirección del "campo magnético" se define operacionalmente del
siguiente modo. Para una cierta dirección y sentido de v, la fuerza F se
anula. Se define esta dirección como la de B.
2. Una vez encontrada esta dirección el módulo del "campo magnético"
puede encontrarse fácilmente ya que es posible orientar a v de tal manera
que la carga de prueba se desplace perpendicularmente a B. Se encuentra,
entonces, que la F es máxima y se define la magnitud de B determinando el
valor de esa fuerza máxima:

En consecuencia: Si una carga de prueba positiva q0 se dispara con


una velocidad v por un punto P y si obra una fuerza lateral F sobre la
carga que se mueve, hay una inducción magnética B en el punto P
siendo B el vector que satisface la relación:

La magnitud de F, de acuerdo a las reglas del producto vectorial, está


dada por la expresión:

Expresión en la que es el ángulo entre v y B.


La figura muestra las relaciones entre los vectores.
Se observa que: (a) la fuerza magnética se anula cuando , (b) la
fuerza magnética se anula si v es paralela o antiparalela a la dirección

de B (en estos casos o bien y ) y (c) si v es


perpendicular a B ( ) la fuerza desviadora tiene su máximo valor

dado por
El hecho de que la fuerza magnética sea siempre perpendicular a la
dirección del movimiento implica que el trabajo realizado por la misma
sobre la carga, es cero. En efecto, para un elemento de longitud de la

trayectoria de la partícula, el trabajo es que vale cero por ser


y perpendiculares. Así pues, un campo magnético estático no
puede cambiar la energía cinética de una carga en movimiento.
Si una partícula cargada se mueve a través de una región en la que
coexisten un campo eléctrico y uno magnético la fuerza resultante está
dada por:

Esta fórmula es conocida como Relación de Lorentz

Fuentes del campo magnético [editar]


Un campo magnético tiene dos fuentes que lo originan. Una de ellas es
una corriente eléctrica de convección, que da lugar a un campo
magnético estático. Por otro lado una corriente de desplazamiento
origina un campo magnético variante en el tiempo, incluso aunque
aquella sea estacionaria.
La relación entre el campo magnético y una corriente eléctrica está
dada por la ley de Ampère. El caso más general, que incluye a la
corriente de desplazamiento, lo da la ley de Ampère-Maxwell.
Diferencia entre B y H [editar]
El nombre campo magnético se ha usado informalmente para dos tipos
de campos vectoriales diferentes, que se denotan normalmente como

y . El primero es el que técnicamente se denominó "campo

magnético", y a se le denominó con el término secundario de


"inducción magnética". Sin embargo, actualmente se considera que la
inducción magnética es una entidad más básica o fundamental y tiende
a ser llamado "campo magnético", excepto en algunos contextos donde
es importante distinguir entre ambos[1] .

La diferencia entre y es que H describe cuan intenso es el campo


magnético en la región que afecta, mientras que B es la cantidad de
flujo magnético por unidad de área que aparece en esa misma región.
Sin embargo, muchos autores prefieren referirse a un campo magnético
principalmente en términos de su densidad de flujo B.
B y H se relacionan de la siguiente manera:


, donde μ es la permeabilidad magnética del medio en el que aparece el
campo magnético. Es una variable de proporcionalidad que según el
sistema físico que se observe puede ser una constante (por ejemplo
4πx10^(-7) H/m en el vacío), un campo escalar dependiente del tiempo
y/o de la posición, o incluso un tensor (matriz) en el caso de los
materiales anisotrópicos.
Campo magnético producido por una carga
puntual [editar]
El campo magnético generado por una única carga en movimiento (no
por una corriente eléctrica) se calcula a partir de la siguiente expresión:
Donde . Esta última expresión define un campo
vectorial solenoidal, para distribuciones de cargas en movimiento la
expresión es diferente, pero puede probarse que el campo magnético
sigue siendo un campo solenoidal.
Propiedades del campo magnético [editar]
1. La inexistencia de cargas magnéticas lleva a que el campo magnético
es un campo solenoidal lo que lleva a que localmente puede ser derivado de
un potencial vector , es decir:

A su vez este potencial vector puede ser relacionado con el vector


densidad de corriente mediante la relación:

Inexistencia de cargas magnéticas [editar]


Cabe destacar que, a diferencia del campo eléctrico, en el campo
magnético no existen monopolos magnéticos, sólo dipolos magnéticos,
lo que significa que las líneas de campo magnético son cerradas, esto
es, el número neto de líneas de campo que entran en una superficie es
igual al número de líneas de campo que salen de la misma superficie.
Un claro ejemplo de esta propiedad viene representado por las líneas
de campo de un imán, donde se puede ver que el mismo número de
líneas de campo que salen del polo norte vuelve a entrar por el polo sur,
desde donde vuelven por el interior del imán hasta el norte.
Como se puede ver en el dibujo, independientemente de que la carga
en movimiento sea positiva o negativa, en el punto A nunca aparece
campo magnético; sin embargo, en los puntos B y C el campo
magnético invierte su sentido dependiendo de si la carga es positiva o
negativa. El sentido del campo magnético viene dado por la regla de la
mano derecha, siendo las pautas a seguir las siguientes:
1. En primer lugar se imagina un vector qv, en la misma dirección de la
trayectoria de la carga en movimiento. El sentido de este vector depende del
signo de la carga, esto es, si la carga es positiva y se mueve hacia la
derecha, el vector +qv estará orientado hacia la derecha. No obstante, si la
carga es negativa y se mueve hacia la derecha, el vector es -qv va hacia la
izquierda.
1. A continuación, vamos señalando con los cuatro dedos de la mano
derecha (índice, medio, anular y meñique), desde el primer vector qv hasta
el segundo vector Ur, por el camino más corto o, lo que es lo mismo, el
camino que forme el ángulo menor entre los dos vectores. El pulgar
extendido indicará en ese punto el sentido del campo magnético.

Inducción electromagnética
Artículo de la Enciclopedia Libre Universal en Español.
Saltar a navegación, búsqueda
La inducción electromagnética es el fenómeno que origina la producción de
una diferencia de potencial eléctrico (o voltaje) en un medio o cuerpo
expuesto a un campo magnético variable. Es así que cuando dicho cuerpo
es un conductor se habla de la existencia de una tensión inducida.
Este fenómeno fue descubierto por Michael Faraday el 29 de agosto de
1831. Lo expresó matemáticamente indicando que la magnitud del voltaje
producido es proporcional a la variación del flujo magnético. Esto es válido
tanto para el caso en que la intensidad del flujo varíe, o que el cuerpo
conductor se mueva respecto de él.

Fórmula en la que:
E= Fuerza electromotriz en voltios
Φ= Flujo magnético en webers
t= Tiempo en segundos
Así, la inducción electromagnética es el principio fundamental sobre el cual
operan transformadores, generadores, motores eléctricos, la vitrocerámica
de inducción y la mayoría de las demás maquinas eléctricas.
2.

Espectro electromagnético
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Se denomina espectro electromagnético a la distribución energética del
conjunto de las ondas electromagnéticas o, más concretamente, a la
radiación electromagnética que emite (espectro de emisión) o absorbe
(espectro de absorción) una sustancia. Dicha radiación sirve para identificar
la sustancia de manera análoga a una huella dactilar. Los espectros se
pueden observar mediante espectroscopios que, además de permitir
observar el espectro, permiten realizar medidas sobre éste, como la longitud
de onda o la frecuencia de la radiación.
Van desde las de menor longitud de onda, como son los rayos cósmicos, los
rayos gamma y los rayos X, pasando por la luz ultravioleta, la luz visible y
los rayos infrarrojos, hasta las ondas electromagnéticas de mayor longitud
de onda, como son las ondas de radio. En cualquier caso, cada una de las
categorías son de ondas de variación de campo electromagnético.
La tabla siguiente muestra el espectro electromagnético, con sus longitudes
de onda, frecuencias y energías de fotón:

La ley de Faraday-Henry:

nos establece una relación entre campo


magnético y campo eléctrico cuando estos
campos varían con el tiempo.
La ley de Ampère establece que:

pero esta relación es estática (sólo se ha


considerado un proceso estacionario). ¿Qué

ocurrirá cuando los campos y sean


dependientes del tiempo?

INCOMPATIBILIDAD DE LA LEY DE AMPÈRE


CON EL PRINCIPIO DE CONSERVACIÓN DE
LA CARGA:
La curva L es cerrada y S es una superficie
arbitraria que se apoya en L. Si reducimos L
tanto como queramos, hasta que sea un
punto, entonces se cumpliría que:

y en esta situación la superficie S la podemos


considerar cerrada, y de acuerdo con ley de
Ampère, sería:

cosa que no concuerda con el principio de


conservación de la carga, salvo en el caso
estacionario.
También véase lo mismo lo a partir de la
ecuación diferencial (más rigurosamente):
pero

por lo tanto tendría que ser y, en


consecuencia, recordando el teorema de
Gauss:

LEY DE AMPÈRE-MAXWELL:
Maxwell corrigió la ley de Ampère de la
siguiente forma:

ecuación que se verificó experimentalmente.


Observaciones:
1ª La ecuación es compatible con la ley de
Ampère, ya que en el caso estacionario queda

2ª Nos dice que un campo eléctrico


dependiente del tiempo contribuye a la
formación de un campo magnético. Véase que

si tomamos una zona del espacio donde


, resulta
3ª Es compatible con el principio de
conservación de la carga, ya que si, como

antes, es , se cumple el principio


de conservación de la carga.

CRITERIO DE SIGNOS:
Hemos visto que "un campo eléctrico
dependiente del tiempo implica la existencia
de un campo magnético en el mismo lugar".
Veamos ahora los sentidos de estos campos.

Supongamos uniforme:

Nota: Haz click sobre el dibujo para ver la siguiente figura.


LEY DE AMPÈRE-MAXWELL EN FORMA
DIFERENCIAL:
Aplicando el teorema de Stokes:

quedando:

Si reducimos L hasta que sea el entorno de un


punto, nos queda para cada punto del espacio
que:

Fluido
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Un fluido es una sustancia o medio continuo que se deforma
continuamente en el tiempo ante la aplicación de una solicitación o tensión
tangencial sin importar la magnitud de ésta.
También se puede definir un fluido como aquella sustancia que, debido a su
poca cohesión intermolecular, carece de forma propia y adopta la forma del
recipiente que lo contiene.

Características [editar]
1. La posición relativa de sus moléculas puede cambiar continuamente.
2. Todos los fluidos son compresibles en cierto grado.
3. Tienen viscosidad.
4. Dependiendo de su viscosidad fluyen a mayor o menor velocidad.
Mientras más viscoso fluye con menor velocidad, mientras menos viscoso
fluye con mayor velocidad.
5. Su viscosidad es independiente de la densidad.
Clasificación [editar]
Los fluidos se pueden clasificar de acuerdo a diferentes características que
presentan en:
1. Newtonianos
2. No newtonianos
O también en:
1. Líquidos
2. Gases

Movimiento [editar]
El movimiento de los gases y los líquidos puede estudiarse en forma
aproximada mediante las ecuaciones de la dinámica de fluidos bajo la
hipótesis del medio continuo. Sin embargo, para que dicha hipótesis sea
válida el recorrido libre promedio de las moléculas que constituyen dichos
materiales debe ser mucho menor que una longitud característica del
sistema físico en el que se encuentra el gas o el líquido en cuestión. De esta
forma, las variables de estado del material, tales como la presión, la
densidad y la velocidad podrán ser consideradas como funciones continuas
del espacio y del tiempo, conduciendo naturalmente a la descripción del
material como un medio continuo.
Al dividir la longitud del recorrido libre promedio de las moléculas por la
longitud característica del sistema, se obtiene un número adimensional
denominado número de Knudsen. Calculando el número de Knudsen es
fácil saber cuándo puede describirse el comportamiento de líquidos y gases
mediante las ecuaciones de la dinámica de los fluidos. En efecto, si el
número de Knudsen es menor a la unidad, la hipótesis del continuo podrá
ser aplicada; si el número de Knudsen es similar a la unidad o mayor,
deberá recurrirse a las ecuaciones de la mecánica estadística para describir
el comportamiento del sistema.
Cuando el número de Knudsen es similar o mayor a la unidad, el recorrido
libre promedio de las moléculas es del mismo tamaño (aproximadamente)
que el sistema físico que contiene al material. En estas circunstancias, dada
una región del espacio del tamaño de la longitud característica, solo
ocasionalmente pasará una molécula por dicha región.
Es por ello que la región de números de Knudsen cercanos o mayores a la
unidad se denomina también región de gases rarificados.

Presión atmosférica
Artículo de la Enciclopedia Libre Universal en Español.
Saltar a navegación, búsqueda
La presión atmosférica es el peso del aire sobre la superficie terrestre. La
atmósfera pesa a una media de 1013 milibares (o hectopascales) al nivel
del mar, aproximadamente un kilogramo por centímetro cuadrado. Pero
cuando el aire está frío desciende, haciendo aumentar la presión y
provocando estabilidad. Se forma, entonces, un anticiclón térmico. Cuando
el aire está caliente asciende, haciendo bajar la presión y provocando
inestabilidad. Se forma, entonces un ciclón, o borrasca térmica.
Además, el aire frío y el cálido tienden a no mezclarse, debido a la
diferencia de densidad, y cuando se encuentran en superficie el aire frío
empuja hacia arriba al aire caliente provocando un descenso de la presión e
inestabilidad, por causas dinámicas. Se forma, entonces un ciclón, o
borrasca dinámica. Esta zona de contacto es la que se conoce como frente.
Cuando el aire frío y el cálido se encuentran en altura descienden en
convergencia dinámica, haciendo aumentar la presión y provocando
estabilidad, y el consiguiente aumento de la temperatura. Se forma,
entonces un anticiclón dinámico.
Enlaces relacionados: Meteorología, Manoscopio
Non datur vacuum in rerum natura. Aristóteles
(El vacío no existe en la naturaleza de las cosas.)

[escribe] Historia.
Los filósofos de la antigüedad, lejos de sospechar el peso del aire, lo
consideraban como un cuerpo que por su naturaleza tendía a elevarse;
explicándose la ascensión de los líquidos en las bombas por el fuga vacui,
horror al vacío, que tiene la naturaleza.
Cuando los jardineros de Florencia quisieron elevar el agua con una bomba,
apreciaron que no podían superar la altura de 32 pies (casi 11 m).
Consultado Galileo, determinó éste que el horror de la naturaleza al vacío
se limitaba con una fuerza equivalente al peso de 32 pies de agua (lo que
viene a ser 1 atm de presión), y denominó a dicha altura altezza
limitatíssima.
En 1643, Torricelli tomó un tubo de vidrio de aproximadamente un metro de
longitud y lo llenó de plata viva (mercurio). Manteniendo el tubo cerrado con
un dedo, lo invirtió e introdujo en una vasija con mercurio. Al retirar el dedo
comprobó que el metal descendía hasta formar una columna cuya altura era
14 veces menor que la que se obtenía al realizar el experimento con agua.
Como sabía que el mercurio era 14 veces más pesado que el agua, dedujo
que ambas columas de líquido estaban soportadas por igual contrapeso,
sospechando que sólo el aire era capaz de realizar dicha fuerza.
A la prematura muerte de Torricelli, llegaron sus experimentos a oídos de
Pascal, a través del Padre Merssene que los dio a conocer en París.
Aunque aceptando inicialmente la teoría del horror al vacío, no tardó Pascal
en cambiar de idea al observar los resultados de los experimentos que
realizó. Empleando un tubo encorvado y usándolo de forma que la
atmósfera no tuviera ninguna influencia sobre el líquido, observó que las
columnas llegaban al mismo nivel. Sin embargo, cuando permitía la acción
de la atmósfera, el nivel variaba.
Estos resultados le indujeron a abordar el experimento definitivo,
consistente en transportar el barómetro a distintas altitudes y comprobar si
era realmente el peso del aire el que determinaba la ascensión del líquido
en el tubo. Al escribir a Périer, uno de sus parientes, el 15 de noviembre de
1647 acerca del experimento proyectado, decía:
Si sucede que la altura de la plata viva es menor en lo alto de la
montaña, que abajo, se deducirá necesariamente que la gravedad y
presión del aire es la única causa de esta suspensión de la plata viva,
y no el horror al vacío, porque es verdad que hay mucho más aire
que pese al pie de la montaña que en su vértice.
El 19 de septiembre de 1648, Périer cumplió el deseo de su cuñado, y
realizó el experimento ascendiendo a la cima del Puy-de-Dôme.
Comparando la medida realizada en la cima, situada a un altura de 500
toesas (cerca de 1000 m), con la de base, tomada por el padre Chastin,
hallaron una diferencia de tres lineas y media entre ambas. La idea del
horror vacui quedó definitivamente abandonaba; el aire pesaba.
Sin dudar del mérito de la realización del experimento, fue sin embargo
Descartes quien, en carta escrita en 1631, 12 años antes del
experimento de Torricelli, afirmaba ya que "El aire es pesado, se le
puede comparar a un vasto mantón de lana que envuelve la Tierra
hasta más allá de las nubes; el peso de esta lana comprime la
superficie del mercurio en la cuba, impidiendo que descienda la
columna mercurial ..."
SABEMOS que la presión atmosférica es la que ejerce la atmósfera o aire sobre la Tierra.
A temperatura ambiente y presión atmosférica normal, un metro cúbico de aire contiene
aproximadamente 2 x 1025 moléculas en movimiento (2 x 1025 es igual a 2 con 25 ceros)
a una velocidad promedio de 1 600 kilómetros por hora.
Una manera de medir la presión atmosférica es con un barómetro de mercurio, su valor
se expresa en términos de la altura de la columna de mercurio de sección transversal
unitaria y 760 mm de alto. Con base en esto decimos que una atmósfera (atm) estándar
es igual a 760 mm Hg (milímetros de mercurio). Utilizaremos por conveniencia la
unidad Torricelli (torr) como medida de presión; 1 torr = 1 mm Hg, por lo que 1 atm =
760 torr; por lo tanto 1 torr = 1/760 de una atmósfera estándar, o sea 1 torr =1.136 x 10-3
atm (1 x 10-3 es igual a 0.001 o igual a un milésimo).
El aire está compuesto por varios gases, los más importantes son el nitrógeno (N2) y el
oxígeno (O2), pero también contiene en menores concentraciones: bióxido de carbono
(CO2), argón (Ar), neón (Ne), helio (He), criptón (Kr), xenón (Xe), hidrógeno (H2),
metano (CH4), óxido nitroso (N2O) y vapor de agua (H2O).
De acuerdo con la definición de la Sociedad Americana de Vacío (1958), el término
vacío se refiere a cierto espacio lleno con gases a una presión total menor que la presión
atmosférica, por lo que el grado de vacío se incrementa en relación directa con la
disminución de presión del gas residual. Esto significa que en cuanto más
disminuyamos la presión, mayor vacío obtendremos, lo que nos permite clasificar el
grado de vacío. Entonces, podemos hablar de bajo, mediano, alto y ultra alto vacío, en
correspondencia con intervalos de presiones cada vez menores. Cada intervalo tiene
características propias.
1) Bajo y mediano vacío. El intervalo de presión atmosférica con estas características se
manifiesta desde un poco menos de 760 torr hasta 10-2 torr. Con las técnicas usuales
para hacer vacío (que se describen más adelante), los gases que componen el aire se
evacuan a diferentes velocidades y esto altera la composición de gases del aire residual.
2) Alto vacío. El intervalo de presión se extiende desde cerca de 10-3 hasta 10-7 torr. La
composición de gases residuales presenta un alto contenido de vapor de agua (H2O).
3) Ultra alto vacío. El intervalo de presión va desde 10-7 hasta 10-16 torr. Las superficies
internas del recipiente se mantienen limpias de gas. En este intervalo el componente
dominante de los gases residuales es el hidrógeno.

Principio de Pascal
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
En física, el principio de Pascal o ley de Pascal, es una ley enunciada por
el físico y matemático francés Blaise Pascal (1623-1662) que se resume en
la frase: «el incremento de presión aplicado a una superficie de un fluido
incompresible (líquido), contenido en un recipiente indeformable, se
transmite con el mismo valor a cada una de las partes del mismo».
El principio de Pascal puede comprobarse utilizando una esfera hueca,
perforada en diferentes lugares y provista de un émbolo. Al llenar la esfera
con agua y ejercer presión sobre ella mediante el embolo, se observa que el
agua sale por todos los agujeros con la misma presión.
Tabla de contenidos
[ocultar]

1. 1 Discusión

2. 2 Aplicaciones del
principio

3. 3 Prensa hidráulica

4. 4 Véase también

Discusión [editar]

El tensor tensión total, debido al peso del fluido hace que el fluido situado en
la parte baja de un recipiente tenga una tensión ligeramente mayor que el
fluido situado en la parte superior. De hecho si la única fuerza másica
actuante es el peso del fluido, el estado tensional del fluido a una
profundidad z el tensor tensión del fluido es:
En vista de lo anterior podemos afirmar que «fijado un punto de un
fluido incompresible en reposo y contenido en un recipiente bajo presión
e indeformable, la presión del fluido, es idéntica en todas direcciones».

Aplicaciones del principio [editar]


El principio de Pascal puede ser interpretado como una consecuencia
de la ecuación fundamental de la hidrostática y del carácter altamente
incompresible de los líquidos. En esta clase de fluidos la densidad es
prácticamente constante, de modo que de acuerdo con la ecuación:

Donde:
, presión total a la profundidad .
, presión sobre la superficie libre del fluido.

Si se aumenta la presión sobre la superficie libre, por ejemplo, la


presión total en el fondo ha de aumentar en la misma medida, ya
que el término ρgh no varía al no hacerlo la presión total
(obviamente si el fluido fuera compresible, la densidad del fluido
respondería a los cambios de presión y el principio de Pascal no
podría cumplirse).

Principio de Arquímedes
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
El principio de Arquímedes es un principio físico que afirma que un cuerpo
total o parcialmente sumergido en un fluido estático (e incompresible), será
empujado con una fuerza igual al peso del volumen de fluido desplazado
por dicho objeto. De este modo cuando un cuerpo está sumergido en el
fluido se genera un empuje hidrostático resultante de las presiones sobre la
superficie del cuerpo que actúa siempre hacia arriba a través del centro de
gravedad del cuerpo y de valor igual al peso del fluido desplazado. Esta
fuerza se mide en Newtons (en el SI) y su ecuación se describe como:

Donde ρf y ρs son respectivamente la densidad del fluido y del sólido


sumergido; V el volumen del cuerpo sumergido; y g la aceleración de la
gravedad.
Tabla de contenidos
[ocultar]

1. 1 Demostración

1. 1.1 Prisma recto

2. 2 Ejemplo del Principio de


Arquímedes

3. 3 Véase también

Demostración [editar]
Aunque el principio de Arquímedes fue introducido como principio, de hecho
puede considerarse un teorema demostrable a partir de las ecuaciones de
Navier-Stokes para un fluido en reposo, mediante el teorema de Stokes.
Partiendo de la ecuación de Stokes:

(1)

La condición de que el fluido incompresible que esté en reposo implica


tomar en la ecuación anterior lo que permite llega a la relación
fundamental entre presión del fluido, densidad del fluido y aceleración de la
gravedad:

(2)

A partir de esa relación podemos reescribir fácilmente las fuerzas sobre un


cuerpo sumergido en términos del peso del fluido desalojado por el cuerpo.
Cuando se sumerge un sólido K en un fluido en cada punto de su superficie
aparece una fuerza perpendicular a la superficie en ese punto y
proporcional a la presión del fluido p en ese punto. Si llamamos

al vector normal a la superficie del cuerpo podemos


escribir la fuerza su resultante sencillamente mediante el teorema de Stokes
de la divergencia:

(3)

Donde la última igualdad se da sólo si el fluido es incompresible.


Prisma recto [editar]
Para un prisma recto de base Ab y altura H, sumergido en posición
totalmente vertical, la demostración anterior es realmente elemental. Por la
configuración del prisma dentro del fluido las presiones sobre el área lateral
sólo producen empujes horizontales que además se anulan entre sí y no
contribuyen a sustentarlo. Para las caras superior e inferior puesto que
todos sus puntos están sumergidos a la misma profundidad, la presión es
constante y podemos usar la relación Fuerza = presión x Área y teniendo en
cuenta la resultante sobre la cara superior e inferior tenemos:

(4)

Donde pinf es la presión aplicada sobre la cara inferior del cuerpo, psup es la
presión aplicada sobre la cara superior y A es el area proyectada del
cuerpo. Teniendo en cuenta la ecuación general de la hidrostática, que
establece que la presión en un fluido en reposo aumenta proporcionalmente
con la profundidad:

(5)
Introduciendo en el último término el volumen del cuerpo y multiplicando por
la densidad del fluido ρf vemos que la fuerza vertical ascendente FV es
precisamente el peso del fluido desalojado.

(6)

El empuje o fuerza que ejerce el líquido sobre un cuerpo, en forma vertical y


ascendente, cuando éste se halla sumergido, resulta ser también la
diferencia entre el peso que tiene el cuerpo suspendido en el aire y el "peso"
que tiene el mismo cuando se lo introduce en un líquido. A éste último se lo
conoce como peso "aparente" del cuerpo, pues su peso en el líquido
disminuye "aparentemente"; la fuerza que ejerce la Tierra sobre el cuerpo
permanece constante, pero el cuerpo, a su vez, recibe una fuerza hacia
arriba que disminuye la resultante vertical.

Presión hidrostática
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
La presión hidrostática es la parte de la presión debida al peso de un
fluido en reposo. En un fluido en reposo la única presión existente es la
presión hidrostática, en un fluido en movimiento además puede aparecer
una presión hidrodinámica relacionada con la velocidad del fluido.
Un fluido pesa y ejerce presión sobre las paredes, sobre el fondo del
recipiente que lo contiene y sobre la superficie de cualquier objeto
sumergido en él. Esta presión, llamada presión hidrostática provoca, en
fluidos en reposo, una fuerza perpendicular a las paredes del recipiente o a
la superficie del objeto sumergido sin importar la orientación que adopten
las caras. Si el líquido fluyera, las fuerzas resultantes de las presiones ya no
serían necesariamente perpendiculares a las superficies.
Esta presión depende de la densidad del líquido en cuestión y de la altura a
la que esté sumergido el cuerpo y se calcula mediante la siguiente
expresión:
Donde, usando unidades del SI,
1. P es la presión hidrostática (en pascales);
2. ρ es la densidad del líquido (en kilogramos por metro cúbico);
3. g es la aceleración de la gravedad (en metros por segundo al
cuadrado);
4. h es la altura del fluido (en metros). Un liquido en equilibrio ejerce
fuerzas perpendiculares sobre cualquier superficie sumergida en su interior

Tensión superficial
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

Ejemplo de tensión superficial: una aguja de acero flotando en agua.

Para otros usos de este término véase tensión.

En física se denomina tensión superficial al fenómeno por el cual la


superficie de un líquido tiende a comportarse como si fuera una delgada
película elástica. Este efecto permite a algunos insectos, como el zapatero
(Hydrometra stagnorum) , desplazarse por la superficie del agua sin
hundirse. La tensión superficial (una manifestación de las fuerzas
intermoleculares en los líquidos), junto a las fuerzas que se dan entre los
líquidos y las superficies sólidas que entran en contacto con ellos, da lugar a
la capilaridad, por ejemplo.
A nivel microscópico, la tensión superficial se debe a que las fuerzas que
afectan a cada molécula son diferentes en el interior del líquido y en la
superficie. Así, en el seno de un líquido cada molécula está sometida a
fuerzas de atracción que en promedio se anulan. Esto permite que la
molécula tenga una energía bastante baja. Sin embargo, en la superficie
hay una fuerza neta hacia el interior del líquido. Rigurosamente, si en el
exterior del líquido se tiene un gas, existirá una mínima fuerza atractiva
hacia el exterior, aunque en la realidad esta fuerza es despreciable debido a
la gran diferencia de densidades entre el líquido y el gas.
La tensión superficial tiene como principal efecto la tendencia del líquido a
disminuir en lo posible su superficie para un volumen dado, de aquí que un
líquido en ausencia de gravedad adopte la forma esférica, que es la que
tiene menor relación área/volumen.
Energéticamente, las moléculas situadas en la superficie tiene una mayor
energía promedio que las situadas en el interior, por lo tanto la tendencia del
sistema será a disminuir la energía total, y ello se logra disminuyendo el
número de moléculas situadas en la superficie, de ahí la reducción de área
hasta el mínimo posible.
Tabla de contenidos
[ocultar]

1. 1 Propiedades

2. 2
Tensoactividad

3. 3 Véase
también

4. 4 Enlaces
externos

Propiedades [editar]
La tensión superficial puede afectar a objetos de mayor tamaño impidiendo, por
ejemplo, el hundimiento de una flor.

La tensión superficial suele representarse mediante la letra γ. Sus unidades


son de N·m-1=J·m-2 (véase análisis dimensional).
Algunas propiedades de γ:
1. γ > 0, ya que para aumentar el estado del líquido en contacto hace
falta llevar más moléculas a la superficie, con lo cual disminuye la energía

del sistema y γ es , o la cantidad de trabajo necesario para llevar


una molécula a la superficie.
2. γ depende de la naturaleza de las dos fases puestas en contacto que,
en general, será un líquido y un sólido. Así, la tensión superficial será igual
por ejemplo para agua en contacto con su vapor, agua en contacto con un
gas inerte o agua en contacto con un sólido, al cual podrá mojar o no (véase
capilaridad) debido a las diferencias entre las fuerzas cohesivas (dentro del
líquido) y las adhesivas (líquido-superficie).
3. γ se puede interpretar como un fuerza por unidad de longitud (se
mide en N·m-1). Esto puede ilustrarse considerando un sistema bifásico
confinado por un pistón móvil, en particular dos líquidos con distinta tensión
superficial, como podría ser el agua y el hexano. En este caso el líquido con
mayor tensión superficial (agua) tenderá a disminuir su superficie a costa de
aumentar la del hexano, de menor tensión superficial, lo cual se traduce en
una fuerza neta que mueve el pistón desde el hexano hacia el agua.
4. El valor de γ depende de la magnitud de las fuerzas intermoleculares
en el seno del líquido. De esta forma, cuanto mayor sean las fuerzas de
cohesión del líquido, mayor será su tensión superficial. Podemos ilustrar
este ejemplo considerando tres líquidos: hexano, agua y mercurio. En el
caso del hexano, las fuerzas intermoleculares son de tipo fuerzas de Van
der Waals. El agua, aparte de la de Van der Waals tiene interacciones de
puente de hidrógeno, de mayor intensidad, y el mercurio está sometido al
enlace metálico, la más intensa de las tres. Así, la γ de cada líquido crece
del hexano al mercurio.
5. Para un líquido dado, el valor de γ disminuye con la temperatura,
debido al aumento de la agitación térmica, lo que redunda en una menor
intensidad efectiva de las fuerzas intermoleculares. El valor de γ tiende a
cero conforme la temperatura se aproxima a la temperatura crítica Tc del
compuesto. En este punto, el líquido es indistinguible del vapor, formándose
una fase continua donde no existe una superficie definida entre ambos.
Tensoactividad [editar]
Se denomina tensoactividad al fenómeno por el cual una sustancia reduce
la tensión superficial al disolverse en agua u otra solución acuosa. Su
fórmula es 2 Pi*D*Y = F; donde:
-D = Diámetro. -Y = Tensión Superficial -F = Fuerza

Capilaridad
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
La capilaridad es la cualidad que posee una sustancia para absorber un
líquido. Sucede cuando las fuerzas intermoleculares adhesivas entre el
líquido y el sólido son mayores que las fuerzas intermoleculares cohesivas
del líquido. Esto causa que el menisco tenga una forma cóncava cuando el
líquido está en contacto con una superficie vertical. En el caso del tubo
delgado, éste succiona un líquido incluso en contra de la fuerza de
gravedad. Este es el mismo efecto que causa que los materiales porosos
absorban líquidos.

Tubo capilar [editar]

Efectos de capilaridad
Un aparato comúnmente empleado para demostrar la capilaridad es el tubo
capilar; cuando la parte inferior de un tubo de vidrio se coloca verticalmente,
en contacto con un líquido como el agua, se forma un menisco cóncavo; la
tensión superficial succiona la columna líquida hacia arriba hasta que el
peso del líquido sea suficiente para que la fuerza de la gravedad se
equilibre con las fuerzas intermoleculares.
El peso de la columna líquida es proporcional al cuadrado del diámetro del
tubo, por lo que un tubo angosto succionará el líquido más arriba que un
tubo ancho. Así, un tubo de vidrio de 0,1 mm de diámetro levantará una
columna de agua de 30 cm. Cuanto más pequeño es el diámetro del tubo
capilar mayor será la presión capilar y la altura alcanzada. En capilares de 1
µm (micrómetro) de radio con una presión de succión 1,5*103 hPa
(hectopascal = hPa = 1,5 atm), corresponde a una altura de columna de
agua de 14 a 15 m.
Dos placas de vidrio que están separadas por una película de agua de 1 µm
(micrómetro) de espesor, se mantienen unidas por una presión de succión
de 1,5 atm. Por ello se rompen los portaobjetos humedecidos al intentar
separarlos.
Entre algunos materiales, como el mercurio y el vidrio, las fuerzas
intermoleculares del líquido exceden a las existentes entre el líquido y el
sólido, por lo que se forma un menisco convexo y la capilaridad trabaja en
sentido inverso.
Las plantas, por capilaridad, succionar agua del terreno, aunque las plantas
más grandes requieren de la transpiración para desplazar la cantidad
necesaria de agua hasta las hojas, o allí donde se precise.
Ley de Jurin [editar]
La ley de Jurin define la altura que se alcanza cuando se equilibra el peso
de la columna de líquido y la fuerza de ascensión por capilaridad.
La altura h en metros de una columna líquida está dada por:

donde:
T = tensión superficial interfacial (N/m)
θ = ángulo de contacto
ρ = densidad del líquido (kg/m³)
g = aceleración debido a la gravedad (m/s²)
r = radio del tubo (m)
Para un tubo de vidrio en el aire a nivel del mar y
lleno de agua,
T = 0,0728 N/m a 20 °C
θ = 20°
ρ = 1000 kg/m³
g = 9,80665 m/s²
entonces la altura de la columna
está dada por:

ECUACIÓN DE CONTINUIDAD
La ecuación de continuidad o conservación de masa es una herramienta muy útil para el análisis de
fluidos que fluyen a través de tubos o ductos con diámetro variable. En estos casos, la velocidad
del flujo cambia debido a que el área transversal varía de una sección del ducto a otra.

Si se considera un fluido con un flujo a través de un volumen fijo como un tanque con una
entrada y una salida, la razón con la cual el fluido entra en el volumen debe ser igual a la razón con
la que el fluido sale del volumen para que se cumpla el principio fundamental de conservación de
masa (6, Pág. 123).
(Haga click sobre la figura para verla en tamaño completo)

Representación de un dispositivo (Tobera, Turbina o Alabe)


a través del cual fluye vapor o gas.

La ecuación de continuidad es empleada para el análisis de boquillas, toberas, altura de álabes de


turbinas y compresores, perfil de los álabes de las turbinas a reacción entre otros.

Principio de Bernoulli
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Para el teorema matemático enunciado por Jakob Bernoulli véase Teorema
de Bernoulli.

Esquema del Principio de Bernoulli.

El principio de Bernoulli, también denominado ecuación de Bernoulli o


Trinomio de Bernoulli, describe el comportamiento de un fluido
moviéndose a lo largo de una línea de corriente. Fue expuesto por Daniel
Bernoulli en su obra Hidrodinámica (1738) y expresa que en un fluido ideal
(sin viscosidad ni rozamiento) en régimen de circulación por un conducto
cerrado, la energía que posee el fluido permanece constante a lo largo de
su recorrido. La energía de un fluido en cualquier momento consta de tres
componentes:
1.- Cinético: es la energía debida a la velocidad que posea el fluido.
2.- Potencial gravitacional: es la energía debido a la altitud que un fluido
posea.
3.- Energía de flujo: es la energía que un fluido contiene debido a la presión
que posee.
La siguiente ecuación conocida como "Ecuación de Bernoulli" (Trinomio de
Bernoulli) consta de estos mismos términos.

donde:
1. v = velocidad del fluido en la sección considerada.
2. g = aceleración gravitatoria
3. y = altura geométrica en la dirección de la gravedad
4. P = presión a lo largo de la línea de corriente
5. ρ = densidad del fluido
Para aplicar la ecuación se deben realizar los siguientes supuestos:
1. Viscosidad (fricción interna) = 0 Es decir, se considera que la línea de
corriente sobre la cual se aplica
se encuentra en una zona 'no viscosa' del fluido.
1. Caudal constante
2. Fluido incompresible - ρ es constante
3. La ecuación se aplica a lo largo de una línea de corriente
Aunque el nombre de la ecuación se debe a Bernoulli, la forma arriba
expuesta fue presentada en primer lugar por Leonhard Euler.
Un ejemplo de aplicación del principio lo encontramos en el Flujo de
agua en tubería.

Aplicaciones Principio de Bernoulli [editar]


Chimenea
Las Chimeneas son altas para aprovechar que la velocidad del viento
es más constante y elevada a mayores alturas. Cuanto más
rápidamente sopla el viento sobre la boca de una chimenea, más baja
es la presión y mayor es la diferencia de presión entre la base y la boca
de la chimenea, en consecuencia, los gases de combustión se extraen
mejor.
Tubería
La ecuación de Bernoulli y la ecuación de continuidad también nos
dicen que si reducimos el área transversal de una tubería para que
aumente la velocidad del fluido que pasa por ella, se reducirá la presión.
Sustentación de aviones
El efecto Bernoulli es también en parte el origen de la sustentación de
los aviones. Gracias a la forma y orientación de los perfiles
aerodinámicos, el ala es curva en su cara superior y esta angulada
respecto a las líneas de corriente incidentes. Por ello, las líneas de
corriente arriba del ala están mas juntas que abajo, por lo que la
velocidad del aire es mayor y la presión es menor arriba del ala; al ser
mayor la presión abajo del ala, se genera una fuerza neta hacia arriba
llamada sustentación.
Carburador de automóvil
En un carburador de automóvil, la presión del aire que pasa a través del
cuerpo del carburador, disminuye cuando pasa por un
estrangulamiento. Al disminuir la presión, la gasolina fluye, se vaporiza
y se mezcla con la corriente de aire.
Flujo de fluido desde un tanque
La tasa de flujo esta dada por la ecuación de Bernoulli.

Formulación de la ecuación
La ecuación de Bernoulli describe el comportamiento de un fluído bajo condiciones
variantes y tiene la forma siguiente:

(1
)
2 Parámetros
En la ecuación de Bernoulli intervienen los parámetros siguientes:

• : Es la presión estática a la que está sometido el fluído, debida a las


moléculas que lo rodean

• : Densidad del fluído.

• : Velocidad de flujo del fluído.

• : Valor de la aceleración de la gravedad ( en la superficie


de la Tierra).

• : Altura sobre un nivel de referencia.

3 Aplicabilidad
Esta ecuación se aplica en la dinámica de fluídos. Un fluído se caracteriza por carecer
de elasticidad de forma, es decir, adopta la forma del recipiente que la contiene, esto se
debe a que las moléculas de los fluídos no están rígidamente unidas, como en el caso de
los sólidos. Fluídos son tanto gases como líquidos.

Para llegar a la ecuación de Bernoulli se han de hacer ciertas suposiciones que nos
limitan el nivel de aplicabilidad:
• El fluído se mueve en un régimen estacionario, o sea, la velocidad del
flujo en un punto no varía con el tiempo.
• Se desprecia la viscosidad del fluído (que es una fuerza de
rozamiento interna).
• Se considera que el líquido está bajo la acción del campo gravitatorio
únicamente.

4 Efecto Bernoulli
El efecto Bernoulli es una consecuencia directa que surge a partir de la ecuación de
Bernoulli: en el caso de que el fluído fluja en horizontal un aumento de la velocidad del
flujo implica que la presión estática decrecerá.

Un ejemplo práctico es el caso de las alas de un avión, que están diseñadas para que el
aire que pasa por encima del ala fluya más velozmente que el aire que pasa por debajo
del ala, por lo que la presión estática es mayor en la parte inferior y el avión se levanta.

5 Tubo de Venturi
El caudal (o gasto) se define como el producto de la sección por la que fluye el fluído y
la velocidad a la que fluye. En dinámica de fluídos existe una ecuación de continuidad
que nos garantiza que en ausencia de manantiales o sumideros, este caudal es constante.
Como implicación directa de esta continuidad del caudal y la ecuación de Bernoulli
tenemos un tubo de Venturi.

Un tubo de Venturi es una cavidad de sección por la que fluye un fluído y que en una

parte se estrecha, teniendo ahora una sección . Como el caudal se conserva

entonces tenemos que . Por tanto:

(2
)

Si el tubo es horizontal entonces , y con la condición anterior de las

velocidades vemos que, necesariamente, . Es decir, un estrechamiento en un


tubo horizontal implica que la presión estática del líquido disminuye en el
estrechamiento.

Viscosidad
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
La viscosidad es la oposición de un fluido a las deformaciones
tangenciales. Un fluido que no tiene viscosidad se llama fluido ideal, en
realidad todos los fluidos conocidos presentan algo de viscosidad, siendo el
modelo de viscosidad nula una aproximación bastante buena para ciertas
aplicaciones.

Explicación de la viscosidad [editar]


Imaginemos un bloque sólido (no fluido) sometido a una fuerza tangencial,
por ejemplo, una goma de borrar sobre la que se sitúa la palma de la mano
que empuja en dirección paralela a la mesa; en este caso, el material sólido
opone una resistencia a la fuerza aplicada, pero se deforma (b), tanto más
cuanto menor sea su resistencia. Si imaginamos que la goma de borrar está
formada por delgadas capas unas sobre otras, el resultado de la
deformación es el desplazamiento relativo de unas capas respecto de las
adyacentes, tal como muestra la figura (c).

Deformación de un sólido por la aplicación de una fuerza tangencial.

En los líquidos, el pequeño rozamiento existente entre capas adyacentes se


denomina viscosidad. Es su pequeña magnitud la que le confiere al fluido
sus peculiares características; así, por ejemplo, si arrastramos la superficie
de un líquido con la palma de la mano como hacíamos con la goma de
borrar, las capas inferiores no se moverán o lo harán mucho más
lentamente que la superficie ya que son arrastradas por efecto de la
pequeña resistencia tangencial, mientras que las capas superiores fluyen
con facilidad. Igualmente, si revolvemos con una cuchara un recipiente
grande con agua en el que hemos depositado pequeños trozos de corcho,
observaremos que al revolver en el centro también se mueve la periferia y al
revolver en la periferia también dan vueltas los trocitos de corcho del centro;
de nuevo, las capas cilíndricas de agua se mueven por efecto de la
viscosidad, disminuyendo su velocidad a medida que nos alejamos de la
cuchara.
Ejemplo de la viscosidad de la leche y el agua. Líquidos con altas viscosidades no
forman salpicaduras.

Cabe señalar que la viscosidad sólo se manifiesta en fluidos en movimiento,


ya que cuando el fluido está en reposo adopta una forma tal en la que no
actúan las fuerzas tangenciales que no puede resistir. Es por ello por lo que
llenado un recipiente con un líquido, la superficie del mismo permanece
plana, es decir, perpendicular a la única fuerza que actúa en ese momento,
la gravedad, sin existir por tanto componente tangencial alguna.
Si la viscosidad fuera muy grande, el rozamiento entre capas adyacentes lo
sería también, lo que significa que éstas no podrían moverse unas respecto
de otras o lo harían muy poco, es decir, estaríamos ante un sólido. Si por el
contrario la viscosidad fuera cero, estaríamos ante un superfluido que
presenta propiedades notables como escapar de los recipientes aunque no
estén llenos (véase Helio-II).
La viscosidad es característica de todos los fluidos, tanto líquidos como
gases, si bien, en este último caso su efecto suele ser despreciable, están
más cerca de ser fluidos ideales.
Medidas de la viscosidad [editar]
La viscosidad de un fluido puede medirse a través de un parámetro
dependiente de la temperatura llamada coeficiente de viscosidad o
simplemente viscosidad:
1. Coeficiente de viscosidad dinámico, designado como η o μ. En
unidades en el SI: [µ] = [Pa·s] = [kg·m-1·s-1] ; otras unidades: 1 Poise (P) =
10-1 Pa·s = [10-1 kg·s-1·m-1]
1. Coeficiente de viscosidad cinemático, designado como ν, y que
resulta ser igual al cociente del coeficiente de viscosidad dinámica entre la
densidad ν = μ/ρ. (En unidades en el SI: [ν] = [m2.s-1]. En el sistema
cegesimal es el Stoke(St).

Óptica
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

Refracción en distintos medios.

La Óptica es la rama de la física que estudia el comportamiento de la luz,


sus características y sus manifestaciones. Abarca el estudio de la reflexión,
la refracción, las interferencias, la difracción, la formación de imágenes y la
interacción de la luz con la materia.
Tabla de contenidos
[ocultar]

1 Desarrollo histórico

1. 1.1 Reflexión y refracción

2. 1.2 Interferencia y difracción

3. 1.3 Primeras teorías y otros fenómenos


4. 1.4 Aportes de Fresnel

5. 1.5 La teoría del éter

6. 1.6 Las ondas luminosas como ondas


electromagnéticas

7. 1.7 La teoría cuántica

2 Teorías científicas

3 Espectro electromagnético

4 Véase también

5 Referencias

6 Enlaces externos

Desarrollo histórico [editar]


Reflexión y refracción [editar]

Reflexión de la luz en el agua.

En la Edad Antigua se conocía la propagación rectilínea de la luz y la


reflexión y refracción. Dos filósofos y matemáticos griegos escribieron
tratados sobre óptica, Empédocles y Euclides.
Ya en la Edad Moderna René Descartes consideraba la luz como una onda
de presión transmitida a través de un medio elástico perfecto (el éter) que
llenaba el espacio. Atribuyó los diferentes colores a movimientos rotatorios
de diferentes velocidades de las partículas en el medio.
La ley de la refracción fue descubierta experimentalmente en 1621 por
Willebrord Snell. En 1657 Pierre de Fermat enunció el principio del tiempo
mínimo y a partir de él dedujo la ley de la refracción.KKYYYYY
Véase también: Ley de Snell

Interferencia y difracción [editar]


Interferencia (esquema simulado).

Robert Boyle y Robert Hooke descubrieron de forma independiente el


fenómeno de la interferencia conocido como anillos de Newton. Hooke
también observó la presencia de luz en la sombra geométrica, debido a la
difracción, fenómeno que ya había sido descubierto por Francesco Maria
Grimaldi. Hooke pensaba que la luz consistía en vibraciones propagadas
instantáneamente a gran velocidad y creía que en un medio homogéneo
cada vibración generaba una esfera que crece de forma regular. Con estas
ideas, Hooke intentó explicar el fenómeno de la refracción e interpretar los
colores. Sin embargo, los estudios que aclararon las propiedades de los
colores fueron desarrollados por Newton que descubrió en 1666 que la luz
blanca puede dividirse en sus colores componentes mediante un prisma y
encontró que cada color puro se caracteriza por una refractabilidad
específica. Las dificultades que la teoría ondulatoria se encontraba para
explicar la propagación rectilínea de la luz y la polarización (descubierta por
Huygens) llevaron a Newton a inclinarse por la teoría corpuscular, que
supone que la luz se propaga desde los cuerpos luminosos en forma de
partículas.
Dispersión de la luz en dos prismas de distinto material.

En la época en que Newton publicó su teoría del color, no se conocía si la


luz se propagaba instantáneamente o no. El descubrimiento de la velocidad
finita de la luz lo realizó en 1675 Olaf Römer a partir de observaciones de
los eclipses de Júpiter.
Primeras teorías y otros fenómenos [editar]
Por su parte, Hooke fue de los primeros defensores de la teoría ondulatoria
que fue extendida y mejorada por Christian Huygens que enunció el
principio que lleva su nombre, según el cual cada punto perturbado por una
onda puede considerarse como el centro de una nueva onda secundaria, la
envolvente de estas ondas secundarias define el frente de onda en un
tiempo posterior. Con la ayuda de este principio, consiguió deducir las leyes
de la reflexión y refracción. También pudo interpretar la doble refracción del
espato de Islandia, fenómeno descubierto en 1669 por Erasmus Bartholinus,
gracias a la suposición de la transmisión de una onda secundaria elipsoidal,
además de la principal de forma esférica. Durante esta investigación
Huygens descubrió la polarización. Cada uno de los dos rayos emergentes
de la refracción del espato de Islandia puede extinguirse haciéndolo pasar
por un segundo cristal del mismo material, rotado alrededor de un eje con la
misma dirección que el rayo luminoso. Fue sin embargo Newton el que
consiguió interpretar este fenómeno, suponiendo que los rayos tenían
“lados”, propiedad que le pareció una objeción insuperable para la teoría
ondulatoria de la luz, ya que en aquella época los científicos sólo estaban
familiarizados con las ondas longitudinales.
El prestigio de Newton, indujo el rechazo por parte de la comunidad
científica de la teoría ondulatoria, durante casi un siglo, con algunas
excepciones, como la de Leonhard Euler. No fue hasta el comienzo del
Siglo XIX en que nuevos progresos llevaron a la aceptación generalizada de
la teoría ondulatoria. El primero de ellos fue la enunciación por Thomas
Young en 1801, del principio de interferencia y la explicación de los colores
de películas delgadas. Sin embargo, como fueron expresadas en términos
cualitativos no consiguieron reconocimiento generalizado. En esta misma
época Étienne-Louis Malus describió la polarización por reflexión, en 1808
observó la reflexión del Sol desde una ventana a través de un cristal de
espato de Islandia y encontró que las dos imágenes birrefringentes variaban
sus intensidades relativas al rotar el cristal, aunque Malus no intentó
interpretar el fenómeno.
Aportes de Fresnel [editar]
Augustin-Jean Fresnel ganó un premio instituido en 1818 por la academia
de París por la explicación de la difracción, basándose en la teoría
ondulatoria, que fue la primera de una serie de investigaciones que, en el
curso de algunos años, terminaron por desacreditar completamente la teoría
corpuscular. Los principios básicos utilizados fueron: el principio de Huygens
y el de interferencia de Young, los cuales, según demostró Fresnel, son
suficientes para explicar, no sólo la propagación rectilínea, sino las
desviaciones de dicho comportamiento (como la difracción). Fresnel calculó
la difracción causada por rendijas, pequeñas aperturas y pantallas. Una
confirmación experimental de su teoría de la difracción fue la verificación
realizada por François Jean Dominique Arago de una predicción de Poisson
a partir de las teorías de Fresnel, que es la existencia de una mancha
brillante en el centro de la sombra de un disco circular pequeño.
En el mismo año (1818) Fresnel también investigó el problema de la
influencia del movimiento terrestre en la propagación de la luz. Básicamente
el problema consistía en determinar si existe alguna diferencia entre la luz
de las estrellas y la de fuentes terrestres. Arago encontró
experimentalmente que (aparte de la aberración) no había diferencia. Sobre
la base de este descubrimiento Fresnel desarrolló su teoría de la
convección parcial del éter por interacción con la materia, sus resultados
fueron confirmados experimentalmente en 1851 por Armand Hypolite Louis
Fizeau. Junto con Arago, Fresnel investigó la interferencia de rayos
polarizados y encontró en 1816 que dos rayos polarizados
perpendicularmente uno al otro, nunca interferían. Este hecho no pudo ser
reconciliado con la hipótesis de ondas longitudinales, que hasta entonces se
había dado por segura. Young explicó en 1817 el fenómeno con la
suposición de ondas transversales.
Fresnel intentó explicar la propagación de la luz como ondas en un material
(éter) y dado que en un fluido sólo son posibles las oscilaciones elásticas
longitudinales, concluyó que el éter debía comportarse como un sólido, pero
como en aquella época la teoría de ondas elásticas en sólidos no estaba
desarrollada, Fresnel intentó deducir las propiedades del éter de la
observación experimental. Su punto de partida fueron las leyes de
propagación en cristales. En 1832, William Rowan Hamilton predijo a partir
de las teorías de Fresnel la denominada refracción cónica, confirmada
posteriormente de forma experimental por Humprey Lloyd.
Fue también Fresnel el que en 1821 dio la primera indicación de las causas
de la dispersión al considerar la estructura molecular de la materia, idea
desarrollada posteriormente por Cauchy.
Los modelos dinámicos de los mecanismos de las vibraciones del éter,
llevaron a Fresnel a deducir las leyes que ahora llevan su nombre y que
gobiernan la intensidad y polarización de los rayos luminosos producidos
por la reflexión y refracción.
La teoría del éter [editar]
En 1850 Foucault, Fizeau y Breguet realizaron un experimento crucial para
decidir entre las teorías ondulatoria y corpuscular. El experimento fue
propuesto inicialmente por Arago y consiste en medir la velocidad de la luz
en aire y agua. La teoría corpuscular explica la refracción en términos de la
atracción de los corpúsculos luminosos hacia el medio más denso, lo que
implica una velocidad mayor en el medio más denso. Por otra parte, la
teoría ondulatoria implica, de acuerdo con el principio de Huygens que en el
medio más denso la velocidad es menor.
En las décadas que siguieron, se desarrolló la teoría del éter. El primer paso
fue la formulación de una teoría de la elasticidad de los cuerpos sólidos
desarrollada por Claude Louis Marie Henri Navier que consideró que la
materia consiste de un conjunto de partículas ejerciendo entre ellas fuerzas
a lo largo de las líneas que los unen. Diferentes desarrollos aplicables a la
Óptica fueron realizados por Siméon Denis Poisson, George Green, James
MacCullagh y Franz Neuman. Todas ellas encontraban dificultades por
intentar explicar el fenómeno óptico en términos mecánicos. Por ejemplo, al
incidir sobre un medio una onda transversal, se deberían producir ondas,
tanto longitudinales como transversales, pero, según los experimentos de
Arago y Fresnel, solo se producen del segundo tipo. Otra objeción a la
hipótesis del éter es la ausencia de resistencia al movimiento de los
planetas.
Un primer paso para abandonar el concepto de éter elástico lo realizó
MacCullagh, que postuló un medio con propiedades diferentes a la de los
cuerpos ordinarios. Las leyes de propagación de ondas en este tipo de éter
son similares a las ecuaciones electromagnéticas de Maxwell.
A pesar de las dificultades, la teoría del éter elástico persistió y recibió
aportaciones de físicos del siglo XIX, entre ellos William Thomson (Lord
Kelvin), Carl Neumann, John William Strutt (Lord Rayleigh) y Gustav
Kirchhoff.
Las ondas luminosas como ondas electromagnéticas
[editar]
Mientras tanto, las investigaciones en electricidad y magnetismo se
desarrollaban culminando en los descubrimientos de Michael Faraday.
James Clerk Maxwell consiguió resumir todo el conocimiento previo en este
campo en un sistema de ecuaciones que establecían la posibilidad de
ondas electromagnéticas con una velocidad que podía calcularse a partir de
los resultados de medidas eléctricas y magnéticas. Cuando Rudolph
Kohlrausch y Wilhelm Weber realizaron estas medidas, la velocidad
obtenida resultó coincidir con la velocidad de la luz. Esto llevó a Maxwell a
especular que las ondas luminosas eran electromagnéticas, lo que se
verificó experimentalmente en 1888 por Heinrich Hertz.
La teoría cuántica [editar]
Pero, incluso la teoría electromagnética de la luz es incapaz de explicar el
proceso de emisión y absorción. Las leyes que rigen estos últimos procesos
comenzaron a dilucidarse con Joseph von Fraunhofer que descubrió entre
1814-1817 líneas oscuras en el espectro solar. La interpretación como
líneas de absorción de las mismas se dio por primera vez en 1861 sobre la
base de los experimentos de Robert Wilhelm Bunsen y Gustav Kirchhoff. La
luz de espectro continuo del Sol, al pasar por los gases de la atmósfera
solar, pierde por absorción, justamente aquellas frecuencias que los gases
que la componen emiten. Este descubrimiento marca el inicio del análisis
espectral que se base en que cada elemento químico tiene un espectro de
líneas característico. El estudio de estos espectros no pertenece
exclusivamente al campo de la Óptica ya que involucra la mecánica de los
propios átomos y las leyes de las líneas espectrales revelan información, no
tanto sobre la naturaleza de la luz como la estructura de las partículas
emisoras.
Finalmente la comunidad científica acabó aceptando que la mecánica
clásica es inadecuada para una descripción correcta de los sucesos que
ocurren en el interior de los átomos y debe ser reemplazada por la teoría
cuántica. La aplicación de la misma permitió a Niels Bohr explicar las leyes
de las líneas espectrales de los gases. Así pues, la mecánica cuántica ha
influido decisivamente sobre el concepto científico de la naturaleza de la luz.
Fue Albert Einstein el que, basándose en los cuantos de Planck retomó la
teoría corpuscular de la luz en una nueva forma, asignándole realidad física
de dichos cuantos (fotones). De este modo pudo explicar algunos
fenómenos que se habían descubierto, relativos a la transformación de la
luz en energía corpuscular que eran inexplicables con la teoría ondulatoria.
Así, en el efecto fotoeléctrico la energía impartida a las partículas
secundarias es independiente de la intensidad y es proporcional a la
frecuencia de la luz.
La teoría detallada de la interacción entre campo y materia requiere de los
métodos de la mecánica cuántica (cuantización del campo). En el caso de la
radiación electromagnética, Dirac fue el primero en realizarlo, fundando las
bases de la óptica cuántica.
La óptica a su vez ha influido decisivamente en otros frentes de la física, en
particular la rama de la óptica de cuerpos en movimiento participó en el
desarrollo de la teoría de la relatividad. El primer fenómeno observado en
este campo fue la aberración de las estrellas fijas, estudiado por James
Bradley en 1728. El fenómeno aparece con la observación de las estrellas
en diferentes posiciones angulares, dependiendo del movimiento de la
Tierra respecto a la dirección del haz de luz. Bradley interpretó el fenómeno
como causado por la velocidad finita de la luz y pudo determinar su
velocidad de este modo. Otro fenómeno de la óptica de cuerpos en
movimiento es la convección de la luz por los cuerpos en movimiento, que
Fresnel mostró se podía entenderse como la participación de éter en el
movimiento con sólo una fracción de la velocidad del cuerpo en movimiento.
Fizeau demostró después esta convección experimentalmente con la ayuda
de flujos de agua. El efecto del movimiento de la fuente luminosa fue
estudiado por Christian Doppler, que formuló el principio de su mismo
nombre. Hertz fue el primero en intentar generalizar las leyes de Maxwell a
objetos en movimiento. Su formulación, sin embargo, entraba en conflicto
con algunos experimentos. Otro investigador en este campo fue Hendrik
Antoon Lorentz que supuso el éter en estado de reposo absoluto como
portador del campo electromagnético y dedujo las propiedades de los
cuerpos materiales a partir de la interacción de partículas eléctricas
elementales (los electrones). Pudo deducir el coeficiente de convección de
Fresnel a partir de su teoría, así como el resto de fenómenos conocidos en
1895. Sin embargo con la mejora de la precisión en la determinación de
caminos ópticos, obtenida gracias al interferómetro de Albert Abraham
Michelson con el que se descubrió una anomalía: resultó imposible
demostrar la existencia de un corrimiento del éter requerida por la teoría del
éter estacionario. Esta anomalía fue resuelta por Albert Einstein en 1905
con su teoría especial de la relatividad.

Teorías científicas [editar]


Desde el punto de vista físico, la luz es una onda electromagnética. Según
el modelo utilizado para la luz, se distingue entre las siguientes ramas, por
orden creciente de precisión (cada rama utiliza un modelo simplificado del
empleado por la siguiente):
1. La óptica geométrica: Trata a la luz como un conjunto de rayos que
cumplen el principio de Fermat. Se utiliza en el estudio de la transmisión de
la luz por medios homogéneos (lentes, espejos), la reflexión y la refracción.
1. La óptica ondulatoria: Considera a la luz como una onda plana,
teniendo en cuenta su frecuencia y longitud de onda. Se utiliza para el
estudio de difracción e interferencia.
1. La óptica electromagnética: Considera a la luz como una onda
electromagnética, explicando así la reflectancia y transmitancia, y los
fenómenos de polarización y anisotropía.
1. La óptica cuántica u óptica física: Estudio cuántico de la interacción
entre las ondas electromagnéticas y la materia, en el que la dualidad onda-
corpúsculo desempeña un papel crucial.

You might also like