You are on page 1of 59

Universidad Nacional de La Plata

Facultad de Ingeniería

Laboratorio de Capa Límite y Fluidodinámica


Ambiental - (LACLYFA)

Curso de Postgrado
Medición y Análisis de Características de
Flujos Turbulentos con Técnicas de
Anemometría de Hilo Caliente

LA PLATA – REPUBLICA ARGENTINA


Mayo de 2007
1) Introducción a la Turbulencia
El estudio de los flujos turbulentos es de gran importancia en muy variadas aplicaciones
tecnológicas: ingenierías aeronáutica y naval, ingeniería mecánica y estructural,
fenómenos de flujo interno, transferencia, combustión, etc.
Las particulares características de la estructura turbulenta de un flujo suelen estar
asociadas a fuerzas aerodinámicas que provocan en los objetos inmersos a través de
cambios del patrón de flujo, influenciando la sustentación y resistencia.
Pérdidas de cantidad de movimiento generadas por producción de remolinos y
disipación viscosa son efectos comunes observados en aplicaciones aeronáuticas,
navales, flujos internos, etc.
Si se pretende mejorar u optimizar un dado problema de ingeniería que involucre
turbulencia será preciso entender y controlar al menos al particular conjunto de de
estructuras turbulentas que gobiernan los fenómenos de interés.
El flujo de un fluido puede discurrir de manera ordenada y predecible en los valores
instantáneos de las variables físicas involucradas: la velocidad, densidad, presión,
temperatura, etc.
Si las condiciones iniciales y de contorno permanecen inalteradas en el tiempo las
condiciones de flujo no turbulento aparecerán claramente vinculadas a estas condiciones
iniciales y de contorno siendo también invariables en el tiempo o variando de una
manera totalmente predecible en el tiempo (oscilaciones periódicas).
En contraste los valores instantáneos de las variables de un flujo turbulento de ninguna
manera aparecen dependientes de condiciones iniciales y de contorno.
Dichas variaciones son de carácter impredecible, aleatorio.
Esta imprevisibilidad no es fruto de una carencia de mediciones suficientes.
Por más que se efectúen infinitas mediciones en una ruleta (técnicamente perfecta) estas
no permitirán prever el próximo número a salir.
La aleatoriedad es un comportamiento físico que caracteriza a ciertos sistemas.
Imaginemos un cono perfecto de un material duro colocado sobre una mesa con su
punta apuntando hacia arriba.
Ese cono está en un ambiente perfectamente libre de todo tipo de perturbaciones.
Imaginemos que esa punta ha sido afilada a la perfección.
Si sobre el cono nos desplazamos hacia esa punta perfecta veremos que a medida que
nos acercamos a ella cada vez hay menos moléculas. Llegará un momento en que el filo
sea tan agudo que solo podrán existir allí unas muy pocas moléculas.
Si imaginamos ascender a un filo extremo directamente notaremos la presencia de los
átomos que componen esas moléculas.
Coloquemos en equilibrio sobre ese cono perfecto una esfera de un material muy duro.
Con toda seguridad que esa esfera en equilibrio sobre una nube de átomos se va a caer.
Pero resultará imposible prever el momento de esa caída y el lado para el cual esa esfera
se caerá. Se trata de un fenómeno impredecible.
Los valores instantáneos de las magnitudes turbulentas son impredecibles.
Visualizaciones muestran regiones con continuos cambios en los patrones de flujo
exhibiendo un aparente flujo instantáneo confuso y desordenado.
Algunas denominaciones comúnmente utilizadas en turbulencia como “turbulencia
totalmente desarrollada” requieren de una aclaración.
Una “turbulencia totalmente desarrollada” es la que se puede desarrollar sin
restricciones impuestas.
Restricciones de este tipo serán contornos, fuerzas externas de carácter gravitacional, de
flotabilidad, centrífugas, viscosas, eléctricas, magnéticas, etc.
Si tenemos un canal por el que transcurre el flujo turbulento no podremos considerar
desarrolladas a los remolinos cuyo tamaño sea parecido al del canal (porque le son
impuestas las fuerzas que conducen al fluido por el canal.
Tampoco lo serán los remolinos que se desprenden de una hélice.
Este razonamiento permite decir que ningún flujo turbulento es generalmente totalmente
desarrollado en las escalas correspondientes a las estructuras de gran energía.
Para escalas más pequeñas la turbulencia puede estar “totalmente desarrollada”siempre
y cuando los efectos viscosos no intervengan de manera protagónica.
Cabe hacer notar que para vórtices muy chicos el Re puede llegar a ser tan pequeño que
los efectos viscosos disipadora de energía cinética sean predominantes.
En los experimentos con bajas velocidades con corrientes a través de grillas de alambres
delgados el flujo nunca llega a estar desarrollado porque los vórtices que generan los
alambrecitos son consecuencia de fuerzas de rozamiento pero los vórtices corriente
abajo ya son tan pequeños que con las bajas velocidades implican Re tan bajos que
nuevamente priman fuerzas debidas a efectos viscosos.
Podemos decir que la “turbulencia totalmente desarrollada” puede ocurrir para escalas
menores que las grandes escalas energéticas pero mayores que las pequeñas escalas
disipativas.
Un análisis más meticuloso permite reconocer sin embargo la existencia de ciertos
“tipos de orden” normalmente ocultos en el flujo global.
Por ejemplo en algunos flujos pueden reconocerse remolinos elípticos de eje mayor
vertical que persisten durante un cierto tiempo antes de deformarse o dividirse.
Si bien los valores instantáneos de la velocidad de la corriente de estos remolinos sigue
siendo aleatoria su condición de elipticidad (en este ejemplo) no lo es.
Esa elipticidad indica una preferencia geométrica y dinámica en los procesos de
transporte.
Es un tipo de organización espacial que indica un tipo de orden previsible en el hecho
de que los remolinos (del ejemplo) son elípticos.
Los flujos turbulentos suelen exhibir regiones con movimientos preponderantemente
unidimensionales, y/o bidimensionales y/o generalmente tridimensionales con un
amplio conjunto de muy diferentes escalas espaciales y temporales.
En la década que abarca aproximadamente desde mediados de 1960 hasta mediados de
1980 el conocimiento de la turbulencia fue revolucionado gracias al empleo de
sofisticadas metodologías de análisis de datos experimentales mediante nuevas técnicas
de muestreo condicionado y sofisticadas técnicas de visualización.
Se comprendió que en muchísimos casos la turbulencia que contenía una importante
porción de la energía cinética estaba organizada en diferentes y particulares estructuras
coherentes.
Dicha organización ocurre en remolinos de forma y tamaño muy diversa, en chorros
(jets), porciones delimitadas de fluido de muy baja velocidad (low velocity streaks) o
con muy diversas fluctuaciones de velocidad a lo largo de superficies (sin giros), etc.
Para explicar más conceptualmente este innovador enfoque utilicemos un ejemplo de la
medicina.
Imaginemos un paciente con un profundo desarreglo en su sistema cardiovascular. El
enfoque antiguo (cualitativamente al antiguo enfoque global estadístico de la
turbulencia) se concentraba y limitaba a analizar sus mareos, fatiga, falta de
coordinación, desarreglos de la memoria, alteraciones de carácter, tomarle la
temperatura y la presión.
El enfoque moderno agrega a los procedimientos tradicionales el minucioso estudio de
la fluidodinámica de la sangre por arterias, venas y músculo cardíaco.
Se considerará especialmente la sección libre de los conductos de sangre, su geometría,
las características de eventuales limitaciones del flujo debidas a depósitos calcáreos, o
taponamientos, la forma y movimiento de las válvulas cardíacas, etc.
Una cura debe intentarse restableciendo los patrones de flujo normales a travez de las
modificaciones geométricas locales capaces de gobernar la fluidodinámica (aumentar la
sección de los conductos sanguíneos con stents implantados en lugares críticos, by pass
reemplazando conductos tapados).
El enfoque moderno de la turbulencia se concentra al meticuloso estudio de las muy
diversas estructuras turbulentas.
El presente estudio está orientado a conocer más profundamente la dinámica de flujos
turbulentos y en especial de las estructuras vorticosas inmersas en este flujo.

2) Acerca de la necesidad de visualizar el flujo


La comprensión de las características de un campo de flujo turbulento real precisa por
un lado del análisis global y por el otro una adecuada resolución.
El análisis global sobre una región importante del campo nos permitirá reconocer las
estructuras turbulentas de gran escala.
Una buena resolución nos permitirá describir adecuadamente los movimientos de
pequeña escala.
La enorme cantidad de información necesaria debido a las características aleatorias
fluctuantes en el tiempo de los valores instantáneos de las magnitudes turbulentas
complican el logro de adecuadas resoluciones espaciales y temporales.
Los métodos estadísticos tradicionales tienen la ventaja de ser ampliamente conocidos
pero al reducir una gran cantidad de datos a unos pocos valores representativos de
aspectos del proceso estudiado suelen filtrar comportamientos aislados contenidos en un
usualmente enorme y costoso registro de datos.
La interpretación de fotografías del flujo suele revelar detalles de la estructura
instantánea de la turbulencia.
La necesidad de altas velocidades de procesamiento con enorme capacidad de
almacenamiento de datos es llevada a los límites actuales, lo cual complica en extremo
los aspectos prácticos, en especial los económicos.
Un recurso importante está dado por la visualización.
Procesos de visualización estáticos basadas en imágenes sin movimiento como
fotografías permiten conocer aspectos importantes acerca de la estructura instantánea de
la turbulencia.
Estas imágenes bidimensionales son obviamente como todas las fotografías
proyecciones de estructuras y campos tridimensionales de flujo, por lo que a menudo
resulta muy difícil interpretar la naturaleza de una estructura tridimensional a partir de
una fotografía.
Imaginemos un anillo vorticoso fotografiado de costado tal que se visualice el vértice de
eje circular como dos vértices cilíndricos contrarotatorios cercanos.
Hace falta mucha intuición para deducir que no se trata de un flujo de vórtices
cilíndricos sino la proyección de un anillo vorticoso seccionado por un plano (el de la
foto).
Expertos en interpretación de información compleja interpretan que la habilidad humana
para interpretar grandes cantidades de datos se ve incrementa presentando esos datos en
animaciones del tipo de dibujos animados.
Las características instantáneas de una cierta estructura tridimensional turbulenta
pueden ser dilucidadas haciendo rotar su imagen tridimensional.
Animaciones en el tiempo nos permitirán interiorizarnos de características de la
evolución temporal de una estructura.
Esto es especialmente válido en el estudio de la turbulencia para la cual el poder
contemplar la evolución y los cambios producidos en las estructuras turbulentas durante
los desplazamientos, estiramientos, contracciones, desvíos y rotaciones suministran
rápidamente una información invalorable en cuatro dimensiones.
Cada vez se dispone de mejores posibilidades para crear animaciones a partir de nuevas
metodologías de adquisición y procesamiento de grandes cantidades de datos.

Una de las técnicas empleadas es la visualización volumétrica (volume visualization).


Es una disciplina científica dedicada a la representación, manipulación y presentación
de campos tridimensionales.
La visualización volumétrica es un proceso mediante el cual se proyecta un volumen de
datos tridimensional sobre un plano bidimensional con el propósito de posibilitar la
comprensión de los detalles y estructuras contenidas.
Las primeras aplicaciones de esta técnica ocurrieron en el campo de la medicina,
concretamente interpretación y diagnóstico por imágenes.
Actualmente se la emplea mucho en investigación científica.

3) Modelos de cierre de un punto

En aplicaciones a problemas cotidianos de la práctica de la ingeniería se trata de


encontrar una solución, esto es conocer los valores en cada instante y en cada punto de
las variables del flujo: Velocidad, presión, densidad, temperatura, etc.
Estos comportamientos serán soluciones de las ecuaciones de conservación
normalmente utilizadas en la mecánica de los fluidos.
Lamentablemente hasta el momento no pudieron hallarse soluciones analíticas de este
tipo ni siquiera para los flujos turbulentos más elementales. Las metodologías que
intentan aproximarse a las soluciones mencionadas son de tipo numérico. Siempre
deben ser validadas contrastándolas con la realidad.
Evidencia experimental nos muestra que a medida que aumenta el número de Re,
aumenta más aún la cantidad de diferentes escalas de las estructuras presentes en el
flujo.
Para ilustrar este proceso concentrémonos en el numerador del numero de Re = UL/ν.
Investiguemos que ocurre variando L. Si sometemos un cuerpo muy pequeño (Re chico)
a un flujo, por ejemplo un alfiler solo tendremos un limitado remolinos pequeños de
diferentes tamaños: del tamaño de la cabeza del alfiler, del tamaño del diámetro del
alfiler.
Pero si el cuerpo es muy grande (Re más grande) como un ómnibus por ejemplo
constataremos la presencia de remolinos de muchos diferentes tamaños, desde escalas
del orden de las dimensiones globales del ómnibus, del orden de la sección transversal,
varios tamaños intermedios (remolinos del tamaño de los guardabarros, de los
neumáticos, de las ventanillas, etc., hasta tamaños muy pequeños: del paragolpes, caño
de escape, limpiaparabrisas, etc.
Ahora investiguemos la influencia de la velocidad:
Para velocidad pequeña (Re chico) solo habrá unos pocos tamaños de remolinos en el
fluido. Al ser el Re pequeño rápidamente aparecerán los efectos viscosos, que disiparan
la energía cinética de los remolinos más pequeños.
A medida que aumenta la velocidad (Re aumenta) también aumentarán la diversidad de
los tamaños de remolino. En particular con gran velocidad los remolinos pequeños aún
no disiparán su energía porque estarán animados por una velocidad tal que los efectos
inerciales todavía serán importantes. Dichos remolinos se dividirán en remolinos mas
pequeños y estos a su vez seguirán dividiéndose hasta que el Re basado en el tamaño de
remolino (y la velocidad) sea tan pequeño para que los efectos viscosos desencadenen la
disipación.
El flujo turbulento alrededor de un avión posee tantas escalas diferentes que su
descripción completa aún no es posible.
Esta descripción solo se basó en las escalas pero dejó de lado la forma, el patrón de flujo
del remolino. Un remolino cilíndrico se comportará diferente que uno cónico, o elíptico
o esférico, o un anillo vorticoso, etc. etc.
Un análisis físico mas completo no puede descuidar esa forma.

Buscando simplificaciones es frecuente intentar soluciones considerando únicamente


una cantidad limitada de escalas.
El problema en una determinada aplicación es saber cuales remolinos es preciso
considerar y cuales se pueden desechar.
Es común el intentar encontrar una solución basada en modelos mas simples que parten
de las ecuaciones de Conservación de masa y de Navier Stockes desarrolladas a partir
de las conocidas hipótesis de Reynolds, que se estudian en los cursos de grado.
En ella las magnitudes turbulentas instantáneas se consideran producto de un valor
medio mas un valor fluctuante.

U i = U i + ui'
P = P + p'
ρ = ρ + ρ'
Asumiendo hipótesis de incompresibilidad resultan las ecuaciones

∂U k
=0
∂xk
 ∂U i ∂U i  ∂P ∂  ∂U i 
ρ +Uk =− +  µ − ρ ui k  + ρ gi
u
 ∂t ∂xk  ∂xi ∂xk  ∂xk 
donde se aprecian los términos del movimiento medio y el término del movimiento
fluctuante. Este es un sistema de 4 ecuaciones para 10 incógnitas, U i , P y − ρ ui u j . Este
último término, conocido como el tensor de tensiones de Reynolds, como es simétrico,
tiene solo 6 componentes independientes.
Recuérdese que la hipótesis de incompresibilidad asumida en el desarrollo de estas
ecuaciones implica ρ = constante.
Con fines didácticos imaginemos un flujo bidimensional.
Intervendrán 4 ecuaciones: la ecuación de conservación de masa, las dos (por ser
bidimensional) de cantidad de movimiento y la ecuación de conservación de energía.
Las incógnitas serán U1, U2, P , ∂/∂x1(u1u1) y ∂/∂x2/(u1u2) y ∂/∂x1(u2u1) y ∂/∂x2(u2u2).
Es fácil ver que tenemos más incógnitas que ecuaciones.
Cuando hay más incógnitas que ecuaciones hablamos de un problema de cierre (closure)
Para poder encontrar una solución, aunque sea a través de metodologías numéricas,
solemos hacer suposiciones normalmente denominadas “modelado” (closure modelling)
acerca del comportamiento de las correlaciones de los valores fluctuantes.
La teoría más simple, desarrollada en los cursos de grado, es la de la longitud de mezcla
de Prandtl para la cual solo nos concentramos al termino u1u2 presuponiendo que su
comportamiento solo depende del gradiente de la distribución vertical de velocidades
medias.
Este tipo de metodologías define una llamada viscosidad de remolino (eddy viscosity)
que nada tiene que ver con la viscosidad física real.
Como la realidad es considerablemente más compleja los resultados se ajustan a ella
mediante la utilización de una serie de coeficientes empíricos obtenidos de
experimentos.
Las aplicaciones reflejan con diverso grado de aproximación características medias de
los perfiles de velocidad y el modo de expansión de movimientos turbulentos simples
como capas de corte, capas de mezcla y estelas de placas planas.
Técnicas más desarrolladas de este tipo consideran técnicas de modelado mas complejo.
Un ejemplo de este tipo son los modelos del tipo k, ε
Estas útiles metodologías pueden ser bastante eficientes en cálculos de ingeniería
usuales contribuyendo a desarrollar soluciones rápidas y practicas en casos como el
diseño de perfiles alares o intercambiadores de calor de plantas nucleares por ejemplo.
Sin embargo no describen los aspectos vinculados a la física de las estructuras
organizadas fallando en los casos en que el comportamiento fluidodinámico dependa
fuertemente de ellas.
Por ejemplo hay muchos casos que los principales fenómenos de transporte de cantidad
de movimiento y masa en un fluido turbulento no son gobernados por gradientes de
velocidades medias sino por el paso de remolinos turbulentos que aparecen de cuando
en cuando, en forma impredecible.

En el presente curso concentraremos nuestra atención a las estructuras coherentes.

4) Acerca del concepto de estabilidad


En un ensayo de Túnel de Viento que llamaremos A el patrón de flujo con el cual el
fluido se nueve alrededor de una lamina plana puede corresponder a una corriente
laminar aproximadamente rectilínea y uniforme.
Otro patrón posible, llamémoslo B podría ser uno en el que aparezcan remolinos en una
cierta región alrededor de la lámina.
Ambos casos son diferentes soluciones de Navier Stokes, lo cual se expresa por los
diferentes patrones de flujo.
Es frecuente encontrar que si perturbamos la solución A con vibraciones, sonido,
delgados alambrecitos adecuadamente colocados, u otros medios se establezca otra
solución, digamos la B.
En ese caso podrá decirse que hemos desestabilizado la solución A.
Obsérvese que hablamos de perturbaciones, es decir pequeños cambios.
Si estos pequeños cambios lograron efectuar el gran cambio en el patrón de flujo
seguramente existió algún tipo de amplificación de esas perturbaciones haciéndolas
tomar valores tan grandes hasta que se produjo el cambio de patrón.
En algunos casos para un rango particular de perturbaciones el crecimiento de esas
perturbaciones resulta exponencial y por lo tanto el flujo será inestabilizado aún para
perturbaciones extremadamente pequeñas.
Un comportamiento semejante implica la existencia de un proceso de realimentación
positiva.
Eso ocurre cuando situamos un micrófono muy cerca del parlante que reproduce
amplificado lo que entró por el micrófono. La consecuencia que todos alguna vez
escuchamos es un sonido muy agudo y molesto en una limitada banda de frecuencias.
Esto ocurre pues la realimentación positiva no fue la misma en todas las frecuencias.
Algunas se amplificaron más y resultaron en ese sonido silbante.
En las perturbaciones capaces de desestabilizar patrones de flujo ocurre algo semejante:
importa su amplitud pero también su frecuencia.
Muchos flujos resultan inestables para un cierto tipo e intensidad de perturbación, para
un cierto rango de parámetros de perturbación.
Hay otros casos en que aún con perturbaciones grandes el patrón de flujo permanece sin
cambios. No hubo desestabilización.
Pero por ahí, si introducimos vibraciones de una cierta frecuencia o alambrecitos de una
cierta forma y tamaño la inestabilización ocurre.
En otros casos un flujo será estable para perturbaciones que no excedan un cierto límite,
siendo inestable para perturbaciones mayores que ese límite.
En esos casos se habla de bifurcación.
Un proceso de inestabilización clásico y bastante estudiado es el de la transición de flujo
laminar a turbulento.
Pero existen infinidad de casos turbulentos en los cuales el patrón de flujo cambia a otro
patrón de flujo turbulento debido a la existencia de perturbaciones adecuadas.
Hay casos en que un dado patrón de flujo provoca perturbaciones que lo hacen cambiar
a otro patrón de flujo y este provoca perturbaciones que nuevamente cambian el patrón
de flujo y así siguiendo.
Así por ejemplo en presencia de infinitesimales perturbaciones un flujo laminar puede
generar ondas bidimensionales de Tollmien Schlichting las que se amplifican corriente
abajo perturbando el flujo de manera creciente volviéndose tridimensionales.
Los movimientos comienzan a tener un carácter tridimensional y finalmente
desembocan en un flujo turbulento.
Este carácter turbulento no se manifiesta inicialmente en forma uniforme en el fluido
sino que parece nacer en numerosas pequeñas regiones claramente visibles distribuidas
en el fluido.
Esas regiones difunden su turbulencia al entorno hasta lograr que todo el fluido se
convierta en turbulento.
Por otra parte un patrón de flujo turbulento con digamos remolinos cilíndricos puede
inestabilizarse y transformarse en otro patrón turbulento con remolinos cónicos.

5) Acerca de flujos organizados y (aparentemente) desorganizados


Consideremos a modo de ejemplo la evolución de las capas de mezcla generadas a partir
del borde de fuga de una lámina plana muy delgada paralela a una corriente laminar
incidente, ubicada en el medio del campo de flujo. Examinaremos para los siguientes
dos casos la evolución corriente abajo del flujo de las capas de mezcla:
1) Una lámina muy corta.
En ese caso las capas limite laminares desarrolladas a lo largo de las caras superior e
inferior de la lámina llegarán muy delgadas al borde de fuga, pues no tuvieron un
espacio corriente abajo para crecer mucho.

Las capas de mezcla se generan a partir de una condición laminar (con pequeñas
perturbaciones de tipo aleatorio inductoras de procesos no periódicos de formación de
vórtices).
Podemos interpretar que esas perturbaciones hacen oscilar a las dos capas límite que se
fusionan, deforman y quiebran enrollándose en estructuras vorticosas.
Se apreciará la formación predominante de grandes e intensos (gran contenido de
energía cinética) vórtices (estructuras organizadas).
Estos vórtices inicialmente bidimensionales evolucionan corriente abajo perdiendo su
organización (se van desordenando, desdibujando, es más difícil distinguirlos)
adquiriendo paulatinamente características tridimensionales.

2) Una lámina muy larga.


Las dos capas límite tuvieron tiempo y espacio para volverse turbulentas exhibiendo un
considerable espesor al llegar al borde de fuga. A partir de esta condición altamente
perturbada (en relación al caso anterior) se generarán estructuras vorticosas bastante
desdibujadas, difíciles de distinguir.
Puede verse que si bien las estructuras organizadas pueden ser identificadas en este
caso particular ya no constituyen un componente dominante del flujo.
Puede apreciarse que flujos de condiciones bastante similares puede presentar muy
diferentes relaciones entre lo que llamamos flujo organizado y flujo (aparentemente) no
organizado.

6) Acerca de estructuras coherentes

Existe actualmente el consenso acerca de que la existencia de las estructuras coherentes


es la causa fundamental de fallas en las predicciones realizadas mediante las teorías
tradicionales.
Un ejemplo es la mencionada falla de teorías basadas en el gradiente de velocidades
medias para describir la turbulencia en la estela de cuerpos porosos con distribuciones
de velocidad media con máximos secundarios.
Estructuras turbulentas organizadas como remolinos suelen influenciar de manera
decisiva los procesos de transporte a través de su capacidad de establecer la trayectoria a
lo largo de la cual importantes volúmenes de fluido son transportados. (McWilliams and
Weiss, 1994; Babiano, et.al., 1994).
En una forma más general una estructura coherente podría definirse como una región
del espacio de características aleatorias en sus variables, la cual durante un cierto tiempo
exhibe cierto grado de organización en alguna de las propiedades del flujo; velocidad,
vorticidad, presión, densidad temperatura, entalpía, etc.
Al hablar de organización queremos expresar que lo que sucede en un instante en un
punto de la región está ligado a lo que sucede en otros tiempos y puntos de esa región.
Una estructura coherente se mueve exhibiendo un cierto grado de organización.
Es como si un dado volumen de una sustancia plástica animada de un temblequeo
aleatorio fuera transportado por una corriente manteniendo su cohesión.
Ese volumen podrá rotar (entonces hablaremos de estructura vorticosa coherente). Pero
ese volumen también podrá deformarse, estirarse, contraerse, retorcerse, calentarse y
enfriarse.
El transporte de calor que influenciará la viscosidad, la densidad y la presión y a través
de ellas al movimiento dependerá de la geometría y dinámica de los movimientos
internos y globales y relativos.
En esos casos estaremos en presencia de fenómenos de creciente complicación que no
se enfocaran profundamente en el presente análisis.
Estructuras vorticosas como remolinos por ejemplo suelen encontrarse en muchísimos
fluidos en movimiento.
A veces son claramente visibles, bastante grandes y bien definidos, a veces es mas
difícil reconocerlos ya sea por su tamaño pequeño, sus limites no claramente visibles y a
veces es prácticamente imposible distinguirlos a simple vista.
Parece mentira que en la mecánica de fluidos moderna aún no se haya encontrado una
definición clara y completa de lo que es un vórtice en donde comienza y en donde
termina.(Jeong & Hussain 1995).
Las definiciones basadas en la mera existencia de zonas con vorticidad tampoco es
precisa pues no pueden distinguir entre una zona de flujo no rotante con altas tensiones
de corta de una región de fluido rotante.
Asimismo la definición de lo que es una estructura coherente es aún ambigua.
Basados en la observación de la realidad, en que nos resulta habitual ver vórtices en
seno de flujos turbulentos, en que prácticamente la los flujos turbulentos encontrados en
nuestro entorno son vorticosos o en su totalidad o al menos en ciertas regiones del
espacio.
Aún no ha sido posible encontrar un claro límite entre estas estructuras vorticosas y el
flujo turbulento que las rodea.
Aplicación de los aún limitados conocimientos actuales es frecuente intentar la siguiente
definición de estructura vorticosa coherente:

1) Es una región del espacio en donde la verticidad se concentra en una forma


particular que provoca que el flujo del fluido describa trayectorias que se
enrollen alrededor de ella.
2) Siguiendo esa región mientras es transportada observamos que durante un
tiempo superior al que tarda el fluido en girar alrededor de la región analizada
esta
3) Al cabo del tiempo estas estructuras evolucionan pudiendo cambiar su forma (de
vórtice cilíndrico a elíptico por ejemplo) dividiéndose en estructuras más
pequeñas o fusionándose con estructuras vecinas formando vórtices más grandes
o desintegrándose.
4) Estas estructuras vorticosas suelen aparecer en el flujo de una manera
impredecible.

Este último punto 4 es conceptualmente muy importante.


Así por ejemplo los vórtices cónicos generados por un ala delta volando a gran ángulo
de ataque presentan valores instantáneos de velocidad aleatorios (y por lo tanto
turbulentos) no pueden ser considerados estructuras coherentes pues son globalmente
predecibles: se sabe cuando donde y como van a aparecer estos remolinos cónicos.
Para ilustrar aún más este campo de estudio no resuelto es interesante citar dos
definiciones muy ingeniosas:
La primera mas general y la segunda mas restrictiva.
La primera, desarrollada por Robinson (1991), establece que:

“un movimiento coherente está definido como una región tridimensional en el flujo,
sobre la cual por lo menos una variable fundamental del flujo (componente de
velocidad, densidad, temperatura, etc.) presenta una significativa correlación consigo
misma o con otra variable en un rango espacial/temporal bastante mayor que las
escalas mas pequeñas del flujo”.

La segunda, algo mas restrictiva, se debe a Hussain (1986) y establece que:

“Una estructura coherente es una masa conectada de fluído turbulento, con vorticidad
instantáneamente correlacionada en toda su extensión espacial”.

Nótese que estas definiciones no se basan en el movimiento de giro del fluido el que
puede describir cualquier tipo de movimiento.

En otras palabras, mas allá de la aleatoriedad, la vorticidad tridimensional que


caracteriza la turbulencia presenta una componente de gran escala que es
instantáneamente coherente sobre la extensión espacial de la estructura organizada. La
aparente aleatoriedad del campo de flujo se debe, en su mayor parte, al tamaño aleatorio
e intensidad de los diferentes tipos de estructuras organizadas que integran el flujo.
Movimientos organizados en estelas de obstáculos son distintos de aquellos que se
encuentran en la capa límite.
En el caso de un jet que emerge de una tobera, con una capa límite laminar delgada en
su interior, las estructuras coherentes son fáciles de reconocer.
En cambio, si el jet tiene una capa límite gruesa turbulenta, las estructuras coherentes
son muy difíciles de detectar.
La proporción de estructuras coherentes decrece, en general, con el aumento del nivel
de perturbaciones presentes en el flujo incidente.
Las estructuras coherentes resultan, en general, más fáciles de ver y detectar en flujos
libres que en flujos de pared.
El desafío de los investigadores es la identificación de estructuras coherentes
enmascaradas en un mar de flujo aleatorio, cuando dicha estructura resulta apenas
reconocida o forma parte de una compleja señal de velocidad, temperatura o presión.
Para complicar mas el panorama, las estructuras coherentes cambian de un tipo a otro de
flujo. También para un mismo flujo, el cambio de condiciones iniciales y de contorno
puede provocar el cambio de las estructuras coherentes.
Imaginémonos dos cuerpos muy diferentes atravesando el fluido: un cilindro i una placa
plana.
En la región de la estela inmediatamente detrás del cilindro se podrá establecer la
conocida calle de vórtices de Von Karman. A medida que se avanza corriente abajo
estos vórtices se van desdibujando, volviéndose más confusos y difíciles de distinguir,
hasta que a mucha distancia corriente abajo veremos un campo turbulento bastante
distinto.
Para la placa sucederá algo parecido.
Los vórtices de la parte inicial de la estela iran transmutando corriente abajo en otro
sistema turbulento que cada vez será mas semejante al del cilindro.
Esto sugiere la existencia de un patrón universal de turbulencia.
Los remolinos más grandes tienen el orden de escala del flujo y, en consecuencia, no
pueden ser universales.
Un flujo turbulento exhibe un rango sumamente amplio de estructuras de diferentes
escalas espaciales y temporales.
Las escalas espaciales se refieren usualmente a los tamaños de los vórtices presentes.
Las escalas más grandes están normalmente limitadas por las dimensiones geométricas
de la región en donde transcurre el flujo: puede ser el diámetro de un caño, o longitudes
relacionadas con las dimensiones de un túnel de viento o la profundidad de agua del
flujo en un canal.

Figura 1

La figura 1 ilustra una vista de costado de una capa de mezcla entre dos fluidos de igual
densidad fluyendo en forma paralela de izquierda a derecha.
La mezcla comienza a la izquierda en donde se termina la lámina horizontal que
separaba ambos flujos.
La relación de velocidades entre el fluido de arriba y el de abajo era de U1/U2 = 0.36
En la capa de mezcla turbulenta se aprecia una estructura cuasi-periódica de gran escala.

Observaciones experimentales muestran muchos casos en los cuales los remolinos más
grandes transfieren la mayor parte de su energía al cabo de unos pocos giros.
Esto permite inferir que en esos casos el flujo de energía transferida sea proporcional a
la energía de una estructura vorticosa grande multiplicada por su velocidad de giro
(vueltas/segundo).
Es preciso destacar que existen otros volúmenes de fluido que a pesar de no rotar
exhiben un movimiento organizado como por ejemplo chorros de alta o baja velocidad.
Entre dos vórtices rotando en direcciones opuestas pueden encontrarse a veces chorros
(jets) de este tipo.
El Laboratorio de Capa Límite ha detectado interesantes estructuras de este tipo a partir
de mediciones de turbulencia en el seno de bosques realizadas por el Instituto de
Bioclimatología de la Universidad Georg Augustus de Goettingen, Alemania.
Otros investigadores como Raupach et al. [1996] y Finnigan [2000] mencionaron
comportamientos dinámicos atribuibles a estructuras no rotantes.
Estructuras de este tipo pueden ser concebidas como delimitados volúmenes de fluido
animados de movimientos de vaivén.
Figura 2 Estructura turbulenta en un bosque

La función que cumplen estas estructuras en el fluido es muy diversa: algunas gobiernan
prácticamente en forma dominante los procesos de distribuir ciertas propiedades por
todo el fluido como quien extiende capas de pintura, esta distribución puede ser pareja o
despareja con acumulaciones en ciertos sitios y escasez en otros. Otras estructuras
favorecen, regulan, limitan o impiden la difusión molecular de lo que las anteriores
estructuras distribuyeron.
En muchos experimentos puede mejorarse la visibilidad de las estructuras coherentes
existentes en ciertas regiones previamente seleccionadas por las características del flujo,
restando la velocidad promediada del conjunto (ensemble averaged velocity) de los
vectores de la velocidad instantánea.
A fin de explicitar el rol de estas estructuras en un flujo real construyamos el siguiente
escenario para un típico problema fluidodinámico:
Imaginemos una corriente turbulenta en un túnel de viento, fluyendo de izquierda a
derecha.
Estudiaremos el flujo a lo largo de una cierta sección del túnel delimitada por una
superficie transversal de entrada al ámbito de estudio y otra de salida de la corriente.
Podremos establecer una corriente constante en el tiempo en lo que hace a sus valores
estadísticos: velocidad media, perfil de velocidades medias, perfil de intensidad de
turbulencia, etc.
Sin embargo no debemos olvidar que en sus valores instantáneos de presión y velocidad
por ejemplo, la corriente no tiene nada de constante, aparecerá la conocida fluctuación
aleatoria impredecible que caracteriza a los flujos turbulentos.
Las propiedades estadísticas del flujo variaran rápidamente de arriba hacia abajo y de
una pared vertical del túnel hacia la otra, pero variaran muy poco en el sentido del
movimiento desde la sección de entrada a la de salida.
Por lo tanto la escala espacial, la longitud a lo largo de la cual se producen cambios
característicos será pequeña en sentido vertical y lateral pero será muy grande en el
sentido del movimiento medio.
Si se intenta una descripción mediante metodologías de semejanza o similaridad
clásicos de podrá decir que la estructura del flujo permanece aproximadamente
semejante a lo largo de todas las secciones desde que entra hasta que sale del ámbito de
estudio considerado.
Un vórtice que penetra como vórtice elíptico al campo de estudio debería salir de la
sección de estudio como vórtice elíptico.
Este modo de pensar clásico era el usualmente aceptado por la comunidad fluido y
aerodinámica hasta hace algunos años. Actualmente la concepción es diferente.
Sabemos que el flujo turbulento contiene estructuras vorticosas.
Sigamos a estas estructuras con una concepción Lagrangiana, viendo lo que pasa
durante su movimiento. Estas estructuras evolucionaran a lo largo de su paso por la
sección del túnel.
Entraran jóvenes, algunas nacerán en el camino, crecerán cambiaran su tamaño y forma
curvándose, estirándose, contrayéndose y retorciéndose.
Interactuaran transfiriendo entre si energía cinética, extraerán y entregaran energía al
entorno con o sin estructuras que en parte las transporta, algunas se amalgarán con
estructuras vecinas mientras eyectan durante ese proceso filamentos vorticosos, otras se
subdividirán en estructuras mas pequeñas, otras virtualmente desaparecerán.
Todas ellas dejarán la sección de estudio del túnel mucho más viejas, cambiadas y
diferentes de cuando entraron.
Si dos vórtices coherentes de eje paralelo con igual sentido de giro, se encuentran
suficientemente cercanos inducirán un campo de velocidades que tendera a hacer rotar
el uno alrededor del otro.
Este proceso puede concluir en una fusión de ambos vórtices.
Si los vòrtices son opuestos las velocidades mutuas inducidas serán del mismo signo y
los dos vórtices se moverán conjuntamente formando un dipolo.
Dipolos de este tipo se han encontrado en experimentos y simulaciones numéricas como
por ejemplo los de Couder y Basdevant 1986 y las simulaciones compresibles de
Fouillet 1992.

Cuando dos vórtices de igual signo inmersos en una corriente horizontal están alineados
verticalmente algunas veces pueden seguir verticalmente alineados en la corriente.
La estabilidad de vórtices alineados verticalmente en presencia de tensiones de corte
verticales aún permanece poco clara.
El análisis descrito es esencialmente Lagrangiano involucrando una dada agrupación de
materia reportando la historia de los cambios observados durante su movimiento.
En los trabajos usuales de laboratorio solemos preferir análisis de tipo Euleriano,
concentrando nuestra atención (e instrumentos) a un punto o una dada región fija en el
espacio, identificada a partir de sus coordenadas, bañada por la corriente que va
fluyendo a través de la región analizada.
En un cierto instante el estado vigente en el espacio de fase de un punto aislado puede
extenderse a todos los puntos de una cierta región de interés.
A medida que el movimiento transcurre su solución describe una trayectoria en un
diagrama de fase.
Cada punto de este espacio de fase corresponde a un nuevo campo de velocidades en el
espacio físico real.
Relaciones explícitas entre el espacio físico y el espacio de fase son frecuentemente
definidas por descomposiciones de tipo modal.
De acuerdo a esta concepción el estado inicial estará determinado a partir de las
condiciones vigentes en toda la región considerada en lugar de concentrarse a las
condiciones vigentes en la sección por donde entra el flujo según la concepción
Langragiana.

7) Interacción de vórtices con cuerpos


La interacción entre estructuras vorticosas y aeroplanos, vehículos terrestres y anfibios,
estructuras, vegetación, animales y personas constituye un importante y actual tema de
turbulencia.
Dicha interacción suele provocar fuerzas aerodinámicas de gran magnitud cuyas bruscas
variaciones generan complejos problemas entre los que se destacan:
1) Inducción de sustentaciones y resistencias extremas y fluctuantes
2) Inducción de bruscas cuplas de fuerzas.
2) Inducción o postergación de pérdidas de sustentación.
3) Estados de carga estructural extrema y fluctuante.
4) Inducción de fenómenos aeroelásticos.
4) Generación de vibraciones, ruido y resonancias.
5) Pérdida de control de aviones y vehículos terrestres y marinos

8) Acerca de promediaciones
Utilizamos habitualmente diferentes tipos de promediaciones: temporales, espaciales, de
fase, de ensemble (o conjunto) etc.
Desde un punto de vista teórico la promediación de ensemble es la más simple.
Demos un ejemplo de esta promediación:
Repitamos un dado experimento muchas veces bajo las mismas condiciones
Imaginemos un túnel de viento vertical que genera un flujo que presenta turbulencia con
una excelente homogeneidad horizontal.
Periódicamente desde un mismo punto, en idénticas condiciones se inyecta en esta
sección una partícula la cual es inmediatamente arrastrada por el movimiento mientras
que sus diferentes posiciones a lo largo del tiempo son registradas por fotografías
tomadas rápidamente una tras otra.
Cada fotografía describe una historia del movimiento de la partícula y el conjunto de
fotografías define un ensemble.
Serán necesarios alrededor de mil de esos experimentos para que consideraciones
estadísticas de segundo orden estén dentro del 10%.
Premediaciones temporales y espaciales son representativas de un dado proceso
únicamente si las magnitudes a ser promediadas son estadísticamente estacionarias o
homogéneas.
Así por ejemplo para justificar el empleo de una promediación temporal debe ser
imposible establecer la hora a partir de los datos estadísticos.
Análogas consideraciones son válidas para promediaciones espaciales en cualquier
dirección.
Una promediación espacial puede ser efectuada según una, dos o tres direcciones, en
cuyo caso la magnitud a ser promediada debe ser homogénea en una, dos o tres
dimensiones.
En la realidad ninguna magnitud es totalmente estacionaria estadísticamente o
completamente homogénea. Carece de sentido concebir intervalos de premediación
infinitos o demasiado extensos con respecto a ciertas escalas del problema a ser
analizado.
Esta situación define un problema de dos variables en los casos reales: Por ejemplo en
una premediación temporal existirán dos escalas características: la escala temporal que
nos define el lapso de tiempo durante el cual debemos promediar para describir el
fenómeno analizado y una escala que define las características de inestacionariedad del
proceso.
La primera debería ser pequeña respecto de la segunda para una descripción
satisfactoria.
Por ejemplo si deseamos medir la temperatura del mediodía debemos promediar durante
un tiempo que no incorpore las temperaturas mas bajas de la mañana ni las temperaturas
crecientes de la tarde.
Otro ejemplo sería el de la densidad.
Solemos hablar de la densidad en un punto, pero la densidad es la cantidad de masa
contenida en un cierto volumen.
Consideremos analizar la cantidad de masa contenida en un volumen extremadamente
pequeño, del orden del camino libre entre moléculas. Imaginamos al volumen como
permeable al flujo, como si fuese una jaula de canarios, colocada en un lugar fijo del
campo por el cual circula el fluido.
Se apreciará que a veces este volumen será atravesado por algunas moléculas, otras
veces no habrá dentro de ese volumen molécula alguna.
La aplicación de la hipótesis de continuo fuerza a considerar un volumen
suficientemente grande (de lados mucho más grandes que el libre camino medio entre
moléculas) Con ello evitaremos las antedichas fluctuaciones extremas pues siempre
habrá una importante cantidad de moléculas atravesando ese volumen.
No obtendremos la densidad en un punto pero si la densidad vigente en una cierta
región que debe ser suficientemente pequeña como para permitir, en forma aproximada,
análisis de tipo cuasi diferencial.
No nos olvidemos que las ecuaciones de movimiento empleadas son ecuaciones
diferenciales y que restringimos su aplicación exclusivamente a aquellos casos en que se
cumpla la condición de continuo.
El aire que nos rodea contiene una infinidad de moléculas.
Sin embargo para conocer la velocidad del viento no es preciso considerar cada una de
las moléculas de ese entorno atmosférico.

9) Estructuras cercanas a paredes


En las cercanías de paredes bañadas por flujos turbulentos se observan súbitos estallidos
(bursting) de energía cinética cuyos rasgos generales más evidentes fueran descritos
hace muchos años en los ya clásicos trabajos de Kline et al.(1967), y Inés (1975).
Una interpretación moderna más completa de este proceso de estallidos a partir de
consideraciones de la particular estructura de la turbulencia proviene de datos
experimentales y simulaciones numéricas (Robinson 1991):
Consideremos una región cercana a una pared a lo largo de la cual fluye una corriente
turbulenta.
En la vecindad de la pared se forman una serie de zonas angostas, alargadas e
interrumpidas en las cuales se aprecia fluído mucho más lento que el del entorno.
Estas angostas regiones alargadas conocidas como low velocity streaks están orientadas
según la dirección de la velocidad media de la corriente que las rodea.
El origen de estas zonas angostas de baja velocidad aún no es claro, aunque se presume
que mecanismos de frenado viscoso propios de la imposición de la condición de no
deslizamiento de la pared cercana es parte del proceso.
Jimenez & Pinelli, (1999) Demostraron como estas low velocity streaks eran
imprescindibles para iniciar el proceso de formación de las estructuras vorticosas que
estamos analizando.

El proceso de estallido comienza cuando ráfagas laterales (propias de la naturaleza


aleatoria del flujo) inciden lateralmente sobre esas regiones a las que ven como cuerpos
produciendo estelas que se enrollan detrás de estos low velocity streaks .
Cuando las ráfagas cambian de dirección se genera otro vórtice semejante al anterior
pero de sentido opuesto del otro lado del low velocity streak.
De esta manera cada low velocity streak suele estar flanqueado por dos vórtices
contrarotatorios que inducen un campo de velocidades que inestabiliza y tiende a alejar
de la pared, al low velocity streak.
Este proceso culmina con la generación de conformaciones vorticosas en forma de U
denominados vórtices horquilla (hairpin vértices).
El ascenso de los low velocity streaks va acompañado por la elevación de los vórtices
contiguos los cuales se curvan alejándose de la pared.

Se ha encontrado que ráfagas en el sentido de la corriente generan patrones de vórtices


horquilla en donde la parte curva de la U permanece cercana a la pared.
En cambio para ráfagas laterales se generan patrones en donde la parte curva de la U
permanece vecina a la pared mientras que los dos brazos de la U se elevan hacia el seno
del flujo.

La intensificación de vorticidad por estiramiento de vórtices y la acción del campo de


velocidades entre los dos semivórtices de una horquilla acelera el fluido entre los brazos
de la horquilla en la dirección de rotación bombeando fluido vecino a la pared hacía el
seno de la corriente.
El fluido así bombeado suele fluir como un chorro de baja velocidad dirigido en sentido
contrario al de la pared.
Este proceso es normalmente conocido como eyección.
Satisfaciendo la ecuación de conservación de masa fluido del entorno confluye
lateralmente hacía la zona donde se produjo la eyección compensando la pérdida de
masa producida por la eyección.
Este proceso es conocido como barrido (sweep)
Estas ráfagas laterales interaccionan con los low velocity streaks generando nuevos
vórtices y repitiendo el proceso anterior.
La opinión actual acerca de la turbulencia en las cercanías de paredes (ver el repaso de
información al respecto de Robinson (1991)) considera que el flujo está dominado por
procesos de sweeps y ejections que aparecen en forma aleatoria pero se suceden unos a
otros.
Tampoco olvidemos que una conformación vorticosa fundamental evidenciada en
muchos experimentos físicos y cfd es la de vórtices horquilla.

Observación experimental y animaciones cfd del flujo turbulento en las cercanías de


paredes confirman el comportamiento aleatorio pero frecuente de ciclos de sweeps y
ejections.
La posibilidad de estudiar estos flujos considerando fundamentalmente las estructuras
vorticosas explicitadas fue expuesta por Jimenez & Simens, (2001)

Figura 3 Hairpin vortex desarrollado a partir de perturbaciones en el sentido de la


corriente.

Figura 4 Hairpin vortex desarrollado por perturbaciones transversales


Ilustración de low velocity streaks extraida de J. Jimenez and A. Pinelli

10) Acerca del Control de la Turbulencia


Sabemos ya que los fenómenos de transporte de muchísimos flujos turbulentos son
gobernados por particulares estructuras turbulentas.
Estas estructuras son sensibles a perturbaciones específicas que las hacen aparecer,
desaparecer, crecer, reducirse, intensificarse, atenuarse, deformarse, fusionarse o
dividirse.
Ello indujo a pensar en formas de control de la turbulencia.
Influenciando uno o algunos grupos de estructuras turbulentas podríamos controlar
diversos fenómenos de transporte.
Algunas aplicaciones ingenieriles del control de turbulencia:

1) Aumentar, disminuir y controlar la sustentación.


2) Aumentar, disminuir y controlar la resistencia.
3) Adelantar, retrasar o controlar procesos de transición laminar turbulenta.
4) Aumentar, disminuir, suprimir y controlar la energía turbulenta.
5) Evitar, provocar o controlar procesos de separación.
6) Controlar procesos de repegado (reattachment).
7) Aumentar, disminuir y controlar procesos de transporte y mezcla de masa,
cantidad de movimiento y energía.
8) Disminuir y controlar ruido
9) Disminuir y controlar cargas aerodinámicas en estructuras y vehículos

Muchos de estos objetivos pueden lograrse en forma simple pero el diseño de


dispositivos simples y económicos que permitan satisfacer la mayoría de los puntos
expuestos sigue siendo un desafío.
La solución de esta problemática está en la generación y control de una o varias
estructuras turbulentas particularmente favorables a una dada aplicación tecnológica.

Se ha encontrado que las características y el comportamiento de las estructuras


coherentes son muy diferentes para:

a) Capas de corte libres


b) Flujo influenciado por la cercanía de paredes.

Un ejemplo de b) es el que fluye alrededor de las superficies externas de un avión,


submarino, tren de alta velocidad, autos de competición, etc.
Estos flujos pueden ser manipulados para postergar la transición laminar-turbulenta,
evitar o postergar procesos de separación, aumentar la sustentación, disminuirla (para
ajustar una trayectoria de aterrizaje), modularla (para que un avión no se sacuda tanto al
pasar por un campo turbulento, reducción de resistencia de piel, reducción de resistencia
de presiones (influenciando separación, desvíos de flujo, resistencia inducida,
resistencia de onda), aumentar la turbulencia, mejorar procesos de transferencia de calor
y limitar o suprimir ruido.
Conviene dar un ejemplo:
Imaginemos el ala de un avión. Si la capa límite fuese laminar alrededor de todo el ala
la resistencia de piel sería baja, hasta un orden de magnitud menor que en el caso
turbulento.
.
Pero recordemos que una capa límite laminar solo puede resistir muy moderados
gradientes adversos de presión sin que ocurran separaciones del flujo.
Si aumentamos el ángulo de ataque para obtener mayor sustentación rápidamente se
manifestará el proceso pérdida de sustentación y aumento de la resistencia de forma..
Si en cambio el flujo en la capa límite fuese turbulento la resistencia de piel sería
muchísimo mayor pero la sustentación posible sería mucho mayor pues la turbulencia
permite que se energice el flujo cercano a la superficie alar, postergando fenómenos de
separación.
Postergar un proceso de transición laminar-turbulenta ayuda a mantener baja la
resistencia de piel y también el ruido.
Cuando una capa límite se separa lo hace transformándose en una capa de corte la cual
aún a números de Reynolds moderados se vuelve turbulenta.
La mayor transferencia de cantidad de movimiento debida a la turbulencia puede
provocar la re-adherencia del flujo.
Dentro de la zona inicialmente separada y luego readherida se forma la llamada burbuja
laminar de separación.
Para mayores ángulos de ataque esa burbuja puede distorsionarse formándose una
burbuja muy alargada con re-adherencia o puede también romperse, con la consiguiente
separación total del flujo.
En esos casos la resistencia de forma aumenta y la pendiente de la curva de sustentación
disminuye.
Este ejemplo ilustra como siempre es necesario asumir un compromiso. Para lograr un
efecto llamémoslo favorable debemos estar dispuestos a soportar otros efectos
desfavorables.
Métodos de control sin compromisos, es decir sin secuelas desfavorables no existen.

La generación de estructuras turbulentas particulares se logra habitualmente inyectando


en el campo de flujo un tipo o tipos particulares de perturbación capaces de influenciar
las estructuras turbulentas de determinada escala, particularmente responsables de los
procesos de transferencia que hacen posible la existencia del fenómeno que se desea
controlar.
Desde un enfoque espectral lo anterior puede ser expresado diciendo que se investigan
las mejores “escalas” (de las estructuras coherentes de l flujo) a ser perturbadas y se
buscaran las “escalas” más apropiadas de la perturbación a inyectar.
Para ello es preciso:

1) Comprender la particular turbulencia del caso en estudio a los efectos de


identificar las variables que puedan controlar la dinámica de las estructuras
turbulentas de determinadas escalas que gobiernan el proceso a cambiar.
2) Desarrollar metodologías de control que puedan influenciar las estructuras
turbulentas de esas escalas.

En estos momentos se están investigando diferentes métodos para controlar la


turbulencia:
Cambios en la capa límite mediante microranuras (riblets) y rugosidades, movimientos
(oscilaciones) de las paredes o pieles que constituyen el contorno, inyectando sonido de
frecuencias particulares, enfriando o calentando los contornos, mediante fuerzas
electromagnéticas, electroestáticas, eyectando o chupando fluido a través del contorno,
inyectando polímeros de cadena larga en flujos de agua, o utilizando recubrimientos
superficiales particulares.
Es importante resaltar que todos estos métodos se concentran a desarrollar
perturbaciones que puedan influenciar a aquellas estructuras coherentes principalmente
responsables de un dado comportamiento que se desea cambiar.
Información acerca de estas metodologías ha sido recopilada por Soldati y Monti (2001)

11) Algunos importantes temas actuales de Investigación


Se pretenden conocer los mecanismos de generación y evolución de los patrones de
flujo de estructuras coherentes, en particular su dinámica y geometría.
Se tratará de identificar aquellas estructuras coherentes que sean principalmente
responsables de la producción de energía turbulenta en regiones vecinas a paredes.
También se individualizarán las estructuras principalmente responsables de procesos de
separación y re-adherencia (reattachment).
Se estudiarán los fenómenos de interacción entre estructuras coherentes y contornos de
aeroplanos, vehículos terrestres, barcos y estructuras.
Los nuevos hallazgos acerca del rol de las estructuras coherentes de flujos turbulentos
inducen a concentrar las investigaciones en el desarrollo de técnicas para controlar la
turbulencia mediante la manipulación de las estructuras coherentes por medio de
técnicas de perturbación adecuadas.
En el tema de flujos de pared se siguen investigando las posibilidades de reducir la
resistencia aerodinámica de piel, aumentar la sustentación, postergar la transición,
gobernar la separación y de controlar procesos de transferencia de calor a través de la
capa límite.
Una aplicación aeronáutica moderna la constituye el estudio de miniflaps de Gurney.

12) Capa límite atmosférica


Como introducción al concepto de capa límite, podemos decir, desde un punto de vista
clásico, que dicha capa es la parte de fluído (líquido o gas) en la inmediata vecindad de
un cuerpo sólido, en la cual resultan muy importantes los intercambios de cantidad de
movimiento, calor o masa entre el fluído que circula y el obstáculo.
En ese contexto, la capa límite atmosférica es el resultado de la interacción de la
atmósfera y la superficie, sea ésta la tierra o el mar. Las características de esta capa
límite estarán fuertemente influenciadas por el tipo de terreno sobre el que se desarrolla.
Por estas razones, la extensión vertical de la misma varía entre los 200m hasta unos
kilómetros.
Dicha capa límite se caracteriza, entre otras cosas, por tener importantes cortantes de
viento, es decir, variaciones significativas de las componentes de la velocidad del viento
en direcciones normales a las mismas. Por ejemplo

∂U/∂Y ∂V/∂X ∂W/∂X

siendo U y V las componentes instantáneas del viento paralelas al suelo y W la


componente vertical.
Mas arriba está la llamada atmósfera libre y la parte mas baja de la capa límite
(alrededor del 10% de la misma) es conocida como la capa superficial. Esta capa
superficial, en la que la mayoría de nosotros desarrollamos nuestras actividades, se
define también como la parte de la capa límite en la cual la variación vertical de los
flujos (convectivos, calor, etc.) es menor que el 10%.
La influencia de la fricción sobre la superficie, el calentamiento, etc., es transmitido de
forma rápida y eficiente a la capa límite, a través de los mecanismos de la turbulencia,
puesto que el viento es esencialmente turbulento. Asimismo, los mismos mecanismos
transfieren cantidad de movimiento, calor, etc., desde dicha capa límite hacia la
superficie.
La siguiente figura nos muestra un esquema de la estructura global de la capa límite
atmosférica, en situación de grandes vientos que rompen la estratificación de
temperaturas:
Figura 5 Esquema de la capa límite atmosférica como la parte baja de la tropósfera.

El viento sobre la superficie terrestre es normalmente representado en los mapas


meteorológicos como una corriente fluyendo en dirección paralela a las isobaras, a una
altura de aproximadamente 1000 m. El campo de flujo está dado por la contribución de
las fuerzas originadas por los gradientes de presiones y las de Coriolis, debidas a la
rotación terrestre. Cuando las isobaras son aproximadamente líneas rectas en una cierta
región, la velocidad del viento calculada bajo la hipótesis de equilibrio entre las fuerzas
de Coriolis y las debidas a los gradientes de presiones, resulta una buena aproximación
a la velocidad real del viento a 1000 m de altura.
Obstáculos representados por cadenas de montañas, accidentes orográficos, grandes
ciudades, alteran significativamente la distribución de viento sobre todo por debajo de
los 1000 m.
Por causa de las distintas características topográficas, rugosidad, de la superficie
terrestre, el espesor de la capa límite puede variar desde decenas de metros hasta varios
kilómetros.
En la literatura referida a contaminación en aire, la altura de la capa límite es definida
como la altura de mezcla, pues representa la capa a través de la cual los contaminantes
emitidos desde la superficie se verán eventualmente mezclados. Como resultado de ello,
la capa límite será mas “sucia” que la atmósfera libre sobre ella.
El contraste entre ambas es usualmente observable en grandes ciudades desde un avión
a medida que entra o abandona la capa límite.

En la capa superficial podemos diferenciar dos subcapas con propiedades diferentes:

a)La superior (capa superficial en la Fig. 5) que se encuentra por encima de la altura
correspondiente a los elementos de rugosidad superficial característicos del terreno.
Dichos elementos de rugosidad serán distintos si se trata de un terreno urbano (edificios,
conjuntos de casas, etc.) que si nos encontramos en áreas suburbanas y rurales (casas
aisladas, plantaciones, etc.). Esta subcapa se extiende desde la máxima altura de los
elementos de rugosidad presentes hasta los 200 m aproximadamente. En la misma la
distribución vertical de velocidades es tal que las tensiones de corte se mantienen
aproximadamente constantes con la altura.

b)La inferior (capa de rugosidad) que involucra los elementos de rugosidad hasta el
nivel del suelo. La distribución vertical de las velocidades del viento es tal que las
tensiones de corte varían linealmente con la altura en el seno de dicha subcapa. Es en el
seno de la misma en donde se producen los efectos eólicos que afectan las actividades a
nivel peatonal, los problemas de confort eòlico, las cargas del viento sobre casas,
conjuntos de casas, edificios, cultivos, etc.
En consecuencia resultan aplicables en dicha capa límite, en la cual el ser humano
desarrolla sus actividades, los conceptos vistos anteriormente de flujo turbulento.
Como respuesta a los fuertes ciclos diurnos de calentamiento y enfriamiento de la tierra,
el espesor de la capa límite y otros parámetros de la misma, también presentan
importantes variaciones durante el dia. Por ejemplo, la altura de la capa límite sobre
terreno seco en verano puede variar desde algo menos de 100 m en la mañana temprano
hasta varios kilómetros en el atardecer.
En la capa superficial los efectos de las fuerzas de Coriolis pueden ser despreciados,
aunque sin olvidar que la capa superficial es parte de un todo.
En la capa superficial resultan accesibles los estudios experimentales, pues pueden
realizarse mediciones “in situ” y es la capa en la cual los seres humanos, los animales, la
vegetación viven y en la cual se desarrollan la mayoría de las actividades.
Las variaciones mas importantes de las variables meteorológicas tienen lugar en dicha
capa superficial y, por ende, los cambios mas significativos de los intercambios de
cantidad de movimiento, calor y masa ocurren en dicha capa (incluídas las dos
subcapas).
La capa mas inferior, la de rugosidad, en tierras lisas suele tener unos centímetros y va
incrementando su altura a medida que el terreno se hace mas rugoso, por ejemplo, sobre
vegetación, en áreas suburbanas y rurales y mas aún en ciudades. Por ejemplo, sobre
vegetación puede alcanzar una altura media de 1,5 veces la altura de la vegetación.
La turbulencia en la capa superficial es el factor predominante, mientras que suele
volverse intermitente en la parte superior de la capa límite, mezclándose a veces con
ondas gravitacionales internas. La parte superior de la capa límite es usualmente
definida como aquella parte en la que la turbulencia desaparece o se hace muy pequeña.

La siguiente figura resulta ilustrativa de las distintas capas límites resultantes del
calentamiento y enfriamiento de la superficie:
Figura 6 Evolución de las capas límites en respuesta al calentamiento y enfriamiento de
la superficie.

Desde hace mas de 50 años se ha presentado y desarrollado la teoría de Monin-Obukhov


destinada a modelizar la capa superficial, bajo las hipótesis de flujos verticales
constantes, en condiciones estacionarias y homogéneas. De esta manera, con ayuda de
un pequeño número de parámetros se podría determinar la estructura de la turbulencia
en la capa superficial.
Dichos parámetros relevantes son:

a) la altura desde el suelo, z

b) el flujo vertical de calor, H=ρ Cp w ' T ' en la cual ρ es la densidad del aire, Cp la
capacidad calorífica a presión constante y w ' T ' el flujo convectivo de calor
(turbulento).

c) el parámetro de flotabilidad g / T0 , donde g es la aceleración de la gravedad y T0 la


temperatura media de la superficie.

d) las tensiones de Reynolds, τ = − ρ u ' w ' .

Combinando estos cuatro parámetros, pueden definirse un viento característico ( u* ), una


temperatura característica ( T* ) y una escala de longitudes (z / L), siendo L la escala de
Monin-Obukhov.
En ésta, k es la constante de von Kármán (0,4)

u* = −u ' w '
w 'T '
T* = −
u*
u*3T0
L=−
kg w ' T '
Se ha tratado de caracterizar los fenómenos expuestos mediante el empleo de modelos
matemáticos descriptivos de la variación de la velocidad del viento con la altura, en
función de distintas rugosidades típicas del suelo.

En la siguiente figura podemos ver distintos tipos de perfiles de velocidades medias,


según el terreno sobre el que se desarrollan las capas límites:
Dichos perfiles de velocidades siguen una ley denominada ley potencial o ley de la
potencia, a saber:

U  Z n
= 
U mg  Z g 

en la cual Umg es la velocidad media a la altura Zg y 1/n (= α ) el exponente de la


potencia. A medida que el terreno se hace mas “rugoso”, aumenta el exponente de la
potencia.

Figura 7 Perfil de velocidades medias del viento en distintos ambientes

Por ejemplo sobre un mar calmo el exponente tendrá un valor de 0,10 cambiando a
aproximadamente 0,40 sobre un conjunto urbano con apreciable densidad de edificios.
Dentro de dicho rango encontramos los valores del coeficiente correspondientes a zonas
rurales y diferentes vegetaciones. No obstante en muchos casos no resulta aplicable tal
distribución de velocidades medias en el seno de la subcapa inferior, pues los
fenómenos fluidodinámicos son bastante mas complejos a nivel del suelo. Sin embargo
la ley de la potencia válida para la subcapa superior resulta una buena aproximación a la
distribución de velocidades medias en la interface que se establece entre la parte mas
alta de las plantaciones y dicha subcapa superior.
Otra aproximación a la distribución de las velocidades turbulentas del viento, está dada
por la ley logarítmica, la cual se ajusta bien a los datos disponibles de la capa límite
turbulenta por encima de la “rugosidad” del terreno, la cual será distinta según se trate
de áreas urbanas, suburbanas, rurales y marítimas:
u*  Z 
u (Z ) = ln  
k  Z0 
τw
en la cual k y u* son la constante de von Kármán y la velocidad de fricción u * = ,
ρ
Z la altura y Z0 la escala de rugosidad superficial por sobre la cual es aplicable dicha ley
logarítmica.

La figura 4 representa las velocidades relativas detrás de barreras vegetales de distinta


porosidad geométrica (área de pasaje de flujo / área total de la barrera):

Figura 8 Comparación entre velocidades relativas tras cortinas vegetales de diferente


porosidad (zonas punteadas) y barreras de distinta porosidad (datos de túnel de viento).

Los datos graficados corresponden a ensayos en túnel de viento de capa límite de otros
investigadores.

Las figuras 9 y 10 muestran las distribuciones verticales de intensidad de la turbulencia


de la componente longitudinal de la velocidad ( u '2 U ) y de las tensiones de corte
( τ = − ρ u ' w ' ), correspondientes a ensayos experimentales en el túnel de viento de capa
límite del LACLYFA:
Intensidad de Turbulencia

900
800
700

Altura (mm)
600
500
400
300
200
100
0
0 5 10 15 20

Figura 9 Variación con la altura de la intensidad de la turbulencia (en %) de la


componente longitudinal de la velocidad (ensayos de túnel de viento)

τ
900
800
700
Altura (mm)

600
500
400
300
200
100
0
-0.3 -0.1 0.1 0.3

Figura 10 Evolución con la altura de las tensiones de corte ( τ ρ , m 2 seg 2 ) (ensayos


de túnel de viento del LACLYFA).

La naturaleza y complejidad de los flujos turbulentos en la baja capa límite y, en


particular, en la subcapa rugosa, llevan a que los modelos basados en propiedades
medias no representen adecuadamente el campo de flujo, por lo cual resultan necesarias
las mediciones puntuales a los efectos de determinar la estructura fina de la turbulencia.

13) Necesidad de realizar mediciones en Mecánica de los Fluídos


Muchos procesos que se dan en nuestro ambiente, en máquinas hidráulicas, en
industrias manufactureras, en aeronáutica, involucran el movimiento de diversos
fluídos. Gran parte de dichos movimientos son turbulentos, contribuyendo
significativamente la turbulencia en los procesos de transporte de masa, cantidad de
movimiento y energía. La turbulencia, asimismo, incrementa las pérdidas por fricción
en diferentes procesos de transporte.
Hace muchos años, el principal objetivo de las investigaciones en fluidodinámica
experimental era la performance global, esto es, el comportamiento macroscópico.
Como ejemplo, consideremos el caso de un cilindro por el que circula una corriente
eléctrica ubicado transversalmente a un flujo de un fluído a otra temperatura (ver Fig.
11).

Fig. 11 Intercambio de calor de un cilindro en el seno de un flujo transversal.

Los parámetros fluidodinámicos que se consideran son la velocidad y temperatura de la


corriente libre, U∞ y T∞ respectivamente. Para el cilindro, la cantidad que se medía era
el flujo eléctrico de calor, Qe. A los efectos del diseño y de la performance global, los
resultados se presentaban en forma adimensional como

Nu = f ( Re, Pr )

Siendo Nu, Re y Pr los números de Nusselt, Reynolds y Prandtl, respectivamente.


De esta manera se vinculaba la transferencia de calor (número de Nusselt) con el campo
de flujo (Reynolds y Prandtl).
La necesidad de un conocimiento mas detallado del campo de flujo, y por ende, de la
física y mecánica de fluídos en el entorno de objetos inmersos en un fluído en
movimiento y/o el caso de flujo en distintos conductos, ha llevado al desarrollo de
técnicas numéricas (CFD) y experimentales (HWA (Hot Wire Anemometry), LDA
(Laser Doppler Anemometry), PIV (Particle Image Velocimetry)). Precisamente, las
distintas técnicas experimentales son las que proveen los datos necesarios para ajustar
los distintos métodos numéricos. Sin estos datos, los resultados de los métodos
numéricos pueden apartarse mucho de la realidad. Mas aún, la problemática del flujo
turbulento de capa límite, turbulencia de pared, flujos desprendidos, debe ser encarada
principalmente con técnicas experimentales.
La anemometría de hilo caliente (HWA) se basa en el intercambio convectivo de calor
entre un alambre o film por el que circula una corriente eléctrica, ubicado en el seno de
un fluído en movimiento. Los cambios en el flujo que afecten el intercambio de calor
entre alambre o film, serán detectados por el sistema de anemometría de hilo caliente.
Dicho sistema proveerá información sobre el campo de velocidades y temperaturas del
flujo, como asimismo los cambios de concentración en mezclas de gases y cambios de
fase en flujos multifase.
14) Ventajas y desventajas de la anemometría de hilo caliente

14.1) Ventajas.

La anemometría de hilo caliente (HWA) es una de las principales herramientas de


investigación en flujos turbulentos en aire y/o gas. Para intensidades de turbulencia
hasta 30%, las principales ventajas de la HWA son:

a) Costo de la HWA. Los equipos son relativamente económicos y de bajo costo de


mantenimiento, por oposición con otros sistemas como la anemometría laser-
doppler (LDA) y la velocimetría de imagen de partículas (PIV).
b) Respuesta en frecuencia. Un moderno equipo CTA (anemometría de hilo caliente a
temperatura constante) tiene una respuesta plana en frecuencia desde 0 a 50 kHz, y
muy buena respuesta para mayores frecuencias. Las mediciones con LDA, por
ejemplo, están restrringidas a frecuencias menores a 30 kHz.
c) Dimensiones de los sensores. Un típico sensor de HWA tiene 5µm de diámetro y
1,25 mm de largo. Un volúmen típico de medición con LDA es de 50 µm X 0,25
mm.
d) Mediciones de velocidad. Tanto los sistemas HWA y LDA tienen capacidad para
medir un amplio rango d velocidades, desde incompresible a bajas velocidades hasta
flujos compresibles de altas velocidades. Los sensores para HWA de uno, dos y tres
hilos son comercialmente obtenibles, a valores no altos.
e) Mediciones de temperatura. Con ayuda de un sensor múltiple pueden medirse
simultáneamente la velocidad y temperatura en cada punto del campo de flujo.
f) Flujo de dos fases. La HWA tiene ventajas sobre la LDA en la medición de flujos en
los que coexisten dos fases.
g) Exactitud. Tanto la HWA como la LDA pueden dar valores muy exactos de las
magnitudes a medir (entre 0,1 y 0,2%), en experimentos muy controlados. En otras
situaciones, valores con un 1% de error son perfectamente normales.
h) Relación señal – ruido. Los sistemas HWA tienen superior relación señal-ruido que
los LDA.
i) Selección de los sensores y operación. Los sistemas HWA suelen ser muy sencillos
de operar.
j) Análisis de señal. La salida de los HWA es analógica, con lo cual resulta posible
aplicar técnicas convencionales y de adquisición condicionada, indistintamente.
k) Información espacial. El empleo de sistemas HWA con varios sensores espaciados
en el flujo permite describir adecuadamente el mismo, a través del cálculo de las
funciones de correlación espaciales y temporales también, contribuyendo a la
identificación de estructuras coherentes en flujos turbulentos.
l) Sensores especiales. La disponibilidad de sensores especiales de HWA, junto al
posterior procesamiento de las señales, pueden ser empleados para evaluar
magnitudes turbulentas como la intermitencia, la razón de disipación, la vorticidad,
etc.

14.2) Desventajas.

a) Flujos turbulentos de gran intensidad. En casos de flujos turbulentos de gran


intensidad, entendiendo esta según la definición clásica, la HWA ve incrementado el
error de medición, debido a fundamentalmente dos factores. El primero se debe a
que para sensores simples o dobles (X-wire probes), los errores pueden
incrementarse al despreciar términos de orden superior en la expansión en serie
correspondiente a la velocidad efectiva de enfriamiento. El segundo, a que los
sensores no pueden discernir la dirección del flujo, por lo cual las mediciones se
hacen imprecisas en zonas de flujo reverso.
b) Perturbación de los sensores. La ubicación de sensores en el flujo puede modificar
la situación real del flujo que circula. No obstante, si los sensores están bien
diseñados y son de relativamente pequeño tamaño, los errores introducidos pueden
estar perfectamente acotados. En esta situación las perturbaciones que introduzcan
son usualmente incorporadas en el proceso de calibración.
c) Flujo de líquidos. Muchos problemas suelen aparecer cuando se usan HWA en
flujos de una fase.
d) Rotura de sensores. Si bien los sensores son muy delicados, si se los emplea con
mucho cuidado pueden durar bastante tiempo. En ese aspecto son recomendables,
desde el punto de vista de su duración, los sensores con cubierta de cuarzo (fiber-
film probes).
e) Contaminación. La deposición de impurezas en los sensores afectará el intercambio
de calor de los mismos y, por ende, su respuesta en la medición de un dado tipo de
flujo. Es conveniente, luego de haber realizado mediciones en aire con partículas de
polvo en suspensión, el emplear algún solvente dentro del cual se sumerge el sensor.
Luego de la limpieza, el sensor debe sumergirse en agua destilada y luego esperar a
que seque, necesitándose una nueva calibración.

15) Consideraciones sobre la HWA y la LDA


Tanto la HWA como la LDA son técnicas complementarias. Cada una tiene sus ventajas
y desventajas. Los problemas mas importantes de la HWA aparecen cuando se debe
medir en ambientes hostiles, como la combustión. En este caso la LDA es
recomendable. También flujos turbulentos con partículas sólidas o finas gotas son
normalmente estudiados con técnicas de LDA. En líquidos la LDA es preferida, pues
los mismos fluídos transportan las finas partículas necesarias para medir. Asimismo en
flujos altamente turbulentos, resulta preferible la LDA, aunque visualizando
previamente dichos flujos y detectando las zonas problemáticas, puede emplearse la
HWA con cuidado dando buenos resultados.
Por el contrario los sistemas LDA son muy costosos. Además la medición simultánea de
velocidad y temperatura (sensor de alambre frío) no pueden realizarse, debido a la
contaminación del sensor de temperatura debido a las partículas del sprray que se
inyecta al fluído para medir las velocidades. La LDA no ofrece una señal contínua, y la
información espectral es mas difícil de evaluar. Finalmente, la LDA no ofrece la
moderna cantidad de información que es obtenible de la HWA.

16) Principios básicos de la anemometría de hilo caliente (HWA)


Cómo se mencionó mas arriba, la anemometría de hilo caliente se basa en el
intercambio convectivo de calor de un sensor calentado por una corriente eléctrica que
circula através de el, inmerso en un flujo, sea de aire o líquido (ver ventajas y
limitaciones de la HWA).
Los sensores mas empleados son hilos calientes y films calientes, soportados por puntas
cilíndricas. Acerca de estos últimos se destacan los fiber-film, en los cuales los sensores
están cubiertos por una fina capa de cuarzo que les otorga mas resistencia y, por ende,
mas durabilidad.
La teoría que desarrollaremos es aplicable a cualquiera de estos sensores.
La transferencia de calor de un alambre caliente inmerso en un fluído en movimiento,
depende de las propiedades del fluído (densidad, viscosidad, conductividad térmica,
calor específico, etc.) y del movimiento (vector velocidad, temperatura del fluído,
presión, etc.).

16.1) Alambre caliente de longitud infinita (gran alargamiento).

La relaciones funcionales de la transferencia de calor se dan en términos de los grupos


adimensionales de Nusselt ( Nu ), Reynolds ( Re ), Prandtl ( Pr ), Grashof ( Gr ), Mach
( M ):

hd c µ ρUd
Nu = , Pr = p , Re =
k k µ
g ρ 2 d 3 β (Tw − Ta ) U
Gr = , M=
µ 2
a

Donde h es el coeficiente de transferencia de calor, k la conductividad térmica del


fluído, µ la viscosidad molecular, Cp el calor específico a presión constante, ρ la
densidad, g la aceleración de la gravedad, β el coeficiente de expansión volumétrica, Tw
la temperatura del alambre caliente, Ta la temperatura del fluído, a la velocidad del
sonido, U la velocidad del flujo y d el diámetro del sensor cilíndrico.

Según los primeros trabajos de King (1914), la relación para el intercambio de calor
puede expresarse como
Nu = A + B Re0.5

Siendo A y B constantes empíricas de calibración para cada fluído.


Posteriormente Kramers (1946) encontró, a través de numerosos experimentos,
eligiendo la temperatura de película Tf = 0.5 ( Tw + Ta ) para las propiedades físicas del
fluído, una relación mas ajustada válida en el rango 0.01 < Re < 10 000 y 0.71 < Pr <
1000, a saber

Nu = 0.42 Pr 0.2 + 0.57 Pr 0.33 Re0.5

En flujos de altas velocidades en gas (mas de 100 m/s), los efectos de la


compresibilidad se vuelven importantes y, en consecuencia, tanto el número de Mach
como el calor específico deben considerarse variables.

En flujos de bajas velocidades, los fenómenos de convección natural se vuelven


importantes y, en ese caso, los sensores deben ser calibrados muy cuidadosamente.
Collis y Williams (1959) encontraron que en mediciones con sensores de gran
alargamiento (gran relación l/d), los efectos de la flotabilidad (convección libre) pueden
ser ignorados si Re > Gr⅓ .
16.2) Alambre caliente de longitud finita.

La transferencia de calor de un alambre de alargamiento finito, es decir, con l/d no muy


grande, es diferente de la correspondiente al sensor de longitud infinita. La Fig. 12
muestra el esquema de un sensor soportado por dos puntas:

Fig. 12 Geometría del sensor y balance de calor de un elemento del mismo

La distribución de temperatura surge del balance de intercambio de calor


correspondiente a un elemento de alambre, dx (ver Fig. 8):

. . . . .
d Q e = d Q fc + d Q c + d Q r + d Q s

Cada término de la ecuación anterior puede interpretarse como: El calor generado por
una corriente eléctrica, I,
. I 2χw
d Qe = dx
Aw

siendo χw la resistividad eléctrica del alambre del sensor, a la temperatura Tw de éste y


Aw la sección transversal del conductor. La transferencia de calor por convección
forzada, dQfc, hacia el fluído puede expresarse en términos del coeficiente de
transferencia de calor h, como
.
d Q fc = π dh(Tw − Ta )dx

La Fig. 12 muestra que la conducción de calor de un elemento es


. ∂ 2Tw
d Q e = − kw Aw dx
∂x 2

donde kw es la conductividad térmica del alambre a la temperatura Tw . La transferencia


de calor por radiación es

d Q r = π dσε (Tw4 − Ts4 ) dx


.

siendo σ la constante de Stefan-Boltzmann, ε la emisividad del sensor y Ts la


temperatura en el entorno. En la mayoría de las aplicaciones de la HWA este término es
muy pequeño y normalmente se omite en los cálculos.
La razón de almacenamiento de calor es
. ∂Tw
d Q s = ρ wcw Aw dx
∂t

donde ρw es la densidad del alambre y cw el calor específico del mismo por unidad de
masa.
A partir de estas relaciones, la ecuación del balance térmico queda de la siguiente
manera:

∂ 2Tw I 2 χ w ∂T
k w Aw + − π dh (Tw − Ta ) − ρ wcw Aw w = 0
∂x 2
Aw ∂t

La resolución de esta ecuación permitirá encontrar el perfil de temperaturas del sensor,


así como la temperatura media y las características de la respuesta en frecuencia del
mismo.

El perfil de temperaturas del alambre caliente no es constante, sino que es máximo en el


centro y decrece hacia los extremos, alcanzando una temperatura similar a la del
ambiente. Asumiendo un valor medio constante para h, la distribución de temperaturas
puede expresarse como:

cosh  x 
Tw − Ta  lc 
= 1−
Tw,∞ − Ta cosh  l 
 2lc 

donde lc es la “longitud fría” dada por


1
d  k R 1 2
lc =  w w 
2  k Ra Nu 

La Fig. 13 muestra dicha distribución de temperaturas:

Fig. 13 Distribución de temperatura a lo largo del alambre para varios l/2lc.

17) Operación del anemómetro a temperatura constante


Una de las principales razones de la operación de la HWA a temperatura constante, es la
de mantener el sensor a una dada temperatura, permitiendo ajustar la inercia térmica del
mismo cuando varían las condiciones del flujo. Esta manera de operar se basa en el
agregado al equipo electrónico básico, de un amplificador que realimenta al circuito del
HWA.
La Fig. 14 muestra el esquema en bloques de un HWA operando a temperatura
constante:

Fig. 14 Diagrama de bloques de un anemómetro a temperatura constante


El sensor es uno de los cuatro resistores de un puente de Wheatstone, y el amplificador
de realimentación automáticamente ajusta la corriente para mantener el puente
equilibrado. Dos de los resistores son fijos y el tercero es ajustable. A este esquema
básico se le incorpora un sistema acondicionador de la señal (con filtros, etc.) y un
linearizador. Este último en los modelos mas modernos es reemplazado por el software
de linealización de la señal de salida.
Las sensibilidades del HWA de velocidad y temperatura, Svel y Stemp, pueden
expresarse como
∂E
Svel =
∂U
∂E
Stemp =
∂T

en las cuales E es el voltage de salida del anemómetro, U y T la velocidad y temperatura


del fluído.
Dado que el voltage de salida es función tanto de la velocidad del fluído como de su
temperatura, entonces podemos escribir

∂E ∂E
dE = dU + dT
∂U ∂T

en la cual las sensibilidades aparecen como factores.

18) Respuesta en frecuencia del anemómetro a temperatura constante


La respuesta en frecuencia del anemómetro a temperatura constante ha sido estudiada
por numerosos investigadores en los últimos treinta años.
Hay dos métodos diferentes que permiten evaluar la respuesta dinámica del
anemómetro. En el primero se inyecta en el flujo una pequeña perturbación (una
oscilación en el flujo, un cambio de temperatura, etc.) o, en el segundo, el mismo sensor
es sacudido para crear la fluctuación de velocidades.
En ambos casos, la ecuación para la fluctuación de voltage del puente, e, puede
expresarse como

   −
− −
  
2    2 R w  R w − R a
 
d e de 2  det   e  
+ 2ξω o + ω 2
o e = ω o  uS u + S t
 M +  1 + t 
dt 2 dt   dt 

− −
  
 R a  R w + R 1  
    
  

donde ω0 es la frecuencia natural del circuito electrónico, ζ los coeficientes de


amortiguación, y Su y St los coeficientes de sensibilidad de la velocidad y de la señal
electrónica de prueba.
Investigadores como Blackwelder evaluaron la frecuencia natural en 55 kHz.
La Fig. 15 ilustra una curva típica de respuesta en frecuencia de un sensor de 5
micrones:
Fig. 15 Respuesta en frecuencia de sensor de 5µm de diámetro, operado por un
anemómetro Dantec 55M10, para velocidades del aire de 1, 3, 10, 30 y 100 m/s.

En resúmen, las puntas anemométricas se clasifican en cuatro tipos: Puntas miniatura;


puntas con recubrimiento de oro; puntas con recubrimiento de cuarzo tipo fibra o tipo
film. Los alambres tienen usualmente 5 micrones de diámetro y 1,2 mm de largo,
suspendidos entre dos soportes tipo aguja. Las recubiertas por oro son alambres
comunes, pero con recubrimiento en los extremos, hasta una longitud total de 3 mm, a
los efectos de minimizar la interferencia entre los soportes. Los sensores tipo fibra son
de cuarzo de alrededor de 70 micrones de diámetro con una longitud de sensor activo de
1,2 mm, cubierto por una delgada capa de nickel que a su vez está protegida por una
delgada capa de cuarzo. Los de tipo film consisten en delgadas capas de nickel
depositadas en las puntas de cuerpos aerodinámicos, cuñas o conos.

Si los sensores tienen recubrimiento delgado de cuarzo (fiber film probes), la respuesta
en frecuencia disminuye, con relación a la del alambre sin recubrimiento, alrededor de
un 40%. No obstante, como estaríamos en una respuesta en frecuencia de mas de 70
kHz, resulta mas que suficiente para las determinaciones en flujos turbulentos de capa
límite del tipo de los de la baja capa límite atmosférica turbulenta.
Las mediciones en flujos no-isotérmicos deben realizarse con altos sobrecalentamientos
de las puntas, pues de esta manera las velocidades tendrán un error de medición
pequeño. En ese aspecto, las puntas con sensores cubiertos con una capa delgada de
cuarzo tienen mayor inercia térmica que los de alambre caliente común.

Para diseñar un experimento debemos estimar la óptima velocidad de adquisición de


datos, el tiempo de medición y el número de muestras requerido. Debemos revisar el
equipamiento para asegurarnos que todos los parámetros funcionan bien y monitorear,
dentro de lo posible, los resultados on-line.

19) Introducción a la medición de velocidades


A los efectos de explicar los conceptos y principios de la medición de velocidades con
HWA, consideremos el caso de una probeta con uno o mas sensores colocados en el
seno de un fluído en movimiento. El propósito de los sensores es el de proveer
información sobre el vector velocidad en el punto central de los mismos.
El flujo lo asumiremos isotérmico e incompresible. El campo de velocidades estará
caracterizado por el vector V en el punto del sensor, que, en general, será función de la
posición y el tiempo.
La relación entre el voltage de salida del anemómetro, E, y la velocidad efectiva de
enfriamiento del sensor, Ve, que está relacionada con la velocidad V del fluído, es:

E 2 = A + BVen

La Fig. 16 ilustra al sensor con el sistema de coordenadas asociado al mismo:

Fig. 16 Sistema de coordenadas fijas al sensor y las correspondientes componentes de


la velocidad del fluído.

En el sistema de coordenadas x’, y’, z’ (ver figura anterior), el vector velocidad V puede
quedar especificado en términos de su módulo, el ángulo de guiñada α y el ángulo de
cabeceo β, o en términos de las tres componentes, UN (normal), UT (tangencial) y UB
(binormal o lateral). Puesto que la respuesta del sensor es diferente en las tres
componentes, la relación entre la velocidad efectiva de enfriamiento y dichas
componentes se escribe como:

Ve2 = U N2 + k 2U T2 + h 2U B2

en la cual k y h son los coeficientes de guiñada y cabeceo respectivamente. Valores


típicos de estos coeficientes para un sensor de alambre de tungsteno, son 0.2 y 1.05.
Con el empleo de la ecuación anterior, la relación entre el voltage de salida y la
velocidad quedará:

n
E 2 = A + B (U N2 + k 2U T2 + h 2U B2 ) 2
Cuando se procede a realizar un conjunto de mediciones con el anemómetro, hay un
conjunto de pasos básicos que deben seguirse, los cuales en muchas situaciones de
interés práctico, suelen combinarse, los que listarlos por separado resultan:

(1) Especificación de las mediciones requeridas


(2) Selección del tipo de anemómetro y de la probeta a emplear
(3) Selección de la ecuación de respuesta del HWA
(4) Calibración de la probeta
(5) Requerimientos de mediciones digitales
(6) Mediciones con la probeta (identificación de la dirección media del flujo,
adquisición de datos y almacenamiento de los mismos)
(7) Análisis de los datos (conversión de los mismos y análisis en el tiempo y frecuencia)
(8) Presentación de los datos
(9) Análisis de incerteza

La especificación de las mediciones a realizar depende del balance de lo que es posible


en principio y lo que es obtenible en la práctica, dependiendo esto último de las
disponibilidades de tiempo del investigador, las probetas, el equipamiento
anemométrico y el de cómputo.
Respecto de la selección del anemómetro y las probetas, el de temperatura constante
resulta muy útil en mediciones en aire en flujos turbulentos y de capa límite, tanto
laminar como turbulenta. Las probetas a emplear suelen ser las del tipo film-probe, cuyo
recubrimiento de cuarzo las hace muy resistentes a la abrasión del particulado en el aire.
La ecuación de respuesta del anemómetro que suele emplearse es la escrita mas arriba
entre E y las componentes de la velocidad.
La calibración de las probetas puede hacerse en un túnel de viento de calibración,
diseñado y construído al efecto o, mas conveniente, en las mismas condiciones de
medición, por ejemplo, en el túnel de capa límite. Dicha calibración debe ser hecha para
el rango mas amplio posible de velocidades, desde la mas baja (~1 m/s) hasta la mas
alta (~ 15 m/s en el túnel de capa límite del LACLYFA), abarcando un buen número de
valores intermedios de velocidad. De esta manera si la velocidad media máxima en las
mediciones a realizar es del orden de los 10 m/s, la calibración permitirá obtener una
curva confiable cuando se conviertan los datos.
Resulta conveniente que la señal de salida, E, sea pasada por un filtro pasabajos la cual
luego es procesada por un acondicionador de señal que prepara la misma para ser
procesada por un conversor A/D, entrando luego en la computadora.
Dada la sensibilidad de las probetas, tanto a la guiñada (∂E / ∂ α) como al cabeceo
( ∂E / ∂ β), resulta importante la identificación de la dirección de la velocidad media del
flujo. La conversión de los datos se efectúa con ayuda de las expresiones que ligan el
voltage de salida con las componentes de la velocidad y las correspondientes curvas de
calibración.
Luego de la conversión de los datos, se procede a calcular las componentes del tensor de
Reynolds, autocorrelaciones, correlaciones espaciales, espectros de densidad de
potencia y wavelets.
Respecto de los análisis de incerteza, deben considerarse las limitaciones de la HWA
respecto de la respuesta en frecuencia y la resolución espacial, posibles perturbaciones
introducidas por la punta (probeta), errores causados al amplificar las señales, etc.
20) Mediciones de una componente de la velocidad (punta de un
sensor)
La Fig. 17 muestra el esquema de una punta con un sensor normal a la corriente. Dicho
sensor puede ser del tipo standard de alambre de tungsteno o del tipo fiber-film:

Fig. 17 Punta de un sensor cuyo eje principal está alineado con la dirección media del
flujo.

Las puntas de un sensor son variadas. En la siguiente figura (Fig. 18) pueden apreciarse
algunas de ellas utilizadas en mediciones de una componente de la velocidad:

Fig. 18 Distintos tipos de puntas: (a) Alambre simple; (b) Alambre plateado; (c) punta
para mediciones en capa límite; (d) punta con soportes a ángulo recto.

Está establecido que la sensibilidad al cabeceo es tanto menor cuanto mayor sea el
espaciado, s, de los soportes (prongs) del sensor. La siguiente figura muestra la
dependencia de la velocidad indicada en función del cabeceo, para una punta simple:
Fig. 19 Variación de la velocidad indicada por una punta simple con el ángulo de
cabeceo β, el espaciado se los soportes del sensor, s y la longitud de los soportes, Lp.

De esta manera, la expresión para la velocidad efectiva de enfriamiento quedará:


Ve2 = U 2 + h 2W 2 = V 2 ( cos 2 β + h 2 sin 2 β )

Teniendo en cuenta la ley de potencia que liga el cuadrado del voltage de salida del
anemómetro con la velocidad efectiva de enfriamiento, el coeficiente de cabeceo, h,
puede calcularse con la expresión
1
 2 2
2
1   E ( β ) − A  n

h=  − cos β 
2
  2
sin β  E ( 0 ) − A 
 

Para una punta con alambre de tungsteno común, valores típicos de h oscilan entre 1.10
y 1.12 y para una punta con alambre plateado es de 1.05. Trabajos realizados por
investigadores encontraron que el valor de la constante A es igual al cuadrado del
voltage de salida del anemómetro cuando la velocidad es nula, E02 .

21) Medición de dos componentes de la velocidad (puntas de dos


sensores)
La medición simultánea, en un punto de espacio, de dos componentes de la velocidad se
realiza con puntas de dos sensores en una configuración tipo X (X-wire probes). Los
sensores de dichas puntas pueden ser los standard o con cubierta delgada de cuarzo
(quatz coating fiber film probes).
Típicas puntas de uno y dos sensores inclinados (configuración X) es la siguiente:
Fig. 20 Puntas simples con sensor inclinado y puntas dobles tipo X: (a) Punta sin
plateado; (b) punta plateada; (c) punta X con sensores inclinados adelante y atrás, en
planos paralelos al eje de la punta y (d) punta doble con sensores normales a la
dirección del flujo medio.

De las puntas que muestra la figura anterior, las tipo X con sensores inclinados el mismo
ángulo hacia delante y hacia atrás, resultan las mas empleadas en mediciones de dos
componentes de la velocidad, sobre todo en flujos turbulentos.
La geometría de dichas puntas se muestra en la Fig. 21:

Fig. 21 Punta tipo X: Componentes de la velocidad y notación de ángulos. n1 y n2 son


las normales a los alambres 1 y 2.

Se asume que los alambres están en el mismo plano, paralelo al eje de la punta. El eje x
se elige según el eje de la punta. La gran ventaja de una punta de estas características es
que permite adquirir las dos señales simultáneamente, permitiendo efectuar los cálculos
estadísticos correspondientes.
Asumiendo que la velocidad W vertical a la punta es pequeña en comparación con las
otras dos, U y V, las relaciones de las dos señales pueden escribirse como:
E1 = F1 (U , V )
E2 = F2 (U , V )

Por otra parte, la calibración y los análisis de señales pueden ser expresados en términos
de la velocidad V y del ángulo θ del flujo, a saber:
∼ 
E1 = F3  V ,θ 
 
∼ 
E1 = F4  V , −θ 
 

De esta manera, las componentes U y V quedarán



U = V cos θ

V = V sin θ

En consecuencia, las ecuaciones que relacionan los voltages de ambos alambres con las
velocidades serán:

E12 = A + BVen1
E22 = A + BVen2

La siguiente figura ilustra el mapa de calibración de (E1 , E2 ) correspondiente a la punta


Dantec 55 P 51 (X-wire probe). La velocidad V es en m/s.

Fig 22 Mapa de calibración de los voltages de salida de una punta doble Dantec 55 P
51, para –45º ≤ θ ≤ +45º.
La Fig. 23 representa una típica curva de calibración de una punta de un sensor (Dantec
55 P 11):

Fig. 23 Curva de calibración de una punta simple Dantec 55P11. La tensión de salida
E1 (ordenadas) está dada en voltios y la velocidad U (abscisas) en m/s.

Dado que la relación entre el voltage de salida del anemómetro, E, y la velocidad del
fluído, U, es cuadrática, resulta conveniente la linealización (linearizer) a los efectos de
minimizar errores en la conversión a velocidades de los datos adquiridos. En los
anemómetros mas modernos la linealización se efectúa por software. No obstante, si las
curvas de calibración constan de un número significativo de puntos experimentales, la
linealización no resulta imprescindible.

En general las funciones de transferencia para calibración de las puntas son de tipo
polinómico de la forma que sigue:

U = C0 + C1 Ecorr + C2 Ecorr
2
+ C3 Ecorr
3
+ C4 Ecorr
4

siendo C0 hasta C4 las constantes de calibración y Ecorr el voltage corregido por


temperatura.

Cuando las velocidades son muy bajas, la transferencia de calor entre el alambre y el
medio está gobernada por la convección natural (convección libre). Esto implica que el
enfriamiento del sensor no solo depende de la magnitud de la velocidad del flujo sino
también de su orientación respecto del campo gravitacional. La influencia de la
convección natural aparece alrededor de los 0,2 m/s para sensores de alambre y se
estabiliza a valores entre 0,03 – 0,04 m/s. En este rango es importante que la punta
tenga la misma orientación con respecto al campo de velocidades durante la calibración
y las mediciones a realizar en el experimento.
22) Análisis de señales en flujos turbulentos
Un flujo turbulento no es determinístico, no es posible predecir qué valores instantáneos
alcanzará la velocidad medida en un punto dado, por lo que es necesaria una descripción
estadística de la variación de velocidad y las demás variables de interés.
Se asume en el análisis que las señales analizadas son ergódicas (distintos segmentos
temporales de la señal pueden considerarse equivalentes a distintas realizaciones
independientes del experimento aleatorio). Esto implica que para un proceso aleatorio
estacionario, propiedades como valor medio, momentos de orden superior y
autocorrelación, obtenidas por promediación temporal de valores instantáneos de la
señal en intervalos suficientemente largos, no dependen del instante inicial ti del
intervalo.
Se definirán y describirán brevemente a continuación las variables y funciones
utilizadas en el trabajo para el análisis de los datos de velocidad de viento y
temperatura. En general se definirán para una o dos variables genéricas, x(t) e y(t),
separando sus partes media y fluctuante como:

x (t ) = x + x´(t )
y (t ) = y + y´(t )

La barra superior indica que se trata de un valor medio, cuya definición matemática es:

t +T
1
x = lim
T →∞ T ∫ x(t )dt
t

Las estadísticas de una señal pueden agruparse (Bruun, 1995) de acuerdo al tipo de
información que proveen en:

- Estadísticas en el dominio de amplitud:

Son cantidades que brindan información relacionada con la distribución de amplitudes


de la señal, pero no dan información sobre su evolución temporal. Incluyen:
a) para una señal x(t): su función densidad de probabilidad, p(x), el valor medio x , el
valor medio cuadrático de la fluctuación, x ' 2 y su raíz cuadrada, el desvío standard σx,
momentos de orden superior, x ' m y otros parámetros como “skewness” o “sesgo” , y
“kurtosis”.

b) Para dos señales x(t) e y(t) adquiridas simultáneamente: además de las estadísticas de
amplitud de cada señal, la función distribución de probabilidad conjunta, p(x,y), el valor
medio del producto de fluctuaciones, x ' y' , (que aparece en las tensiones de Reynolds si
x e y representan componentes de la velocidad instantánea), correlaciones espaciales, si
x e y se obtienen de sensores separados, y momentos cruzados de orden superior,
x ' m y' k
- Estadísticas en dominio del tiempo

Son principalmente la función autocorrelación R x (τ) , la correlación cruzada R xy (τ) , y


los respectivos coeficientes adimensionales de autocorrelación y correlación cruzada de
dos variables. La autocorrelación brinda información sobre el intervalo temporal en el
que la señal está correlacionada, y sobre la tasa de decaimiento de esta correlación.

- Análisis en dominio de frecuencia

Una forma alternativa, pero complementaria de describir la naturaleza de la señal, es a


través de su espectro. Físicamente, esto da una medida de cuánta energía de la señal está
contenida en cada banda de frecuencias

- Análisis en tiempo-frecuencia

La herramienta utilizada para esto es la transformada “wavelet”, que se describirá más


adelante. Permite obtener información de frecuencia, o su recíproca, que representa la
escala temporal de un evento, localizada en el tiempo.

- Análisis condicional

La detección de un “evento” particular (pico, rampa, alta correlación o lo que el usuario


defina) desencadena el proceso de medición, o bien, determina qué datos serán
analizados.

23) Análisis estadístico de amplitud de señal


23.1 Valor medio

Considérese un registro temporal de una función x(t), que puede descomponerse en un


valor medio y una fluctuación, x (t ) = x + x´(t ) . Para un registro de duración infinita, la
definición de valor medio es la arriba mencionada es

t +T
1
x = lim
T →∞ T ∫ x(t )dt
t

Cuando se analizan datos digitalizados, como en nuestro caso, la señal continua x(t),
0 ≤ t ≤ T, es reemplazada por valores discretos xi, i = 1,2,...,N, provenientes de un
muestreo de la señal, como indica la figura 24. El punto inicial, to, no interviene en las
ecuaciones que desarrollaremos. El tiempo total de muestreo es T, el intervalo de
muestreo es ∆t, y el número total de valores es N, de modo tal que

T = N∆ t
La frecuencia de muestreo es la recíproca del intervalo ∆t.

Figura 24 Muestreo discreto de una señal continua.

La estimación del valor medio para datos digitalizados es simplemente el promedio de


los mismos:

N
1
x=
N
∑x
i =1
i

El valor así obtenido es un estimador estadístico no sesgado (el valor esperado del
estimador para N → ∞ coincide con el valor verdadero que se estima) del verdadero
valor medio de la función continua x(t). Para acotar el posible error del valor calculado
con respecto al valor verdadero, se calcula el desvío standard de x .
Para un proceso ergódico y Nm muestras digitales independientes, el desvío standard de
la media de x y el de la función x, se relacionan por

σ x2
σ ( x) =
2

Nm

Dos segmentos de la señal analizada pueden considerarse independientes si están


separados por al menos dos veces el valor de la escala integral de tiempo, TI, que se
definirá más adelante. En un intervalo de medición de duración T, el desvío standard de
la media es

2T σ
2

σ ( x) = I x
2

23.2 Varianza y desvío standard.

La varianza de una señal x(t) se define como:

T T
1 1
σ 2x = lim
T →∞ T ∫
0
( x − x ) 2 dt = lim ∫ x ' ( t ) 2 dt
T →∞ T
0
La raíz cuadrada positiva de la varianza, σx, es llamada desvío standard.

Para una señal digital, un estimador no sesgado de la varianza es:

1 N 1 N
σ 2x ≅ ∑
N − 1 i =1
( x i − x ) 2
= ∑
N − 1 i =1
x'i
2

El desvío standard da una medida de la dispersión de la señal en torno a su valor medio.


Por ejemplo, si la señal tiene una distribución de probabilidad tipo Gaussiana, el 95% de
los valores instantáneos están en el intervalo x ± 2σ x .

23.3 Momentos de orden superior

El momento de orden m (m entero positivo) de x(t), x ' m , se define como:

T
1
T →∞ T ∫
x ' m = lim ( x − x ) m dt
0

Su cálculo en señales digitales es

1 N m
x' m = ∑ x'
N i =1

El momento de 3er. orden es presentado habitualmente en forma adimensional:

x'3
Sk x =
σ 3x

Este parámetro, denominado “skewness”, equivalente a “sesgo” es un indicador de la


asimetría estadística de la señal. La figura 25 muestra un ejemplo de señal con skewness
positiva: la fluctuación presenta valores positivos más intensos, pero de menor duración
que sus valores negativos. El gráfico lateral muestra la función densidad de probabilidad
de la señal, claramente asimétrica.
Figura 25 Ejemplo de una señal con skewness positiva

El cuarto momento, adimensionalizado con σ 4x , es llamado kurtosis:

x' 4
Ku x =
σ 4x

Es un indicador del peso de los valores extremos en la distribución de probabilidad de la


función. La figura 26 muestra dos señales con la misma media y el mismo desvío
standard, pero con diferente valor de Ku.

Figura 26 Ejemplo de señales con igual desvío standard y distinta kurtosis.

23.4 Estadísticas conjuntas de dos señales

El valor medio del producto de las fluctuaciones x’(t) e y’(t) se define:

T
1
T →∞ T ∫
x ' y' = lim x ' ( t ) y' ( t )dt
0
La ecuación correspondiente para su estimador en señales discretas es:

1 N
x ' y' ≅ ∑ xi yi
N i =1

Estos valores son importantes en análisis de flujos turbulentos, ya que típicamente


representan tensiones de Reynolds ( − ρu ' w ' ) o correlaciones temperatura-velocidad
( w ' θ' ) que representan transporte convectivo de energía.

23.5 Correlación espacial

Cuando dos señales x(t) e y(t) se obtienen de sensores separados espacialmente, el


término x ' y' representa una correlación espacial. Dividido por los correspondientes
desvíos standards, define un coeficiente de correlación espacial:

u ' i (0)u ' j (r )


ρ ij (r ) = ,
σ ui σ uj

donde u’i y u’j son fluctuaciones de velocidad (puede ser la misma o distintas
componentes), y r es la separación espacial entre los sensores. La integración del
coeficiente de correlación espacial para distintos valores de separación, r, da la escala
espacial de la turbulencia.

24) Análisis en dominio del tiempo


24.1 Autocorrelación

La función autocorrelación describe la similitud o dependencia entre los datos tomados


en un instante cualquiera t con los datos tomados un tiempo τ más tarde, en t+τ, como
muestra la figura, para una función x(t) con media 0. La autocorrelación da el promedio
del prducto de x(t) por x (t+τ) para todos los instantes t. En una función de media nula
(es decir, que toma valores tanto positivos como negativos), es esperable que para
pequeños valores de τ x(t) y x(t+τ) sean similares y su producto positivo, mientras que
para valores de τ crecientes, los valores de x(t) y x(t+τ) tiendan a ser independientes y
el promedio de su producto tienda a 0. En el análisis de turbulencia, lo que importa es
correlacionar las fluctuaciones de la velocidad, por lo que el valor medio se resta, y se
trabaja con registros con media 0.
La definición matemática de la autocorrelación es:

T
1
T →∞ T ∫
R x (τ) = lim x ( t ) x ( t + τ)dt
0
Por su definición, Rx(τ) es una función real (no necesariamente siempre positiva) y par,
es decir Rx(τ) = Rx(-τ). Alcanza su máximo valor en τ = 0, donde

R x (0) = σ 2x

El coeficiente de autocorrelación, ρx (τ) se define adimensionalizando la correlación con


su valor máximo:

R x (τ)
ρ x (τ) =
σ 2x

La figura 27 muestra un gráfico típico de ρx (τ). Su valor en τ = 0 es siempre 1.


La integral del coeficiente de autocorrelación define un valor TI, llamado escala
integral de la turbulencia.


TI = ∫ ρ x (τ)dτ
0

Esta da una medida del lapso durante el cual los valores x(t) y x(t+τ) están
correlacionados.
En la práctica, una medida de la escala integral de la turbulencia está dada por el tiempo
en que el coeficiente de autocorrelación alcanza el valor de 1/e ≈ 0.37. Este es
exactamente el valor de la integral si ρx tiene un decaimiento exponencial, y una buena
aproximación en la mayoría de los análisis de turbulencia (Kaimal and Finnigan 1994).
Pueden definirse otros estimadores, como el valor de τ en el primer cruce por 0, en
señales que dan autocorrelación negativa para algún intervalo, u otros.

Figura 27 Función autocorrelación de una medición de velocidad instantánea de viento


Para una señal digitalizada, adquirida a intervalos ∆t iguales, donde los valores de x
pueden expresarse como x(n∆t), n = 0, 1, 2, ... N-1, un estimador de la función
autocorrelación apra un retardo τ = p∆t se obtiene de (Castro 1989) :

1 N−p
R x (p∆t ) ≅ ∑ x (n∆t ) x (n∆t + p∆t ),
N − p n =0
p = 0, 1, 2, ...., m

m∆t es el máximo retardo considerado, m < N/2.

La coherencia entre la escala temporal de una fluctuación y su escala espacial está


implícita en la hipótesis de Taylor de “flujo congelado”, o frozen flow hypothesis. Esta
establece que la turbulencia puede considerarse “fija” en un flujo medio que la
transporta por convección, como una fotografía que se desplazara con la velocidad
media del flujo, y es una aproximación válida en los casos en que el tiempo de
evolución de los remolinos o estructuras que la componen es mucho mayor que el
tiempo que tarda cada remolino en atravesar el sensor correspondiente. En este caso, si
L y T son respectivamente las escalas espacial y temporal del flujo, y U es la velocidad
media, se cumple:

L≈UT

24.2 Correlación cruzada

La función correlación cruzada mide la similitud en el comportamiento de dos


funciones, o conjuntos de datos x(t) e y(t). La función autocorrelación puede
considerarse un caso particular, en el que x e y coinciden. La función correlación
cruzada entre x(t) e y(t+τ) se define:

T
1
R xy (τ) = lim ∫ x ( t ) y( t + τ) dt
T →∞ T
0

Y el coeficiente de correlación cruzada:

R xy (τ)
ρ xy (τ) =
σxσy

La correlación cruzada no necesariamente alcanza su máximo ni el coeficiente de


autocorrelación vale necesariamente 1 en τ = 0, como era el caso de la autocorrelación.
Tampoco es una función par, por lo que deben considerarse valores de τ positivos y
negativos.
Su cálculo para valores discretos con un retardo τ = p∆t es:
1 N−p
R xy (p∆t ) ≅ ∑ x (n∆t ) y(n∆t + p∆t ),
N − p n =0
p = −m, − m + 1,........ − 1, 0, 1, 2, ...., m

25) Análisis en dominio de frecuencia: Análisis de Fourier


La transformada de Fourier es la herramienta que permite pasar del dominio del tiempo
al de la frecuencia, y la antitransformada permite el paso inverso:

∫ f ( t )e
− iωt
f̂ (ω) = dt
−∞


1
f (t) = ∫
2π − ∞
f̂ (ω)e iwt dω

Su aproximación para datos discretos es:

N −1
xˆ ( n ) = ∑ x k e −i 2πnk∆t
k =0
N −1
1
x (t ) =

∑ xˆ e
k =0
k
i 2πnk∆t

En el estudio del viento en la baja capa límite atmosférica, estamos interesados


principalmente en las frecuencias de las fluctuaciones asociadas a remolinos y otras
estructuras vorticosas que conforman la turbulencia.
En el caso del análisis de turbulencia, la función densidad de potencia espectral S(n),
definida para un intervalo discreto de medición T como:

2
xˆ ( n )
ST (n ) = ,
T

representa la contribución de una frecuencia n a la varianza total del espectro. Por lo


tanto, el espectro nos da una idea de cuánto de la varianza de una señal temporal está
asociada a una determinada frecuencia, o a su recíproca, una determinada escala
temporal. La varianza total es (Panofsky and Dutton, 1984):


x ' = σ = 2 ∫ S(n ) dn
2 2
x
0

La figura 28 muestra un espectro de una señal, con distribuciones de energía entre 1 y 3


Hz, entre 2 y 50 Hz, y concentrada en un pico a 50 Hz y picos aislados a otras
frecuencias.
El cálculo de la transformada de Fourier para señales discretas de 2N valores
instantáneos se realiza computacionalmente con el algoritmo conocido como FFT o
“Fast Fourier Transform”.
El cálculo de la distribución espectral de una señal presenta algunas dificultades:

- En principio, el desvío standard del valor calculado para una frecuencia dada,
medida de su dispersión, o incertidumbre, es tan grande como el mismo valor
calculado (Jenkins and Watts, 1968), es decir:

σ xˆ ( n )
≈1
xˆ ( n )

La incertidumbre se reduce dividiendo la señal en Ns segmentos o “bloques” y


promediando los espectros de los Ns bloques. En este caso, el desvío standard se
1
reduce en un factor
Ns

0
10

-1
10

-2
10

-3
10

-4
10

-5
10

-6
10
0 1 2 3
10 10 10 10

Figura 28 Ejemplo de espectro de una señal

- Para una señal adquirida con una frecuencia de muestreo fs, la máxima frecuencia
del espectro que puede interpretarse en forma unívoca es la frecuencia de Nyquist,
fs/2. La señal debe ser procesada con un filtro pasa-baja que elimine frecuencias más
altas, para evitar el fenómeno de “aliasing” o aparición de falsos valores de espectro
en bajas frecuencias. La figura 29 muestra este efecto: al muestrear (marcas x) una
señal (línea continua) con una frecuencia de muestreo muy baja, se genera un “alias”
o señal fantasma de baja frecuencia (línea punteada), inexistente en la señal
original, que distorsiona el espectro real.
1 1
- La resolución del espectro está dada por ∆f = = . Una vez especificada la
T N∆t
frecuencia de muestreo 1/∆t, la resolución del espectro depende del tamaño del
registro, N. Si se esperan picos de anco de banda pequeños, N debe ser lo
1
suficientemente grande para que ∆f = pueda captarlos con buena resolución.
N∆t

Figura 29 Muestreo a una frecuencia inferior a la frecuencia de Nyquist.

- Cuando se utiliza una muestra finita de una señal, durante un tiempo T,


implícitamente se involucra una ventana rectangular que multiplica a la señal en el
dominio del tiempo. La muestra finita es matemáticamente el equivalente a
multiplicar una señal de duración infinita por una función (“ventana”) w(t) que vale
1 entre 0 y T y 0 para los demás valores de t. Ello significa, por propiedades de la
transformación de Fourier, que en el dominio de la frecuencia se produce la
convolución entre el espectro de la señal y el espectro de la ventana rectangular (ver
p. ej. Schwartz and Shaw, 1975). Dicha convolución produce dispersión de la
energía de la señal en componentes adyacentes de frecuencia debido a la presencia
de lóbulos laterales en el espectro de la ventana rectangular (Figura 30a). Debido a
esta dispersión, la amplitud de las componentes senoidales que se desee examinar
difiere de su valor real. Para reducir la interferencia de estas frecuencias, se utilizan
otras funciones “ventana”. Una de uso extendido, utilizada en este trabajo, es la
llamada ventana de Hanning:

1 2πt 2 πt
 2 (1 − cos T ) = 1 − cos T 0≤t≤T

w H (t) = 
0 en otro caso

Los lóbulos laterales del espectro de esta ventana son de menor amplitud que los de
la ventana rectangular. Sin embargo, su lóbulo principal es mayor, de forma que se
reduce la resolución de la FFT (figura 30b). En la elección de la ventana existe
entonces un compromiso entre la resolución requerida y el grado de distorsión
permitido.

Figuras 30 a y 30 b Ventana rectangular implícita al analizar un intervalo finito (0,


T), y ventana de Hanning para el mismo intervalo.

26) Análisis en tiempo-frecuencia (o tiempo-escala): Wavelets

Desde las primeras publicaciones sobre wavelets de Meneveau (1991) y Farge (1992) el
número de trabajos que aplican esta herramienta en estudios de turbulencia ha crecido
incesantemente.
La transformada wavelet continua se define para funciones f(t) reales de cuadrado
integrable como:
+∞
1  t −τ 
Ws ,τ ( f ) =

1 ∫ f (t )ψ  s 
dt
2 −∞
s

es decir, la convolución de la señal f(t) con una función Ψ (la “wavelet”) de escala s y
localización temporal (o espacial, según el caso) τ. La función ψ debe tener valor medio
nulo y estar localizada tanto en tiempo como en el espacio de la frecuencia, para que la
transformación sea invertible.
Esta transformación constituye una herramienta atractiva para descomponer una serie
temporal en el espacio bidimensional tiempo-frecuencia, brindando la posibilidad de
estudiar no sólo los modos de variación dominantes en la señal, sino también cómo
éstos cambian en el tiempo. Produce un mapeo de la señal analizada en un plano τ
(tiempo)-s (escala), con cierta redundancia de la información. Valores altos de Ws,τ(f)
implican una alta correlación o similitud entre f(t) y Ψ en el instante τ y en la escala s.
Según la forma de la wavelet pueden entonces detectarse eventos como rampas,
máximos locales, frentes de cambio, etc (Dunyak et al., 1998).
La figura 31 muestra la wavelet utilizada en el presente trabajo: la segunda derivada
(g2) de la función normal de Gauss cambiadas de signo, conocida también como
"Mexican hat". Su expresión analítica general es:
x2

Ψ ( x ) = C.e 2
(1 − x 2 )

donde C es una constante de normalización.


Cambiando la escala s y la ubicación temporal (o espacial) τ, obtenemos una familia de
wavelets, como muestra la figura 31

Figura 31 Familia de wavelets para “mexican hat”

El “mapa” o gráfico de wavelets es una representación gráfica de la transformada para


distintos valores de s y τ. Valores altos de la transformada indican el efecto combinado
de una fluctuación importante de la señal f en el instante τ, con una escala temporal s, a
partir de una alta correlación entre la forma de la señal y la wavelet. Por su forma
simétrica, la Mexican hat es apta para detectar mínimos y máximos locales de la señal
en la escala correspondiente. Esta característica debe tenerse en cuenta al analizar el
gráfico.

Esta posibilidad de detectar eventos aislados (algo que el análisis de Fourier no puede
hacer) se logra al precio de reducir la resolución espectral: tanto la localización
temporal como la escala de los eventos se obtienen con cierta dispersión (ver, p. ej.
Daubechies 1992). Como ejemplo, en la figura 32 se muestra el mapa de wavelets de
una señal u(t): se identifican eventos energéticos en las escalas de 3 segundos (en t ~10
s y 20 s) y de 0.3 segundos.
Figura 32 Mapa de wavelets de una señal u(t)

Referencias:

- Bruun, H. H., 1995. Hot wire anemometry, Oxford University Press, 507 p.
- Bendat J. S. and Piersol, A. G., 1986, Random Data: Analysis and Measurement
Procedures, 2nd ed. John Wiley & Sons , New York.
- Castro, I. P. 1989, An Introduction to the Digital Analysis of Stationary Signals.
Adam Hilger, Bristol
- Dunyak J., Gilliam X., Peterson R., Smith D. 1998. Coherent gust detection by
wavelet transform, J. of Wind Engineering and Industrial Aerodynamics 77 & 78,
pp 467-478.
- Daubechies I., 1992: Ten Lectures on Wavelets, Society for Industrial and Applied
Mathematics
- Jenkins J. M. and Watts D. G., 1968. Spectral Analysis and its Applications, Holden
Day,San Franciso.
- Kaimal J. C and Finnigan J. J., Atmospheric Boundary Layer Flows, 1994, Oxford
University Press
- Lomas C. G., Fundamentals of Hot Wire Anemometry, 1986, Cambridge University
Press
- Panofsky H. A. and Dutton, J. A., 1984, Atmospheric Turbulence. Models and
Methods for Engineering Applications, John Wiley & Sons, New York, 397 pp.
- Schwartz M. and Shaw L., 1975, Signal Processing, McGraw Hill, 396 pp.
- Tennekes H. and Lumley, J. L., 1972, A First Course in Turbulence, MIT Press,
Cambridge, Massachussets
- Hussain A. K. M. F.1986.Coherent structures and Turbulence Journal of Fluid Mech.
173, pp303-356.
- Robinson S, K, (1991), Coherent Motions in the Turbulent Boundary Layer. Ann,
Rev, Fluid Mech. 23. pp 601-639.
- McWilliams, J.C., and Weiss, J.B., (1994). Anisotropic Geophysical Vortices,
CHAOS, 4, 305-311.
- Babiano, A., Bo_etta, G., Provenzale, A., and Vulpiani, A., (1994). Chaotic
advection in point vortex models and 2D turbulence, Phys. Fluids, 6, 2465-2474.
- Raupach M. R., Finnigan, J.J. and Brunet Y (1996): Coherent eddies and turbulence
in vegetation canopies: the mixing layer analogy, Boundary-Layer Meteorology 78:
351-382
- Finnigan J. (2000): Turbulence in plant canopies, Ann. Rev. of Fluid Mechanics 32:
519-571
- Couder Y and Basdevant C. 1986 Experimental and numerical study of vortex
couples in two-dimensional flows. Journal of Fluid Mechanics 173, pp. 225 - 251.
- Fouillet Y. 1992. Contribution a l etude par experimentation numerique des
ecoulements cisailles libres. Effets de compressibilite. These. Universite de
Grenoble.
- Jeong G., & Hussain F. (1995).On the identification of a vortex. Journal of Fluid
Mechanics 285, pp: 69-94.
- Soldati A. And Monti R. (2001). Turbulence Modulation and Control. Springer
Verlag, Wien.
- Robinson, S.K.; Coherent motions in the turbulent boundary layer. Annual Reviews
of Fluid Mechanics, Vol. 23, pp. 601-639, 1991.
- Kline, S.J., Reynolds, W.C., Schraub, F.A., and Runstadler, P.W.; The structure of
turbulent boundary layers. Journal of Fluid Mechanics, Vol. 30, pp. 741-773, 1967.
- Hinze, J.O.; Turbulence. 2nd edition, McGraw-Hill, 1975.
- Jimenez, J. & Pinelli, A. (1999) The autonomous cycle of near wall turbulence, J.
Fluid Mech. 389, 335 - 359.
- Jimenez, J. & Simens, M. P. (2001) Low-dimensional dynamics in a turbulent wall,
J. Fluid Mech. 435, 81, 91.

Dres.: Ulfilas Boldes, Jorge Colman Lerner


Julio Marañón Di Leo y Ana Scarabino

You might also like