You are on page 1of 5

TALLER 2

INSTRUMENTACION INDUSTRIAL

1. FUENTES DE ERROR EN INSTRUMENTOS


 Fallas del elemento sensor primario para reflejar la cantidad
medida. Como ejemplo tenemos el caso de la unión de un termopar
que está corroída o floja, lo que ocasiona pérdidas de radiación o
conducción que dan como resultado que la temperatura de la unión
sea diferente de la temperatura que la rodea
 Fallas en la parte secundaria o indicadora del instrumento que
ocasionan que la respuesta del elemento sensor no sea
reflejada fielmente. Como ejemplo tenemos un potenciómetro que
da una indicación incorrecta cuando se alimenta de un termopar,
debido a una estandarización inapropiada, un desajuste, o un mal
funcionamiento de sus componentes ya sean eléctricas o
mecánicas
 Fallas del observador para obtener correctamente las
indicaciones de los instrumentos. Como ejemplo tenemos el
caso de una persona que lee incorrectamente la escala de la
carátula de un potenciómetro.

2. Cuando vamos a hacer uso de un instrumento de medición como un


multímetro debemos tener en cuenta algunas medidas para la protección
personal como las siguientes:
 Inspeccionar las condiciones de la carcasa que no se encuentre
deteriorada o que falte alguna parte en su defecto
 Revisar el aislamiento alrededor de los conectores
 Inspeccionar los cables de prueba que no tenga posibles daños en el
aislante o que tenga partes metálicas expuestas
 Debemos tener en cuenta que la cantidad a medir este dentro del rango
posible a ser medido de lo contrario podríamos poner en riesgo nuestra
integridad física
 Antes de hacer la medición tener en cuenta que el instrumento se
encuentre en ceros para evitar posibles errores a la hora de hacer la
adquisición de datos
Más que los instrumentos del laboratorio, hemos utilizado los instrumentos
en el trabajo y considero que los hemos venido utilizando de una forma
adecuada ya que antes de usarlos debemos tener en cuenta algunas
recomendaciones que se encuentran plasmadas en el instructivo de trabajo
y esto reduce la posibilidad de error causada por el operario
3. TRANSMISOR

Un transmisor es un instrumento que capta la variable en proceso y la


transmite a distancia a un instrumento indicador o controlador; pero
en realidades eso y mucho más, la función primordial de este dispositivo
es tomar cualquier señal para convertirla en una señal estándar adecuada
para el instrumento receptor, es así como un transmisor capta señales
tanto de un sensor como de un transductor, aclarando siempre que todo
transmisor es transductor más no un transductor puede ser un transmisor;
como ya sabemos las señales estándar pueden ser neumáticas cuyos
valores están entre 3 y 15 Psi, las electrónicas que son de 4 a 20 mA o de
0 a 5 voltios Dc, las digitales que entregan 0 o 5 voltios para 0 o1
respectivamente. Así un circuito de realimentación variando la corriente de
salida en forma proporcional al intervalo de la variable del proceso.

4. DIFERENCIA ENTRE TRANSDUCTOR Y TRANSMISOR

La diferencia reside principalmente en la amplificación de la señal. Un


transductor emite señales sin amplificar como 2 mV o 10 mV. Normalmente
se trata de un producto para OEM, adaptada a la aplicación concreta y
fabricado en grandes cantidades. En muchos casos es el cliente que realiza
la amplificación de señal para su posterior transmisión a la unidad de
indicación y/o control. La tarea de un transmisor en cambio consiste en
amplificar dicha señal y convertirla en una señal estandarizada y habitual
en la industria como por ejemplo 4…20 mA o a veces 0…10 V. Se trata de
un dispositivo estandarizado compuesto por sensor, conexión a proceso,
conexión eléctrica y caja de protección.

5. FUENTES DE ERROR EN UN CONTROL DE PROCESOS


 mala programación
 que los dispositivos estén descalibrados
 una sobretensión

6. CARACTERISTICAS QUE CAUSAN RETARDO EN UN CONTROL DE


PROCESOS

 Falta de energía
 Cambios de temperatura
 Falta de aire de instrumentos
 Cambios repentinos en el proceso
7. ASPECTOS RELEVANTES DE LA CURVA DE CALIBRACION

Algunos de los aspectos más relevantes a tener en cuenta en una curva


de calibración son
 El campo o margen de medida; que es el conjunto de valores
comprendidos entre los límites superior e inferior entre los cuales se
puede efectuar la medida.
 Alcance o fondo de escala; es la diferencia entre los limites superior
e inferior de medida
 Salida a fondo de escala; es la diferencia entre las salidas para los
extremos del campo de medida
 Sensibilidad; que es la pendiente de la curva de calibración. Si esta
es una recta la sensibilidad es constante y se dice que es el sistema
o el sensor es lineal
 No linealidad; es la máxima desviación de la curva de calibración con
respecto a la línea recta por la que se ha aproximado
 Zona muerta; Es el campo de valores de la variable que no hace
variar la indicación, también se define como la región de la curva de
calibración que presenta una sensibilidad nula
 Histéresis; Es la diferencia en la medida dependiendo del sentido en
el que se ha alcanzado. Un mismo valor de la magnitud de entrada
puede provocar salidas diferentes dependiendo del sentido en el que
se haya modificado la entrada (creciente o decreciente) hasta alcanzar
dicho valor.
 Deriva; Es la variación de algún aspecto de la curva de calibración
con respecto a algún parámetro ambiental (Temperatura, Humedad)
siempre que el parámetro no sea el objeto de la medida.

8. El error que se disminuye realizando un proceso adecuado de calibración y


ajuste es el error sistemático: Este error se origina esencialmente por una
deficiente calibración del instrumento en relación al patrón. Los errores
sistemáticos se pueden reducir al mínimo comparando la escala del
instrumento con los valores proporcionados por patrones conocidos. (O
midiendo la misma magnitud con instrumentos diferentes). Un error
sistemático típico es el corrimiento del cero del instrumento, denominado
error de entrada: el instrumento no marca cero cuando la magnitud medida
es nula. Ese valor ficticio se añadirá o restará posteriormente al de la
magnitud medida, introduciendo un error que puede ser significativo. El error
de entrada se puede eliminar ajustando correctamente el cero del
instrumento antes de efectuar la medición.
9. IMPORTANCIA DE LA INSTRUMENTACION EN EL CONTROL DE
PROCESOS
Porque los instrumentos son capaces de cuantificar y de ver lo que el hombre
no es capaz de ver, la instrumentación y el control están fuertemente ligados
y comparten algunos criterios de diseño. La Instrumentación y Control de
Procesos Industriales tiene como propósito fundamental el análisis, diseño y
automatización de procesos en diversos sectores de la industria tales como
Generación Eléctrica, Alimenticia, Hidrocarburos, Petroquímica, Pulpa y
Papel. La importancia de la Instrumentación y Control de Procesos
Industriales se ha incrementado con la necesidad de ofrecer soluciones de
optimización de procesos productivos con la capacidad garantizar la
confiabilidad de los mismos.

10. IMPORTANCIA DE REPETIBILIDAD Y REPRODUCIBILIDAD

La repetibilidad: Es un parámetro que evalúa la precisión del resultado de


las mediciones y tiene en cuenta al operario. Si un operario obtiene
resultados cercanos al valor verdadero y además la dispersión es pequeña,
las mediciones tienen una buena repetibilidad
La reproducibilidad: Evalúa la precisión del resultado de las mediciones y
tiene en cuenta el método. Si operarios distintos, obtienen resultados
cercanos al valor verdadero y la dispersión es pequeña, las mediciones
tienen una buena reproducibilidad.
Las condiciones de repetibilidad y reproducibilidad se refieren a que las
mediciones se hagan bajo condiciones bien establecidas y controladas:
ambiente, instrumento, método documentado, calibración, etc...
Es importante notar que la repetibilidad y reproducibilidad son muy
importantes porque tienen en cuenta el desempeño de un instrumento en
manos del operario y en condiciones de operación. La exactitud y la precisión
sólo evalúan el instrumento en condiciones controladas de calibración y en
manos de un experto.

11. EXACTITUD DE UN INSTRUMENTO

La exactitud depende de los errores sistemáticos que intervienen en la


medición, denotando la proximidad de una medida al verdadero valor y, en
consecuencia, la validez de la medida.

Suponiendo varias mediciones, no estamos midiendo el error de cada una,


sino la distancia a la que se encuentra la medida real de la media de las
mediciones (cuán calibrado está el aparato de medición). Esta cualidad
también se encuentra en instrumentos generadores de magnitudes físicas,
siendo en este caso la capacidad del instrumento de acercarse a la magnitud
física real.

Exactitud es la cercanía del valor experimental obtenido, con el valor exacto


de dicha medida. El valor exacto de una magnitud física es un concepto
utópico, ya que es imposible conocerlo sin incertidumbre alguna. Por
ejemplo, si leemos la velocidad del velocímetro de un auto, esta tiene una
precisión de 3 cifras significativas y una exactitud de 5 km/h.

12. TIPOS DE ERRORES PRESENTADOS EN UNA MEDICIÓN


 Error absoluto
 Error relativo
 Error de lectura
 Error de escala
 Error de cero
 Error de indicación
 Error estático
 Error dinámico

You might also like