You are on page 1of 181

CENTRO DE INVESTIGACIN Y DE ESTUDIOS AVANZADOS

DEL INSTITUTO POLITCNICO NACIONAL




DEPARTAMENTO DE CONTROL AUTOMTICO




Modelacin y Optimizacin del Mezclado de
Petrleo Crudo con Redes Neuronales




TESIS QUE PRESENTA EL:
Ing. Rubio Avila Jos de Jess




PARA OBTENER EL GRADO DE
MAESTRO EN CIENCIAS




EN LA ESPECIALIDAD DE
CONTROL AUTOMTICO




DIRECTORES DE TESIS:
Dr. Wen Yu Liu
Dra. Amrica Morales Daz




Mxico, D.F.
Febrero del 2004.


AGRADECIMIENTOS

Al CONACyT por haberme otorgado una beca econmica para la realizacin de este documento.
Al Departamento de Control Automtico del Centro de Investigacin y de Estudios Avanzados
del Instituto Politcnico Nacional: muy en especial al Departamento de Control Automtico por
darme la oportunidad de pertenecer al programa de Maestra en Ciencias y por albergame en estos
ltimos aos, en los cuales se me ha preparado para ser un profesional comprometido con el
desarrollo de Mxico. A los profesores por su indeleble labor dentro y fuera de las aulas y a mis
condiscpulos con quienes compart momentos agradables de estudio, de trabajo, de
esparcimiento, pero realmente por un compaerismo desinteresado.
A mi asesor Wen Yu Liu por su confianza, por su comprensin, por su apoyo y por brindarme su
asesoramiento y direccin para organizar y mejorar el presente trabajo, sin usted no habra podido
desarrollar el presente trabajo ya que me gui desde el principio hasta el final, para adquirir y
entender mejor los conceptos.
A mi asesora del Instituto Mexicano del Petrleo Amrica Morales Daz por sus consejos y apoyo
moral durante el desarrollo de este trabajo.
A los compaeros tanto contratados como becarios del Departamento en el Instituto Mexicano del
Petrleo por brindarme su amistad desinteresada.
A mis ex profesores Moiss Bonilla Estrada, Alexander S. Pozniak Gorbatch, Rubn Alejandro
Garrido Moctezuma y Ieroham Salomn Barouh por los conocimientos brindados los cuales
fueros fundamentales para no partir de cero en el desarrollo de ste documento.
A mis padres Ignacio Rubio Morales y Rosala Avila Palomo, para quienes sus hijos son la
esencia de su vida, su dicha. Quienes consideran que su esfuerzo y sacrificio no ha sido
infructuoso. A ustedes que adems de privarse de muchas cosas para otorgarlas a nosotros nos
han proporcionado algo ms importante: su amor, su ternura, su comprensin, e inolvidables
momentos de felicidad, nos han hecho sentir sus deseos de superacin, su firmeza, su humildad,
pero sobre todo a sentirnos comprometidos con nosotros mismos y con mis objetivos. A quienes
la ilusin de su existencia ha sido vernos convertidos en personas de provecho, para ellos nuestros
logros, tengo la fortuna de ser su hijo.
A mis hermanos ngel y Alma Sonia con quienes he tenido la dicha de compartir mi vida, los
momentos ms agradables y los ms difciles, a ustedes que han soportado a veces mi conducta
hostil, a ustedes que me han apoyado, por su confianza, por su ejemplo.
A mis amigos Andrs, Jos y Agustn por nuestra enorme amistad, sincera, leal y desinteresada,
por la aventura de habernos conocido, por que siempre han estado para apoyarme en los
momentos ms difciles de mi existencia.
A todos mis familiares.
A las personas mencionadas Gracias.

ndice general
1. Introduccin 1
1.1. Motivacin del tema de tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2. Objetivo de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Contenido de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2. Redes neuronales y optimizacin 11
2.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2. Redes neuronales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.1. Modelos de las redes neuronales . . . . . . . . . . . . . . . . . . . . . 12
2.2.2. Redes neuronales en identicacin . . . . . . . . . . . . . . . . . . . . 16
2.2.3. Algoritmo de propagacin hacia atrs (Backpropagation) . . . . . . . 16
2.3. Tcnicas de optimizacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.1. Problemas de programacin . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.2. Optimizacin sin restricciones (Deniciones y teoremas) . . . . . . . . 21
2.3.3. Optimizacin con restricciones de igualdad . . . . . . . . . . . . . . . 22
2.3.4. Optimizacin con restricciones de desigualdad . . . . . . . . . . . . . 27
3. Modelos matemticos del proceso de mezclado de petrleo crudo 33
3.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2. Modelos de las propiedades estticas de mezclado . . . . . . . . . . . . . . . 34
3.2.1. Relacin de propiedad para sistemas de composicin variable . . . . . 34
ii NDICE GENERAL
3.2.2. Propiedades molares parciales . . . . . . . . . . . . . . . . . . . . . . 35
3.2.3. Soluciones ideales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.4. Cambio de las propiedades de una mezcla (actividad) . . . . . . . . . 37
3.3. Modelos de las propiedades dinmicas de mezclado . . . . . . . . . . . . . . 40
3.3.1. Modelo 1. En funcin de la altura en el tanque . . . . . . . . . . . . . 40
3.3.2. Modelo 2. En funcin de la densidad y del volumen en el tanque . . . 45
3.4. Modelos del mezclado de petrleo crudo . . . . . . . . . . . . . . . . . . . . 48
3.4.1. Regla de mezclado para petrleo crudo . . . . . . . . . . . . . . . . . 48
3.4.2. Proceso de mezclado que incluye diferentes tipos de nodos . . . . . . 51
3.4.3. Modelo distribuido . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.4. Modelo agregado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4. Modelacin del mezclado de petrleo crudo va redes neuronales y datos
reales 57
4.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2. Least square (LS) para identicar los parmetros del mezclado de petrleo
crudo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.3. Redes neuronales para identicar los parmetros del mezclado de petrleo crudo 61
4.4. Obtencin de los datos desde una base de datos reales . . . . . . . . . . . . . 66
4.5. Modelacin del modelo distribuido . . . . . . . . . . . . . . . . . . . . . . . 72
4.5.1. Identicacin de parmetros va least square . . . . . . . . . . . . . . 72
4.5.2. Identicacin va redes neuronales para el modelo completo . . . . . . 77
4.5.3. Identicacin va redes neuronales para la parte no lineal . . . . . . . 84
4.6. Modelacin del modelo agregado . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.6.1. Identicacin de parmetros va least square . . . . . . . . . . . . . . 90
4.6.2. Identicacin va redes neuronales para el modelo completo . . . . . . 92
4.6.3. Identicacin va redes neuronales para la parte no lineal . . . . . . . 96
4.7. Conclusin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
NDICE GENERAL iii
5. Optimizacin de petrleo crudo va redes neuronales y actualizacin de
datos (bias updating) 103
5.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.2. Optimizacin del mezclado de petrleo crudo con redes neuronales y un es-
quema de actualizacin (bias updating) . . . . . . . . . . . . . . . . . . . . . 104
5.2.1. Optimizacin del mezclado petrleo crudo con un esquema de actual-
izacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
5.2.2. Optimizacin fuera de lnea del mezclado de petrleo crudo con redes
neuronales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.3. Anlisis de robustez del controlador con redes neuronales para mezclado . . . 110
5.3.1. Anlisis de robustez del controlador . . . . . . . . . . . . . . . . . . . 110
5.3.2. Anlisis de robustez del controlador optimizante con redes neuronales 119
5.4. Simulacin de la optimizacin fuera de lnea del mezclado de crudo con redes
neuronales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.4.1. Obtencin de los datos y algoritmo empleado . . . . . . . . . . . . . 120
5.4.2. Optimizacin del modelo distribuido . . . . . . . . . . . . . . . . . . 123
5.4.3. Optimizacin del modelo agregado . . . . . . . . . . . . . . . . . . . 132
5.5. Conclusin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
6. Conclusiones 141
A. Simulacin con GUI 145
A.1. Estructura del GUI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
A.1.1. Entrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
A.1.2. Salida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
A.1.3. Simulador de las redes neuronales y del controlador optimizante . . . 147
B. Mtodo Simplex 151
B.1. Forma estndar de un problema de programacin lineal . . . . . . . . . . . . 151
B.2. Algoritmo simplex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
iv NDICE GENERAL
B.3. Identicando un punto ptimo . . . . . . . . . . . . . . . . . . . . . . . . . . 155
B.3.1. Mejorando una solucin factible bsica no ptima . . . . . . . . . . . 155
B.4. Las dos fases del mtodo simplex . . . . . . . . . . . . . . . . . . . . . . . . 157
C. Modelos matemticos del proceso de mezclado de gasolina 161
C.1. Nmero de octanos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
C.1.1. Mtodo ideal del nmero de octanos mezclados . . . . . . . . . . . . 162
C.1.2. Mtodo Ethil RT-70 . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
C.1.3. Mtodo Steward . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
C.1.4. Mtodo de Iteracin . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
C.1.5. Mtodo en exceso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
C.1.6. Mtodo Zahed . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
C.2. Presin de Vapor Reid . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
C.2.1. Mtodo de Iteracin . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
C.2.2. Mtodo de mezcla indexada . . . . . . . . . . . . . . . . . . . . . . . 169
C.3. Destilacin ASTM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
C.3.1. Mtodo de Iteracin . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
C.3.2. Modelos empricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
ndice de guras
1.1. Controlador optimizante comercial para el mezclado de petrleo crudo . . . . 5
1.2. Controlador optimizante con redes neuronales para el mezclado de petrleo
crudo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Diagrama a bloques de los tpicos del documento . . . . . . . . . . . . . . . 9
2.1. Modelo no-lineal de una neurona . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2. Perceptrn multicapa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.1. Propiedades dinmicas del ujo en el tanque . . . . . . . . . . . . . . . . . . 40
3.2. Altura y su derivada en el tanque . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3. Densidad y Volumen en el buque tanque . . . . . . . . . . . . . . . . . . . . 47
3.4. Mezcla homognea de m componentes . . . . . . . . . . . . . . . . . . . . . . 49
3.5. Etapa de mezclado de la industria petrolera nacional . . . . . . . . . . . . . 51
3.6. Representacin distribuida del proceso de mezclado . . . . . . . . . . . . . . 54
3.7. Representacin agregada de la etapa de mezclado . . . . . . . . . . . . . . . 55
4.1. Modelos de identicacin del mezclado de petrleo crudo . . . . . . . . . . . 58
4.2. Comunicacin Excel-Matlab . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.3. Densidad a la salida del mezclador 1 . . . . . . . . . . . . . . . . . . . . . . 71
4.4. Densidad de salida del modelo agregado . . . . . . . . . . . . . . . . . . . . 71
4.5. Least square para el mezclador 1 . . . . . . . . . . . . . . . . . . . . . . . . 74
4.6. Least square para el mezclador 2 . . . . . . . . . . . . . . . . . . . . . . . . 75
vi NDICE DE FIGURAS
4.7. Least square para el mezclador 3 . . . . . . . . . . . . . . . . . . . . . . . . 76
4.8. Red neuronal para el modelo completo del mezclador 1 . . . . . . . . . . . . 80
4.9. Red neuronal para el modelo completo del mezclador 2 . . . . . . . . . . . . 81
4.10. Red neuronal para el modelo completo del mezclador 3 . . . . . . . . . . . . 83
4.11. Red neuronal para la no linealidad del mezclador 1 . . . . . . . . . . . . . . 86
4.12. Red neuronal para la no linealidad del mezclador 2 . . . . . . . . . . . . . . 87
4.13. Red neuronal para la no linealidad del mezclador 3 . . . . . . . . . . . . . . 89
4.14. Least square para el modelo agregado . . . . . . . . . . . . . . . . . . . . . . 91
4.15. Red neuronal para el modelo completo del modelo agregado . . . . . . . . . 95
4.16. Red neuronal para la no linealidad del modelo agregado . . . . . . . . . . . . 98
5.1. Diagrama de la optimizacin fuera de lnea del mezclado de crudo con nn . . 108
5.2. Optimizacin para el modelo completo del Mezclador 1 . . . . . . . . . . . . 125
5.3. Optimizacin para el modelo completo del Mezclador 2 . . . . . . . . . . . . 126
5.4. Optimizacin para el modelo completo del Mezclador 3 . . . . . . . . . . . . 128
5.5. Optimizacin para la no linealidad del Mezclador 1 . . . . . . . . . . . . . . 130
5.6. Optimizacin para la no linealidad del Mezclador 2 . . . . . . . . . . . . . . 131
5.7. Optimizacin para la no linealidad del Mezclador 3 . . . . . . . . . . . . . . 133
5.8. Optimizacin para el modelo completo del Modelo Agregado . . . . . . . . . 135
5.9. Optimizacin para la no linealidad del Modelo Agregado . . . . . . . . . . . 137
A.1. GUI en la opcin de la red neuronal para la no linealidad del mezclador 2 . 149
A.2. GUI en la opcin del controlador optimizante para el modelo completo del
modelo agregado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
Captulo 1
Introduccin
Las operaciones de mezclado son muy comunes en las industrias petroqumicas, ce-
menteras, de renacin, etc. La operacin consiste en obtener una mezcla de dos o ms
componentes con diferentes propiedades a una especicacin requerida como son temperatu-
ra, densidad, ujo, etc. El control de estas operaciones se considera un punto muy importante
dentro de este tipo de industrias, ya que su rentabilidad depende de estas operaciones. Por
ejemplo, en la industria petrolera nacional se ha visto que realizar de manera constante las
operaciones de mezclado de petrleo crudo con tcnicas de control avanzadas podra garan-
tizar condiciones favorables y reportar benecios econmicos muy importantes, como en el
caso del crudo ligero de exportacin [1].
Es muy comn que las propiedades de los componentes a mezclar varen de una manera
indeterminada y que las reglas de mezclado utilizadas contengan trminos no lineales sin mod-
elar, llevando a un modelo inadecuado del proceso y como consecuencia que el controlador no
encuentre el punto de operacin ptimo. Para garantizar las especicaciones requeridas en
una operacin de mezclado y manejar incertidumbres en el modelo se ha propuesto utilizar
un controlador retroalimentado llamado controlador optimizante [1].
2 Introduccin
1.1. Motivacin del tema de tesis
El mezclado de petrleo crudo es una operacin de optimizacin basada en una gran can-
tidad de conocimiento y experiencia. Las propiedades de crudo ptimas son proporcionadas
por los modelos de renera que denen el empleo ptimo de las unidades de torrente para
varios tipos de crudo.
Se han desarrollado muchos controladores optimizantes de petrleo crudo basados sobre
la tcnica de programacin lineal [4]. En general, la regla de mezclado es no lineal, un mto-
do alternativo es adicionar un trmino de correccin (incertidumbre) a la regla de mezclado
lineal. Un esquema de actualizacin (bias updating) es una herramienta que resuelve el prob-
lema de la optimizacin en tiempo real, la principal desventaja del esquema de actualizacin
es que requiere de la obtencin de las propiedades de mezclado a travs de la medicin de
los datos en lnea, pero, algunas veces se necesita la optimizacin fuera de lnea, por ejem-
plo cuando se espera encontrar la fraccin de ujo ptima a la entrada basada sobre datos
histricos, el control fuera de lnea es til para supervisin y control.
Se han desarrollado una gran cantidad de algoritmos numricos para resolver el problema
de optimizacin usando la computadora, tales como el Toolbox de Optimizacin de Matlab,
la principal desventaja de stos algoritmos es que generalmente convergen lentamente. Un
mtodo alternativo es emplear un circuito elctrico dedicado el cual simule la funcin objetivo
y las restricciones.
Se han propuesto recientemente muchas tcnicas de control avanzado para mejorar las
propiedades de mezclado de petrleo crudo, todos stos modelos requieren de un buen mod-
elo de la operacin de mezclado, pero es muy complejo manejar analticamente el modelo
matemtico exacto del mezclado de petrleo crudo y por lo tanto se hicieron muchos inten-
tos para introducir un modelo simplicado. Un mtodo comn de aproximar la operacin de
mezclado es usar un modelo lineal (ideal) el cual tiene una pequea incertidumbre ya que en
la prctica la mayora de los modelos de mezclado ideales son no lineales.
Para los ingenieros es muy importante un modelo real para el mezclado de petrleo crudo
basado sobre los datos de operacin. Resultados recientes muestran que la tcnica de redes
1.1 Motivacin del tema de tesis 3
neuronales es muy efectiva para modelar gran cantidad de sistemas no lineales cuando no se
tiene informacin completa del modelo, pero, debido a la carencia de un modelo matemtico
de la planta se tiene la necesidad de probar la estabilidad del aprendizaje del modelo neuro,
por esta razn es muy importante tener un resultado terico que asegure de la estabilidad
del modelo neuro.
Foxboro propone un controlador optimizante comercial con un control PID para el mez-
clado de petrleo crudo, (ver Figura 1.1) [4].
Hay varios problemas para el esquema de control propuesto en la Figura 1.1 entre los
cuales destacan los siguientes:
1. Para producir los puntos de operacin emplea el algoritmo de programacin lineal el
cual considera datos lineales, pero el modelo real tiene una no linealidad de los datos
que vara entre el 10 % y el 20 %.
2. El controlador optimizante de Foxboro tiene una nica etapa de mezclado, ste tiene
que considerar los tres procesos de mezclado en serie de la Figura 1.1 como un solo
mezclador.
3. El algoritmo del controlador optimizante de Foxboro es un analizador NMR (de reso-
nancia magntica nuclear) el cual no es exible y por lo tanto no se puede modicar.
En este proyecto se propone un nuevo esquema de control mostrado en la Figura 1.2.
El controlador optimizante empleado est compuesto por un conjunto de subsistemas,
como se muestra en la Figura 1.2 y su forma de operar se describe en los siguientes pasos:
1. Datos. En este paso el controlador toma lecturas de los datos en un intervalo de tiempo
para actualizar el modelo que lo representa. Es muy comn que los datos se analizen
para evitar la presencia de datos errneos.
2. Modelo. Se pueden emplear el modelo Least Square o el modelo de Redes Neuronales
para una estimacin del comportamiento del proceso, con esto se evita el usar un
modelo matemtico ya que el modelo matemtico puede introducir mas errores que el
emplear uno de los modelo citados [6][8].
4 Introduccin
3. Actualizacin del modelo. Los datos obtenidos se utilizan para actualizar los parmet-
ros en el modelo del proceso. Se utilizan tcnicas de estimacin para los parmetros
que no estn disponibles, las tcnicas son Least Square o Redes Neuronales.
4. Optimizacin. Una vez actualizado el modelo del proceso. Si se requiere, se utilizan
tcnicas de estimacin para obtener las nuevas referencias que utilizarn los contro-
ladores. Los principales algoritmos de optimizacin utilizados son los algoritmos de
programacin lineal (LP) y no lineal (NLP) [11][20]. En algunas ocasiones, los resulta-
dos de la optimizacin son examinados antes de enviarlos a los controladores para una
operacin ptima del proceso.
5. Control. Los resultados de la optimizacin son utilizados por los controladores para
aplicarlos al proceso. Los controladores pueden ser lineales, PI, PID o incluso tcnicas
avanzadas como el control predictivo [19].
1.2. Objetivo de la tesis
El objetivo de esta tesis es mostrar que el proceso de mezclado de petrleo crudo de la
industria petrolera nacional se pueden mejorar llevando a cabo el siguiente desarrollo:
1. Realizando un anlisis de los modelos distribuido y agregado del proceso de mezclado
de petrleo crudo.
2. Realizando la identicacin va redes neuronales para los modelos distribuido y agre-
gado del proceso de mezclado de petrleo crudo.
3. Aplicando un controlador optimizante con redes neuronales al proceso de mezclado de
petrleo crudo.
Con los puntos anteriores se pretende encontrar una combinacin adecuada de la materia
prima a utilizar tal que se produzca la mezcla de inters a un costo mnimo y al mismo
1.2 Objetivo de la tesis 5
1
q
Mezclador
de crudo 1 2
q
a
q
Mezclador
de crudo 2 3
q
Mezclador
de crudo 3
b
q
4
q
f f
p q ,
Ajustes (punto de operacin de la fraccin de flujo de entrada)
NMR
PID
PID
PID
PID PID
PID
f b a
p p p p p p p , , , , , ,
4 3 2 1
Optimizacin de mezclado (programacin lineal)
Mezclado digital
*
1
q
*
2
q
*
a
q
*
3
q
*
b
q
*
4
q
Puntos de operacin
Figura 1.1: Controlador optimizante comercial para el mezclado de petrleo crudo
6 Introduccin
1
q
Mezclador
de crudo 1 2
q
a
q
Mezclador
de crudo 2 3
q
Mezclador
de crudo 3
b
q
4
q
f f
p q ,
Ajustes (punto de operacin de la fraccin de flujo de entrada), prediccin
PID
PID
PID
PID PID
PID
f b a
p p p p p p p , , , , , ,
4 3 2 1
*
1
q
*
2
q
*
a
q
*
3
q
*
b
q
*
4
q
1.Modelacin va mnimos cuadrodos o redes neuronales
2. Optimizacin fuera de lnea con redes neuronales
3. Prediccin and anlisis de resultados
Datos
histricos
Figura 1.2: Controlador optimizante con redes neuronales para el mezclado de petrleo crudo
1.3 Contenido de la tesis 7
tiempo, que cumpla con las condiciones de calidad requeridas, junto con las restricciones
fsicas del proceso.
1.3. Contenido de la tesis
En este captulo se presenta en que consisten las operaciones de mezclado y su impor-
tancia dentro de las industrias. Se describe la estructura y la forma tpica de operar
de los controladores que comnmente se utilizan para el control de las operaciones de
mezclado.
El captulo 2 presenta un panorama general de las redes neuronales como la descripcin
de los modelos ms comnes de las redes neuronales, las redes neuronales en identi-
cacin y el algoritmo de Backpropagation que es el algoritmo mayormente empleado en
identicacin y tambin es el ms simple [8][9]. Posteriormente se presenta un panora-
ma de la optimizacin en donde lo ms importante son la optimizacin con restricciones
de igualdad donde se describe la solucin por el mtodo de multiplicadores de Lagrange
y la optimizacin con restricciones de desigualdad donde se describen las condiciones
de Kuhn-Tucker [20].
En el captulo 3 se presentan los modelos de la propiedades estticas del mezclado de
petrleo crudo [18]. Mas adelante se presentan dos modelos para el tanque, el modelo
dependiente de la altura y el modelo dependiente de la densidad y del volumen en
el tanque [1][25]. Posteriormente se analizan los procesos de mezclado que contienen
ms de un nodo de mezclado, para los cuales se utilizan el modelo distribuido y el
modelo agregado [1]. En el modelo distribuido, el modelo de mezclado se representa
por puntos de mezclado independientes con un controlador para cada uno, teniendo
solo informacin local del proceso. En el modelo agregado, el proceso de mezclado se
representa como un solo punto de mezclado utilizando solo un controlador el cual tiene
informacin global del proceso. Al nal se presenta como se modelan cada uno de estos
modelos los cuales representan en el proceso de mezclado.
8 Introduccin
En el captulo 4 se presenta como se obtienen los datos reales que se tienen una base
de datos reales en un programa de Excel, se establece la comunicacin para extraer
los datos de Excel con una sentencia de Matlab [22], posteriormente estos datos se
emplean para desarrollar la estimacin del comportamiento del proceso de mezclado
para el modelo agregado y para el modelo distribuido, va Least Square, va Redes
neuronales y se presentan los resultados para cada uno de los casos, por ltimo se
presenta una tabla comparativa que muestra los resultados para cada caso.
En el captulo 5 se presenta como se aplica el controlador optimizante con redes neu-
ronales al proceso de mezclado, para ello en primer lugar se demuestra la robustez del
controlador optimizante [12], despus se demuestra la robustez del controlador opti-
mizante con redes neuronales [26], posteriormente se realiza una comparacin entre el
controlador optimizante que opera fuera de lnea al cual se le introducen datos reales
y el controlador optimizante con redes neuronales que opera fuera de lnea, por ltimo
se presenta una tabla comparativa que muestra los resultados para cada caso.
En el captulo 6 se presentan las conclusiones nales.
En la Figura 1.3 se muestra un diagrama a bloques de la relacin entre los tpicos de
este documento.
1.3 Contenido de la tesis 9
Figura 1.3: Diagrama a bloques de los tpicos del documento
10 Introduccin
Captulo 2
Redes neuronales y optimizacin
2.1. Introduccin
Este captulo presenta un panorama general de las redes neuronales como la descripcin
de los modelos ms comnes de las redes neuronales, las redes neuronales en identicacin y el
algoritmo de Backpropagation que es el algoritmo mayormente empleado en identicacin y
tambin es el ms simple [8][9]. Posteriormente se presenta un panorama de la optimizacin
en donde lo ms importante son la optimizacin con restricciones de igualdad donde se
describe la solucin por el mtodo de multiplicadores de Lagrange y la optimizacin con
restricciones de desigualdad donde se describen las condiciones de Kuhn-Tucker [20].
2.2. Redes neuronales
Un sistema de control tiene la habilidad de aprender si adquiere la informacin durante
la operacin, acerca de comportamientos desconocidos de la planta y su ambiente tal que se
mejora la ejecucin completa. Con este requerimiento del controlador, es posible expandir
la regin de operacin y nalmente la implementacin de sistemas autnomos. Una clase de
modelos que tiene la potencialidad de implementar este aprendizaje son las redes neuronales
articiales. Ciertamente, la morfologa neuronal del sistema nervioso es mucho ms compleja,
12 Redes neuronales y optimizacin
no obstante, se puede desarrollar una analoga simplicada, la cual se podra utilizar en
aplicaciones de ingeniera. Basndose en esta analoga, se pueden desarrollar las estructuras
de las redes neuronales articiales [8].
2.2.1. Modelos de las redes neuronales
Una red neuronal articial (RNA) es un elemento capaz de procesar gran cantidad de
informacin de forma paralela y distribuida, inspirada de las redes neuronales biolgicas,
las cuales pueden almacenar conocimiento y tenerlo disponible para su uso [13]. Esta tiene
algunas similaridades con el cerebro, como lo son:
El conocimiento es adquirido a travs del proceso de aprendizaje.
La conectividad entre neuronas es llamada pesos sinpticos y son utilizados para al-
macenar el conocimiento.
La funcin del proceso de aprendizaje es modicar los pesos sinpticos de las redes neu-
ronales con el objetivo de minimizar una funcin de costo. La modicacin de los pesos
sinpticos es el mtodo tradicional para el diseo e implementacin de las redes neuronales.
La neurona, es la unidad fundamental para la operacin de la red neuronal. La Figura
2.1 muestra el esquema de una red neuronal, el cual esta compuesto por:
1. Un conjunto de uniones sinpticas, con cada elemento caracterizado por su propio peso.
2. Un sumador el cual suma los componentes de la seal de entrada, multiplicados por su
respectivo peso sinptico.
3. Una funcin de activacin no-lineal que transforma la salida del sumador en la entrada
de la neurona siguiente .
Al esquema de la red neuronal tambin se aplica un umbral para reducir la entrada a la
funcin de activacin. En trminos matemticos, la i-sima neurona se puede describir como:
u
i
=
n
X
j=1

ij
x
j
2.2 Redes neuronales 13
(.)

yk uk
Wk1
Wk2
Wkp
x1
x2
xp
Figura 2.1: Modelo no-lineal de una neurona
y
i
= (u
i

i
) (2.1)
donde:
x
j
j-simo componente de la entrada.

ij
peso de la conexin entre la j-sima componente de la entrada y la i-sima neurona.
u
i
salida del sumador.

i
umbral.
() funcin de activacin no lineal.
y
i
salida de la i-sima neurona.
La funcin de activacin no-lineal denotada por g(), recibe como entrada x
i
y genera el
elemento de la salida y
i
como se describe en la siguiente ecuacin:
y
i
= g (x
i
) (2.2)
Una clasicacin de este tipo de funcin es:
1. Diferenciable y no diferenciable.
14 Redes neuronales y optimizacin
2. Tipo pulso y tipo escaln.
3. Positiva y de promedio cero.
La clasicacin 1 se distingue por tener funciones suaves y discontinuas. Las funciones
suaves son necesarias para algunos algoritmos de adaptacin como el de propagacin hacia
atrs, mientras que las funciones discontinuas (por ejemplo las funciones de umbral) se
emplean para generar una salida binaria.
La clasicacin 2 se distingue por tener funciones, las cuales solo tienen un valor signi-
cativo de la salida cuando las entradas estn cerca del cero, dado que las funciones solo
cambian signicativamente alrededor del cero.
La clasicacin 3 se reere a las funciones tipo escaln. Las funciones positivas que
cambian de 0 en - a 1 en . Las funciones de promedio cero cambian de -1 en - a 1 en
.
La forma como se interconectan las neuronas de una red neuronal determina su estructura.
Para propsitos de identicacin y control, las estructuras ms usadas son:
1. Redes con conexin hacia adelante de una capa.
2. Redes con conexin hacia adelante multicapa.
3. Redes de funciones radiales bsicas.
Las redes neuronales anteriores se les conoce como redes neuronales con conexin hacia
adelante o redes neuronales estticas.
Redes neuronales con conexin hacia adelante multicapa
Estas se distinguen por la presencia de una o ms capas ocultas, (ver Figura 2.2), cuyos
nodos computacionales se llaman neuronas ocultas. Tpicamente, las neuronas en cada capa
tienen como seales de entrada, las seales de salida de la capa precedente. Si cada neurona
en cada capa es conectada con todas las neuronas de las capas adyacentes, entonces la
2.2 Redes neuronales 15
Figura 2.2: Perceptrn multicapa
red neuronal es llamada totalmente conectada, en el caso opuesto es llamada parcialmente
conectada [8][9].
El perceptrn multicapa tiene las siguientes caractersticas:
1. La funcin de activacin para cada neurona es suave a diferencia a la de lmites extremos
usada en el perceptrn de una sola capa. Comnmente, la funcin no-lineal empleada
es el sigmoide, denida como: (ver Figura 2.2)

i
(
i
) =
1
1 +e

i
2. La red esta compuesta por una o ms capas de neuronas ocultas.
3. La red presenta un alto grado de conectividad.
El perceptrn multicapa obtiene su poder computacional a travs de la combinacin de
estas caractersticas y su habilidad de aprender de la experiencia. Sin embargo, la presencia
de no-linealidades distribuidas y la alta conectividad de la red complican el anlisis terico.
16 Redes neuronales y optimizacin
2.2.2. Redes neuronales en identicacin
Las redes neuronales tienen el potencial de ser aplicadas para modelar sistemas no-
lineales. Una pregunta importante es si el sistema es identicable, i.e., si la red neuronal
puede modelar el comportamiento del sistema sin ser necesario dar un modelo estructura-
do particular. La identicabilidad en redes neuronales est relacionada a la unicidad de los
pesos y si dos redes con diferentes parmetros pueden producir un comportamiento idntico
entrada/salida [13].
Para representar los sistemas no-lineales con redes neuronales, una aproximacin correcta
es incrementar las entradas de las redes con seales correspondientes a sus entradas y salidas.
Asumiendo que el sistema no-lineal esta descrito por:
y(k + 1) = g [y(k), y(k + 1), . . . , y(k n); u(k), u(k + 1), . . . , u(k m)] (2.3)
y, u <, m n
Este modelo no considera las perturbaciones directamente.
Una aproximacin obvia del mtodo del sistema es seleccionar la estructura de entra-
da/salida de la red neuronal para que sea la misma que tiene el sistema.
2.2.3. Algoritmo de propagacin hacia atrs (Backpropagation)
El algoritmo de aprendizaje usado para ajustar los pesos sinpticos del perceptrn mul-
ticapa esttico es conocido como backpropagation. El algoritmo provee un mtodo eciente
para el entrenamiento del perceptrn multi-capa [8][9].
El error en la salida de la j-sima neurona de la capa de salida, est dado por:
e
j
(k) = d
j
(k) y
j
(k) (2.4)
donde:
d
j
es la salida deseada.
y
j
es la neurona de salida.
k indica la k-sima muestra.
2.2 Redes neuronales 17
La suma instantnea del cuadrado de los errores de salida est dado por:
(k) =
1
2
l
X
j=1
e
2
j
(k) (2.5)
donde l es el nmero de neuronas de la capa de salida.
El error medio cuadrtico se obtiene al sumar (k) para todas las muestras (en una
iteracin) y normalizar con respecto al tamao de la iteracin.
(k) =
1
N
N
X
k=1
(k) (2.6)
con N como el nmero de muestras, que forman cada iteracin.
Usando el algoritmo del gradiente descendente, los pesos de las conexiones entre i-sima
neurona y la j-sima neurona se actualiza como:

ji
(k) =
ji
(k + 1)
ji
(k) =
(k)

ji
(k)
(2.7)
La correccin que realiza
ji
(k) es conocida como la regla delta, donde el trmino
(k)

ji
(k)
se puede calcular como:
(k)

ji
(k)
=
(k)
e
j
(k)
e
j
(k)
y
j
(k)
y
j
(k)

j
(k)

j
(k)

ji
(k)
(2.8)
Las derivadas parciales estn dadas por:
(k)
e
j
(k)
= e
j
(k)
e
j
(k)
y
i
(k)
= 1
y
j
(k)

j
(k)
=
j
(
j
(k)) con
j
(
j
(k)) =

j
(
j
(k))

j
(k)
(2.9)

j
(k)

ji
(k)
= y
i
(k)
As, la regla delta puede ser reescrita como:

ji
(k) =
j
(k)y
i
(k) (2.10)
18 Redes neuronales y optimizacin
donde el gradiente local
j
(k) se dene de la siguiente manera:

j
(k) =
e
j
(k)
y
j
(k)
y
j
(k)

j
(k)
= e
j
(k)
j
(
j
(k)) (2.11)
Para el gradiente local
j
(k) se distinguen dos casos: la j-sima neurona est en la capa de
salida o se encuentra en una capa oculta.
Caso1: Si la j-sima neurona est localizada en la capa de salida es correcto calcular
j
(k)
como se dene en la ecuacin (2.11).
Caso 2: Si la j-sima neurona est localizada en la capa oculta, no hay una respuesta
deseada para esta neurona. As, la seal del error se tiene que propagar desde la salida hacia
la neurona de la capa oculta donde se requiera el valor del gradiente local
j
(k). En este caso
es posible establecer la siguiente ecuacin:

j
(k) =
y
j
(k)

j
(k)
m
X
n=1

n
(k)
nj
(k) (2.12)
donde n indica la conexin de la n-sima a la j-sima neurona y m es el nmero total de
estas neuronas.
Este algoritmo se ha convertido en el ms popular para el entrenamiento del perceptrn
multicapa. Es muy eciente y tiene la capacidad de clasicar informacin que debe ser
separada de forma no-lineal. El algoritmo es una tcnica de gradiente que implementa la
minimizacin en una sola direccin, la cual puede ser la ptima, debido a esto, no es posible
demostrar la convergencia del algoritmo a un mnimo global.
Las redes neuronales permiten obtener un mapeo entrada-salida del comportamiento del
sistema, con lo cual no es necesario obtener un modelo matemtico del mismo, esto, puede
ser una ventaja al tratar con sistemas muy complejos de los cuales es muy difcil obtener
su modelo matemtico. Por otra parte las redes neuronales nos permiten implementar un
controlador para un sistema a partir de la informacin obtenida de la red.
2.3 Tcnicas de optimizacin 19
2.3. Tcnicas de optimizacin
La optimizacin es el acto de obtener el mejor resultado bajo determinadas circunstancias.
La meta nal de todas las decisiones es minimizar el esfuerzo requerido. La minimizacin se
dene como encontrar las condiciones que nos dan el mximo o el mnimo de un valor de una
funcin. No existe un mtodo individual para resolver por completo el problema de la opti-
mizacin de manera eciente. Se han desarrollado diferentes mtodos para resolver diferentes
problemas de optimizacin. Existen tres mtodos de programacin los cuales son: tcnicas
de programacin matemtica, tcnicas de procesos estocsticos y mtodos estadsticos. Para
el propsito de este desarrollo solo interesan las tcnicas de programacin matemtica y
en especial, la programacin lineal. Las tcnicas de programacin matemtica son tiles
para encontrar el mnimo de una funcin de varias variables bajo un espacio prescrito de
restricciones [20].
2.3.1. Problemas de programacin
Un problema de control ptimo (OC) usualmente de describe mediante dos tipos de
variables, nombradas, variables de control (diseo) y las variables de estado. Las variables
de control gobiernan la evolucin del sistema desde una etapa a la siguiente y las variables
de estado describen el comportamiento del sistema en cualquier etapa. Explcitamente, el
problema de control ptimo es un problema de programacin matemtica envolviendo un
nmero de etapas, donde cada etapa esta envuelta desde la etapa previa en una manera
prescrita, el problema es encontrar un espacio de variables de control o variables de diseo
tales que se minimize la funcin objetivo total sobre un nmero de etapas sujeto a ciertas
restricciones sobre las variables de control y las variables de estado [20]. Este se puede
20 Redes neuronales y optimizacin
enunciar como sigue:
_

_
Encontrar X el cual minimize:
f(X) =
l
X
i=1
f
i
(x
i
, y
i
)
sujeto a las siguientes restricciones:
q
i
(x
i
, y
i
) +y
i
= y
i+1
, i = 1, 2, . . . , l
g
j
(x
j
) 0, j = 1, 2, . . . , l
h
k
(x
k
) 0, k = 1, 2, . . . , l
_

_
(2.13)
donde x
i
es la i-sima variable de control, y
i
es la i-sima variable de estado y f
i
es la
contribucin de la i-sima etapa para la funcin objetivo total; g
i
, h
k
y q
i
son funciones de
x
j
, y
k
, x
i
y y
i
respectivamente.
Problema de programacin lineal
Si la funcin objetivo y todas las restricciones en ecuacin (2.13) son funciones lineales
de las variables de control, al problema de programacin matemtica se le llama problema
de programacin lineal (LP). Un problema de programacin lineal se enuncia de la siguiente
forma estndar:
Encontrar:
X =
_

_
x
1
x
2
.
.
.
x
n
_

_
El cual minimize la funcin:
f(X) =
n
X
i=1
c
i
x
i
(2.14)
sujeto a las siguientes restricciones:
n
X
i=1
a
jk
x
k
= b
j
, j = 1, 2, . . . , m
2.3 Tcnicas de optimizacin 21
y
x
i
0, i = 1, 2, . . . , n
donde c
i
, a
ij
y b
j
son constantes.
Problema de programacin no lineal
Si cualquiera de las funciones entre las funciones objetivo y las funciones de restriccin
en la ecuacin (2.13) es no lineal, a este se le llama problema de la programacin no lineal
(NLP). Este es el problema de programacin ms general y todos los dems problemas se
pueden considerar casos especiales del problema NLP.
Los mtodos clsicos de optimizacin son tiles para encontrar el ptimo de funciones
diferenciales y continuas. Estos mtodos son analticos y hacen uso de las tcnicas de los cl-
culos diferenciales en la localizacin de los puntos ptimos. En vista de que algunos problemas
prcticos envuelven funciones objetivo que no son continuas ni diferenciables, las tcnicas de
optimizacin clsica estn limitadas por las aplicaciones prcticas.
2.3.2. Optimizacin sin restricciones (Deniciones y teoremas)
La r-sima diferencial de f. Si todas las derivadas parciales de la funcin f de orden
completo r 1 existen y son continuas en el punto X

, entonces el polinomio:
d
r
f(X

) =
n
X
i=1
n
X
j=1

n
X
k=1
h
i
h
j
h
k

r
f(X

)
x
i
x
j
. . . x
k
(2.15)
se le llama la r-sima diferencial de X

. Note que hay r sumatorias y un h


i
esta asociado
con cada sumatoria en la ecuacin (2.15).
Teorema 2.1 Si f(X) tiene un punto extremo (un mnimo o un mximo) en X = X

y si
las primeras derivadas parciales de f(X) existen en X

, entonces:
f
x
1
(X

) =
f
x
2
(X

) =
f
x
n
(X

) (2.16)
22 Redes neuronales y optimizacin
Teorema 2.2 Una condicin suciente para que el punto estacionario X

sea un punto
extremo es que la matriz de las segundas derivadas parciales (matriz Hessian) de f(x) evalu-
ada en X

sea: (i) positiva denida cuando X

es un punto mnimo, y (ii) negativa denida


cuando X

es un punto mximo.
Nota: Una matriz A ser positiva denida si todos sus eigenvalores son positivos, i.e.
todos los valores de los cuales satisfagan el determinante:
|AI| = 0
deben ser positivos.
Otro examen que se puede aplicar para encontrar si la matriz A de orden n es positiva
denida es la evaluacin de los determinantes:
A
1
=

a
11

, A
2
=

a
11
a
12
a
21
a
22

, A
3
=

a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33

, ,
A
n
=

a
11
a
12
a
13
a
1n
a
21
a
22
a
23
a
2n
a
31
a
32
a
33
a
3n
.
.
.
a
n1
a
n2
a
n3
a
nn

La matriz A ser positiva denida si y solamente si todos los valores A


1
, A
2
, . . . , A
n
son
positivos. La matriz A ser negativa denida si el signo de A
j
es (1)
j
para j = 1, 2, . . . , n.
Si algunos valores son positivos y algunos son cero, la matriz A ser positiva semidenida.
2.3.3. Optimizacin con restricciones de igualdad
Se considera la optimizacin de funciones continuas sujetas a las siguientes restricciones:
minimiza f = f(X) sujeto a g
i
(X) = 0, j = 1, 2, . . . , m (2.17)
2.3 Tcnicas de optimizacin 23
donde:
X =
_

_
x
1
x
2
.
.
.
x
n
_

_
Aqu, m n; en el otro caso (si m > n), el problema se convierte en sobre-denido, y, en
general, no habr solucin. Hay varios mtodos para solucionar este problema, los mtodos
de la sustitucin directa, variacin restringida y multiplicadores de Lagrange son algunos de
ellos [20].
Solucin por el mtodo de sustitucin directa
En el problema no restringido, hay n variables independientes, y la funcin objetivo se
puede evaluar para cualquier espacio de n nmeros. De cualquier manera, en el problema
restringido, al menos una variable independiente pierde su arbitrariedad con la adicin de
cada restriccin de igualdad. As, el problema con m restricciones en n variables tendr
solamente (n m) variables independientes. Si se selecciona cualquier espacio de n m
variables, los valores de las variables restantes estn determinados por m restricciones de
igualdad.
As, tericamente es posible resolver simultneamente las m restricciones de igualdad
y expresar cualquiera m variables en trminos de las n m variables restantes. Cuando
se substituyen estas expresiones dentro de la funcin objetivo original, resulta una nueva
funcin objetivo que considera solamente nm variables. La nueva funcin objetivo no esta
sujeta a ninguna restriccin y por lo tanto se puede encontrar su ptimo con las tcnicas de
optimizacin no restringidas clsicas.
Este mtodo de la sustitucin directa, aunque parece en teora simple, no es conveniente
desde el punto de vista prctico. La razn es que las restricciones sern no lineales para la
mayora de los problemas prcticos y se hace imposible el resolver el expresar m variables
en trminos de las n m variable restantes.
24 Redes neuronales y optimizacin
Solucin por el mtodo de variaciones restringidas
La idea bsica empleada en el mtodo de variaciones restringidas es encontrar una ex-
presin en forma cerrada para la diferencial de primer orden de f(df) de todos los puntos
en los cuales se satisfacen las restricciones g
j
(X) = 0, j = 1, 2, . . . , m. Los puntos ptimos
deseados se obtienen por la solucin de la ecuacin diferencial en cero.
Un problema con n = 2 y m = 1. Considere el problema:
Minimizar:
f(x
1
, x
2
) (2.18)
Sujeto a:
g(x
1
, x
2
) = 0 (2.19)
Para resolver la restriccin g(x
1
, x
2
) = 0 obtenemos x
2
como:
x
2
= h(x
1
) (2.20)
Por la sustitucin de (2.20), la solucin objetivo se convierte en una funcin de una sola
variable como f = f[x
1
, h(x
1
)]. Una condicin necesaria para que f tenga un mnimo en
algn punto (x

1
, x

2
) es que la derivada total de f(x
1
, x
2
) con respecto a x
1
sea cero en
(x

1
, x

2
). La ecuacin diferencial total f(x
1
, x
2
) se puede escribir como sigue
df(x
1
, x
2
) =
f
x
1
dx
1
+
f
x
2
dx
2
Cuando esta ecuacin es igual a cero nosotros obtenemos:
df(x
1
, x
2
) =
f
x
1
dx
1
+
f
x
2
dx
2
= 0 (2.21)
Desde que g(x

1
, x

2
) = 0 en el punto mnimo, cualquier variacin dx
1
y dx
2
que se tome
alrededor del punto (x

1
, x

2
) se llama variacin admisible proporcionada por la relacin:
g(x

1
+dx
1
, x

2
+dx
2
) = 0 (2.22)
La expansin en series de Taylor de la funcin en la ecuacin (2.22) alrededor del punto
(x

1
, x

2
) es:
g(x

1
+dx
1
, x

2
+dx
2
) ' g(x

1
, x

2
) +
g
x
1
(x

1
, x

2
)dx
1
+
g
x
2
(x

1
, x

2
)dx
2
= 0 (2.23)
2.3 Tcnicas de optimizacin 25
donde se consideran dx
1
y dx
2
pequeas. Desde que g(x

1
, x

2
) = 0, la ecuacin (2.23) se
reduce a:
g
x
1
dx
1
+
g
x
2
dx
2
= 0 en (x

1
, x

2
) (2.24)
As, la ecuacin (2.24) se debe satisfacer para todas las variaciones admisibles.
Considerando que, la ecuacin (2.24) se escribe como:
dx
2
=
(g/x
1
)
(g/x
2
)
(x

1
, x

2
)dx
1
= 0 (2.25)
Esta relacin nos indica que una vez que se escoge una variacin arbitraria en x
1
(dx
1
), la
variacin x
2
(dx
2
) de ja automticamente desde que dx
1
y dx
2
son las nicas variaciones
admisibles. Por la sustitucin de la ecuacin (2.25) en ecuacin (2.21) se tiene:
df =

f
x
1

(g/x
1
)
(g/x
2
)
f
x
2

|
(x

1
,x

2
)
dx
1
= 0 (2.26)
Note que la ecuacin (2.26) se tiene que satisfacer para todos lo valores de dx
1
. Desde que
x
1
se puede elegir arbitrariamente, la ecuacin (2.26) es equivalente a:

f
x
1
g
x
2

f
x
2
g
x
1

|
(x

1
,x

2
)
= 0 (2.27)
La ecuacin (2.27) da las condiciones necesarias para tener un punto extremo (x

1
, x

2
) (mnimo
o mximo).
Solucin por el mtodo de Multiplicadores de Lagrange
En el mtodo de multiplicadores de Lagrange, se introduce una variable adicional por cada
restriccin. As, si el problema tiene n variables y m restricciones de igualdad, se adicionan
m variables al problema, as que el nmero nal cambia de n incgnitas a n +m. De hecho,
hay algunas simplicaciones disponibles por las adicin de las nuevas variables [20].
Considerar el problema de:
minimizar f(x
1
, x
2
) sujeto a g(x
1
, x
2
) = 0 (2.28)
26 Redes neuronales y optimizacin
Este problema se consider para el caso anterior y se encontr que una condicin necesaria
para la existencia de un punto extremo en X = X

es:

f
x
1

(f/x
2
)
(g/x
2
)
g
x
1

|
(x

1
,x

2
)
= 0 (2.29)
Deniendo el multiplicador de Lagrange como:
=

f/x
2
g/x
2

|
(x

1
,x

2
)
(2.30)
La ecuacin (2.29) se puede escribir como:

f
x
1
+
g
x
1

|
(x

1
,x

2
)
= 0 (2.31)
y la ecuacin (2.30) se puede escribir como:

f
x
2
+
g
x
2

|
(x

1
,x

2
)
= 0 (2.32)
En adicin, se satisface la ecuacin de restriccin en el punto extremo, i.e.:
g(x
1
, x
2
)|
(x

1
,x

2
)
= 0 (2.33)
As, las ecuaciones (2.31) a la (2.33) representan las condiciones necesarias para que el punto
sea un punto extremo.
Las condiciones necesarias dadas por las ecuaciones (2.31) a la (2.33) tambin se pueden
generar por la construccin de una funcin L, conocida como la funcin de Lagrange, como:
L(x
1
, x
2
, ) = f(x
1
, x
2
) +g(x
1
, x
2
) (2.34)
Si las derivadas parciales de la funcin de Lagrange con respecto a cada uno de los argumentos
es igual a cero, se obtienen las condiciones necesarias dadas por las ecuaciones (2.31) a (2.33).
As , se tienen las siguientes ecuaciones:
_

_
L
x
1
(x
1
, x
2
, ) =
f
x
1
(x
1
, x
2
) +
g
x
1
(x
1
, x
2
)
L
x
2
(x
1
, x
2
, ) =
f
x
2
(x
1
, x
2
) +
g
x
2
(x
1
, x
2
)
L

(x
1
, x
2
, ) = g(x
1
, x
2
) = 0
_

_
(2.35)
2.3 Tcnicas de optimizacin 27
Las condiciones necesarias deducidas anteriormente se pueden extender al problema gen-
eral con n variables y m restricciones de igualdad. El resultado se encuentra en el siguiente
teorema
Teorema 2.3 Una condicin necesaria para que una funcin f(X) sujeta a las restricciones
g
j
(X) = 0, j = 1, 2, ..., m tengan un mnimo relativo en el punto X

es que las primeras


derivadas parciales de la funcin de Lagrange denida por L = L(x
1
, x
2
, ...., x
n
, l
1
, l
2
, ......, l
m
)
con respecto a cada uno de sus argumentos sea cero.
Construyendo la funcin de Lagrange como:
L(X, ) = f(X) +
n
X
j=1

j
g
j
(X) (2.36)
Tomando las derivadas parciales de L, con respecto a cada uno de sus argumentos, iguales a
cero se tienen las condiciones necesarias para el mnimo relativo de f(X) en X

.
2.3.4. Optimizacin con restricciones de desigualdad
Esta seccin es concerniente con la solucin del siguiente problema:
Minimizar f(X) sujeto a:
g
j
(X) 0, j = 1, 2, . . . , m (2.37)
Las restricciones de desigualdad se pueden transformar a restricciones de igualdad adicio-
nando variables lentas no negativas, y
2
j
,como sigue:
g
j
(X) +y
2
j
= 0, j = 1, 2, . . . , m (2.38)
donde los valores de las variables lentas an no se conocen. El problema ahora esta en forma
tal que se pueden aplicar los mtodos discutidos en la seccin anterior:
Minimizar f(X) sujeto a G
j
(X, Y ) = g
j
(X) +y
2
j
= 0, j = 1, 2, . . . , m (2.39)
28 Redes neuronales y optimizacin
donde Y =
_

_
y
1
y
2
.
.
.
y
m
_

_
es el vector de variables lentas.
Este problema se puede resolver convenientemente por el mtodo de multiplicadores de
Lagrange. Para este, se pude construir la funcin de Lagrange como:
L(X, Y, ) = f(X) +
m
X
j=1

j
G
j
(X, Y ) (2.40)
donde =
_

2
.
.
.

m
_

_
es el vector de multiplicadores de Lagrange.
Los puntos estacionarios de la funcin de Lagrange se pueden encontrar resolviendo las
siguientes ecuaciones (condiciones necesarias):
L
x
i
(X, Y, ) =
f
x
i
(X) +
m
X
j=1

j
g
j
x
i
(X) = 0, i = 1, 2, . . . , n (2.41)
L

(X, Y, ) = G
j
(X, Y ) = g
j
(X) +y
2
j
= 0, j = 1, 2, . . . , m (2.42)
L
y
j
(X, Y, ) = 2
j
y
j
= 0, j = 1, 2, . . . , m (2.43)
La ecuacin (2.42) asegura que se satisfacen las restricciones g
j
(X) 0, j = 1, 2, . . . , m.
Mientras (2.43) implica que cualquiera
j
= 0 o y
j
= 0. Si
j
= 0 esto signica que las
restricciones son inactivas y por lo tanto se pueden ignorar estas. Por otro lado, si y
j
= 0 esto
signica que las restricciones son activas (g
j
= 0) en el punto ptimo. Considerar la divisin
de las restricciones en dos subespacios J
1
y J
2
donde J
1
+ J
2
representan las restricciones
del espacio total. Sea J
1
indica los ndices para las restricciones las cuales son activas en el
punto ptimo y sea J
2
incluye los ndices para todas las restricciones inactivas.
2.3 Tcnicas de optimizacin 29
As, para j J
1
, y
j
= 0 (restricciones activas), y para j J
2
,
j
= 0 (restricciones
inactivas), y la ecuacin (2.41) se puede simplicar como:
f
x
i
+
X
jJ
1

j
g
j
x
i
= 0, i = 1, 2, . . . , n (2.44)
Similarmente, las ecuaciones (2.42) se pueden escribir como:
g
j
(X) = 0, j J
1
(2.45)
g
j
(X) +y
2
j
= 0, j J
2
(2.46)
Las ecuaciones (2.44) a (2.46) representan n + p + (m p) = n + m ecuaciones con n + m
incgnitas x
i
(i = 1, 2, ...., n), l
j
(j J
1
) y y
j
(j J
2
) donde p denota el numero de
restricciones activas.
Asumiendo que las primeras p restricciones son activas, la ecuacin (2.44) se puede ex-
presar como:

f
x
i
=
1
g
1
x
i
+
2
g
2
x
i
+. . . +
p
g
p
x
i
, i = 1, 2, . . . , n (2.47)
estas ecuaciones se pueden escribir colectivamente como:
5f =
1
5 g
1
+
2
5 g
2
+. . . +
p
5g
p
(2.48)
donde 5f y 5g
j
son el gradiente de la funcin objetivo y la j-sima restriccin dados,
respectivamente, por:
5f =
_

_
f/x
1
f/x
2
.
.
.
f/x
n
_

_
y 5 g
j
=
_

_
g
j
/x
1
g
j
/x
2
.
.
.
g
j
/x
n
_

_
As el negativo del gradiente de la funcin objetivo se puede expresar como una combinacin
lineal de los gradientes de las restricciones activas en el punto ptimo.
Ms all, se puede considerar el caso de un problema de minimizacin js (j J
1
) tienen
que ser positivos.
30 Redes neuronales y optimizacin
Suponga que son activas solamente dos restricciones (p = 2) en el punto ptimo, entonces
la ecuacin (2.48) se reduce a:
5 f =
1
5 g
1
+
2
5g
2
(2.49)
Sea S una direccin factible en el punto ptimo, premultiplicando a ambos lados de la
ecuacin (2.49) por S
T
se tiene:
S
T
5f =
1
S
T
5g
1
+
2
S
T
5 g
2
(2.50)
Desde que S es la direccin factible, esta debe satisfacer las relaciones:
S
T
5 g
1
< 0
S
T
5 g
2
< 0
(2.51)
As, si
1
> 0 y
2
> 0, la cantidad S
T
5 f indica la direccin del gradiente, a lo largo
de la cual el valor de la funcin se incrementa en un valor mximo, S
T
5 f representa el
componente del incremento de f a lo largo de la direccin S. Debido al anlisis previo, si
1
y
2
son positivos se considera que la ecuacin (2.50) proporciona el valor (mnimo) ptimo
de la funcin f. Por un procedimiento similar, se puede mostrar que los
j
s tienen que ser
negativos para el problema de maximizacin.
Condiciones Kuhn-Tucker
As , las restricciones que se tienen que satisfacer para un punto mnimo, X

, del problema
tratado en ecuacin (2.37), se pueden expresar como:
f
x
i
+
X
jJ
1

j
g
j
x
i
= 0, i = 1, 2, . . . , n (2.52)

j
> 0, j J
1
(2.53)
Estas condiciones no son en general sucientes para asegurar un mnimo relativo. De cualquier
manera, hay una clase de problemas, para los cuales, son necesarias y sucientes para un
mnimo global [20].
2.3 Tcnicas de optimizacin 31
Si no se conoce el espacio de las restricciones activas (y
j
= 0 y
j
= 0), las condiciones
Kuhn-Tucker se denotan como sigue:
_

_
f
x
i
+
m
X
jJ
1

j
g
j
x
i
(X) = 0, i = 1, 2, . . . , n

j
g
j
= 0, j = 1, 2, . . . , m
g
j
0, j = 1, 2, . . . , m

j
0, j = 1, 2, . . . , m
_

_
(2.54)
Note que si el problema es de maximizacin o si las restricciones son del tipo g
j
0, entonces

j
tiene que ser no positivo en la ecuacin (2.54).
Problema de programacin convexa
Cualquier problema de optimizacin descrito por la ecuacin (2.37) se le llama el problema
de programacin convexa donde se proporcionan la funcin objetivo f(X) y las funciones de
restriccin g
j
(X) la cuales son convexas.
Suponga que f(X) y g
j
(X), j = 1, 2, ...., m, son funciones convexas, la funcin de La-
grange de la ecuacin (2.40) se puede escribir como
L(X, Y, ) = f(X) +
m
X
j=1

g
j
(X) +y
2
j

(2.55)
Si
j
0, entonces
j
g
j
(X) es convexa (dado que g
j
(X) es convexa) y ya que
j
y
j
= 0
desde la ecuacin (2.43), L(X, Y, ) tambin es una funcin convexa. Se tiene que obtener
la derivada de las condiciones necesarias para que f(X) sea un mnimo relativo en X

. De
cualquier manera, si L(X, Y, ) es una funcin convexa, su derivada es cero solamente en un
punto y por tanto este punto debe ser un mnimo absoluto para la funcin f(X). As, las
condiciones de Kune-Tucker son necesarias y sucientes para asegurar un mnimo absoluto
de f(X) en X

.
32 Redes neuronales y optimizacin
Captulo 3
Modelos matemticos del proceso de
mezclado de petrleo crudo
3.1. Introduccin
En este captulo se presentan los modelos de la propiedades estticas del mezclado de
petrleo crudo [18]. Mas adelante se presentan dos modelos para el tanque, el modelo depen-
diente de la altura y el modelo dependiente de la densidad y del volumen en el tanque [1][25].
Posteriormente se analizan los procesos de mezclado que contienen ms de un nodo de mez-
clado, para los cuales se utilizan el modelo distribuido y el modelo agregado [1]. En el modelo
distribuido, el modelo de mezclado se representa por puntos de mezclado independientes con
un controlador para cada uno, teniendo solo informacin local del proceso. En el modelo
agregado, el proceso de mezclado se representa como un solo punto de mezclado utilizando
solo un controlador el cual tiene informacin global del proceso. Al nal se presenta como se
modelan cada uno de estos modelos los cuales representan en el proceso de mezclado.
34 Modelos matemticos del proceso de mezclado de petrleo crudo
3.2. Modelos de las propiedades estticas de mezclado
La termodinmica de las mezclas o soluciones homogneas es un tema complejo. Las rep-
resentaciones elementales de los sujetos complejos frecuentemente restringen el tratamiento
a casos especiales que no requieren el desarrollo completo de la teora general, la cual est
acompaada de terminologas y notaciones especiales. Por otro lado, la solucin ideal no
representa adecuadamente el comportamiento de muchos sistemas de inters prctico para
ingeniera qumica [18].
3.2.1. Relacin de propiedad para sistemas de composicin vari-
able
La propiedad fundamental para los sistemas homogneos (fase-individual) es:
d(nU) = Td(nS) Pd(nV ) +
X
(
i
dn
i
) (3.1)
Como resultado de las deniciones de entalpa, energa libre de Helmoltz, y la energa libre
de Gibbs, se pueden escribir:
dH = nU +P(nV )
nA = nU T(nS)
dG = nU +P(nV ) T(nS)
La diferenciacin de estas ecuaciones y la substitucin por d(nU) como se da en la ecuacin
(3.1) da como resultado las siguientes expresiones generales para d(nH), d(nA) y d(nG):
d(nH) = Td(nS) (nV )dP +
X
(
i
dn
i
) (3.2)
d(nA) = (nS)dT Pd(nV ) +
X
(
i
dn
i
) (3.3)
d(nG) = (nS)dT + (nV )dP +
X
(
i
dn
i
) (3.4)
Estas ecuaciones se aplican para los cambios en los estados de equilibrio en cualquier sistema
de uido homogneo, sin importar si es abierto o cerrado. Cuando las n
i
son todas constantes
3.2 Modelos de las propiedades estticas de mezclado 35
(dn
i
= 0), se reducen las ecuaciones a las aplicables a sistemas de masa constante y de
composicin constante. Adems, considerando que las n
i
son todas constantes (dn
i
= 0), el
ltimo trmino de ecuaciones (3.1) y (3.2) a (3.4) se reescribe de la siguiente manera:

i
=

(nU)
n
i

nS,nV,nj
=

(nH)
n
i

nS,P,nj
=

(nA)
n
i

nV,T,nj
=

(nG)
n
i

T,P,nj
(3.5)
donde el ndice n
j
indica la constancia del numero de moles total sin considerar n
i
.
Aplicando el criterio de la exactitud a las expresiones diferenciales al lado derecho de
las ecuaciones (3.1) y (3.2) a (3.4) se tienen 16 ecuaciones generales, de las cuales, 4 son
ecuaciones de Maxwell. Dos ecuaciones seguidas de la ecuacin (3.4) son de considerable
utilidad:

i
T

P,n
=

(nS)
n
i

T,P,nj
(3.6)
y

i
P

T,n
=

(nV )
n
i

T,P,nj
(3.7)
donde el ndice n indica la constancia del nmero total de moles.
3.2.2. Propiedades molares parciales
Cada una de las derivadas de las ecuaciones de la (3.5) a la (3.7) es una derivada parcial
de la forma
h
(nV )
n
i
i
T,P,nj
. Tales derivadas tienen un signicado especial en las soluciones
termodinmicas, y se les llama propiedades derivadas parciales del componente i en solucin,
designado por M
i
. As por denicin:
M
i
=

(nM)
n
i

T,P,nj
(3.8)
donde M representa cualquier propiedad termodinmica molar de una solucin en la cual i
es un componente. La variable con barra M
i
se identica como una propiedad molar parcial.
Los componentes de una solucin estn ntimamente interrelacionados y no pueden tener
propiedades de componentes puros. Las propiedades molares parciales se les puede tratar
36 Modelos matemticos del proceso de mezclado de petrleo crudo
exactamente como si ellas representaran las propiedades molares de los componentes en
solucin.
Las propiedades para las cuales se aplica la ecuacin (3.8) se conocen desde la experi-
mentacin como extensivas; esto es, si una solucin se construye de n
1
moles del componente
1, n
2
moles del componente 2, n
i
moles del componente i, etc, tiene una propiedad inicial
total nM, donde n =
X
n
i
, entonces incrementando cada n
i
por el factor constante
en T y P produce una solucin con una propiedad total de (nM). Matemticamente, las
propiedades nM se dice que son funciones homogneas de primer grado en el nmero de
moles de los constituyentes, y para tales propiedades el teorema de Euler proporciona una
relacin general:
nM =
X
(n
i
M
i
) (3.9)
Dividiendo por n produce la expresin alternativa:
M =
X
(x
i
M
i
) (3.10)
donde x
i
es la fraccin mol del componente i en la solucin.
Las ecuaciones (3.9) y (3.10) resultan aplicando balances de materia a la ecuacin (3.8),
la cual se describe como la propiedad de una solucin la cual se distribuye entre sus compo-
nentes. Esta expresin trata de ser lo ms simple posible para la propiedad de una solucin
en relacin a las propiedades molares parciales, la ecuacin (3.10) muestra que la propiedad
de la solucin es el promedio fraccin-peso de moles de las propiedades parciales.
Las propiedades de la solucin las cuales se representan por el smbolo M pueden estar
sobre una base en unidades-masa as como sobre una base de moles.
3.2.3. Soluciones ideales
Para algunos sistemas, el volumen molar parcial de un componente en una solucin es
linealmente el mismo que el volumen lineal de un componente puro. Se toman como referencia
los sistemas llamados soluciones ideales, para los cuales el trmino signica que para una
solucin el volumen molar parcial de cada componente en solucin es igual al volumen del
componente puro a la misma temperatura y presin [18].
3.2 Modelos de las propiedades estticas de mezclado 37
El lado derecho de la ecuacin (3.8) representa el cambio en el volumen de n moles de
una mezcla cuando se adicionan dn
i
moles del componente i a T y P constantes, y n
j
, para
una solucin ideal, es simplemente el volumen molar puro i. Por lo tanto, la ecuacin (3.8)
se convierte en:
V
i
=

(nV )
n
i

T,P,nj
= V
i
(3.11)
desde que el volumen molar parcial es igual al volumen molar del componente puro para una
solucin ideal, la contraparte de ecuaciones (3.9) y (3.10) son:
nV =
X
(n
i
V
i
) (3.12)
y
V =
X
(x
i
V
i
) (3.13)
Las ecuaciones (3.11) a la (3.13) se pueden emplear para las propiedades extensivas como
la entalpa y la energa interna, pero no para la entropa y la energa de Gibbs. Hay una
diferencia entre S
i
y S
i
an para soluciones ideales, la diferencia es debida a la irreversibilidad
inherente del proceso de mezclado considerado a temperatura y presin constantes.
3.2.4. Cambio de las propiedades de una mezcla (actividad)
La ecuacin (3.13) muestra que el volumen molar de una solucin ideal es simplemente
el promedio de los volumenes molares de los componentes puros a la misma temperatura y
presin, cada peso acorde a su fraccin mol. Si esto fuera cierto en general para todas las
propiedades extensivas termodinmicas, se podra escribir:
M =
X
x
i
M
i
Desafortunadamente, esta ecuacin es cierta solamente para casos especiales. Para que tenga
una validez universal se adiciona un trmino M. As la propiedad de la mezcla general se
expresa mediante la siguiente ecuacin:
M =
X
x
i
M
i
+M (3.14)
38 Modelos matemticos del proceso de mezclado de petrleo crudo
Donde M es la diferencia es la diferencia entre la propiedad de la solucin M y la suma
de las propiedades de los componentes puros los cuales construyen esta, todos a la misma
temperatura y presin como en la solucin. Por lo tanto el trmino M es llamado cambio
de propiedad o no linealidad de la mezcla.
Una denicin ms general de esta ecuacin est dada por:
M = M
X
x
i
M
o
i
(3.15)
donde M
o
i
es la propiedad molar de el componente i en un estado estndar especicado.
Si, por ejemplo, M es el volumen molar de una solucin liquida y si todos los componentes
existen en un estado lquido a la misma presin y temperatura como en la solucin, entonces
M
o
i
se convierte en V
o
i
= V
i
. en este caso la ecuacin (3.15) se reescribe de la siguiente
manera:
V = V
X
x
i
V
i
donde V es el cambio de volumen de la mezcla observado cuando 1 mol de mezcla se forma
a P y T constantes desde los componentes lquidos puros. Los cambios de propiedad de la
mezcla son funciones de la temperatura, la presin, la composicin, la anidad molecular,
as como cualquier otra propiedad termodinmica.
La ecuacin (3.10) relaciona las propiedades termodinmicas molares M de una solucin
a las propiedades molares parciales de los componentes:
M =
X
(x
i
M
i
)
La sustitucin de esta ecuacin para M dentro de la ecuacin (3.15) da como resultado:
M =
X
x
i
M
i

X
x
i
M
o
i
=
X
x
i
(M
i
M
o
i
)
Si se dene el cambio de la propiedad molar parcial como:
M
i
= (M
i
M
o
i
) (3.16)
entonces la ecuacin (3.15) se puede reescribir como:
M =
X
x
i
M
i
(3.17)
3.2 Modelos de las propiedades estticas de mezclado 39
donde la cantidad M
i
representa el cambio de propiedad de i cuando 1 mol de i puro en
su estado estndar se convierte en un componente de una solucin de una composicin dada
a la misma T y P. Esta en tambin una propiedad molar parcial con respecto a M, y est
en funcin de T, P y x.
La relacin general dada por la ecuacin (3.17) se puede aplicar a diferentes tipos de
cambios de la mezcla. As, se pueden escribir las siguientes funciones:
G
RT
=
1
RT
X

x
i

G
i
G
o
i

PV
RT
=
P
RT
X

x
i

V
i
V
o
i

H
RT
=
1
RT
X

x
i

H
i
H
o
i

S
R
=
1
R
X

x
i

S
i
S
o
i

y haciendo manipulaciones matemticas se obtienen la siguiente ecuaciones:


G
RT
=
X
[x
i
lnba
i
] (3.18)
PV
RT
=
X
"
x
i

lnba
i
lnP

T,x
#
(3.19)
H
RT
=
X
"
x
i

lnba
i
ln T

P,x
#
(3.20)
S
R
=
X
[x
i
lnba
i
]
X
"
x
i

lnba
i
ln T

P,x
#
(3.21)
donde la siguiente proporcin se le llama la actividad ba
i
del componente i en solucin:
ba
i
=
b
f
i
f
o
i
(3.22)
donde f
i
es la fugacidad del componente puro i, y
b
f
i
es la fugacidad del componente en
solucin.
Esta ecuaciones muestran la importancia de la proporcin ba
i
=
e
f
i
f
o
i
juega en las soluciones
termodinmicas. Los valores de los cambios de las propiedad de la mezcla dependen de la
eleccin de los estados estndar.
40 Modelos matemticos del proceso de mezclado de petrleo crudo
p1 q1
p2 q2
h
V
Pa
a1 a2
pf
qf
Figura 3.1: Propiedades dinmicas del ujo en el tanque
3.3. Modelos de las propiedades dinmicas de mezcla-
do
3.3.1. Modelo 1. En funcin de la altura en el tanque
Se emplean las siguientes consideraciones para el tanque: 1). mezclado perfecto; 2). op-
eracin isotrmica; 3). reaccin qumica que toma lugar en el lquido del tanque [25].
La Figura 3.1 muestra las propiedades dinmicas en el tanque. A partir de un balance de
masa de este sistema se tiene:
d
dt
m =
n
X
i=1
q
i
q
f
donde m es la masa total en el tanque, m =
f
V =
f
Ah,
f
es la densidad del producto de
salida, V, A y h son volumen, rea de la supercie y la altura del lquido del tanque (en el
caso de mezcla perfecta se tiene
d
dt

f
= 0), de la ecuacin anterior se tiene:
d
dt
m =
f
A
d
dt
h =
n
X
i=1
q
i
q
f
(3.23)
3.3 Modelos de las propiedades dinmicas de mezclado 41
La velocidad de ujo msico de salida se puede escribir en trminos de la velocidad de salida
v
f
, por tanto se tiene:
q
f
=
f
A
f
v
f
(3.24)
donde A
f
es el rea de cruce-seccional en la salida. Desde que la energa almacenada es una
sumatoria de la energa interna, la energa potencial y el trabajo del ujo, un balance de
energa en el puerto de salida (puntos a
1
y a
2
) es:
d
dt
E = 0 = q
f
(u
1
u
2
) +
q
f
2

v
2
1
v
2
2

+q
f
g (z
1
z
2
) +
q
f

f
(P
1
P
2
)
Si se asumen tambin cambios insignicantes en la energa interna (u
1
= u
2
) y en la elevacin
(z
1
= z
2
), que v
1
es pequeo comparado a v
2
, la conservacin de la energa en la ecuacin
de estados da:
v
f
= v
2
=
s
2

f
(P
1
P
2
) =
s
2

P
a
+
f
gh P
a

=
p
2gh (3.25)
donde P
a
es la presin atmosfrica. Desde (3.23), (3.24) y (3.25) se tiene:

f
A
d
dt
h =
f
A
f
p
2gh +
n
X
i=1
q
i
(3.26)
As, la ecuacin para este sistema de primer orden es no lineal. Esta expresin dice que la
velocidad del cambio de masa dentro es igual a la velocidad de ujo msico de entrada menos
la velocidad de ujo msico en la salida, donde la masa en el tanque y la velocidad de ujo
en la salida son ambos escritos en trminos de la altura (h) del uido en le tanque.
Si se dene:
R =
h

f
A
f

2gh
, C =

f
Ah
h
=
f
A
La ecuacin (3.26) se convierte:

x =
1
R(x) C
x +
1
C
u (3.27)
donde u =
n
X
i=1
q
i
, x = h.
42 Modelos matemticos del proceso de mezclado de petrleo crudo
Las propiedades qumicas son exotrmicas (liberan energa) o endotrmicas (requieren la
entrada de energa) y por lo tanto requieren ya sea eliminar o adicionar energa al reactor
para que se mantenga en este una temperatura constante. Las reacciones exotrmicas son los
sistemas ms importantes para el caso de estudio debido a los problemas de seguridad (un
rpido incremento en la temperatura, algunas veces llamado comportamiento "encendido")
y la posibilidad de un comportamiento extico como un estado mltiple (para el mismo valor
en la variable de entrada podra haber varios posibles valores de la variable de salida). Se
considera que m elementos de los n ujos de entrada tienen reaccin qumica, la reaccin es
exotrmica irreversible de primer orden, A
1
+A
2
+A
m
B.
En la Figura 3.1 se observa que se alimentan continuamente m torrentes de uido al
reactor y un torrente de uido se elimina en forma continua desde el reactor. Debido a
que el reactor mezcla perfectamente, el torrente de salida tiene la misma concentracin y
temperatura que la del uido en el reactor. El balance de material total correspondiente al
volumen es:
d
dt

f
V

=
f
V
f
+
n
X
i=1
(
i
V
i
) (3.28)
donde V es el volumen del tanque, V
i
es el volumen de entrada y V
f
es el volumen de salida.
El balance sobre el componente A
i
(i = 1 m) es:
d
dt
(c
ri
V
i
) = c
ri
V
i
+c
i
V
i
r
i
V (3.29)
donde c
ri
es la concentracin en el reactor correspondiente al componente A
i
, c
i
es la
concentracin en el ujo de alimentacin, r
i
es la velocidad de reaccin en A
i
. El balance
sobre el componente B es:
d
dt
(c
f
V
f
) = c
rf
V
f
+c
f
V
f
+r
f
V
donde c
rf
es la concentracin en el reactor del componente y B, c
f
es la concentracin a la
salida del tanque, r
f
es la velocidad de reaccin en B.
Las dos propiedades para el mezclado del tanque discutidas en este documento son:
el nivel del tanque h el cual est descrito en la ecuacin (3.27); la concentracin de cada
elemento est descrita en la ecuacin (3.29).
3.3 Modelos de las propiedades dinmicas de mezclado 43
Ejemplo:
El modelo del tanque en funcin de la altura se describe mediante la ecuacin (3.27) la
cual se enuncia de nuevo a continuacin:

x =
1
R(x) C
x +
1
C
u
R =
h

f
A
f

2gh
C =
f
A
u =
n
X
i=1
q
i
x = h
donde:
A rea de la supercie.
A
f
rea de cruze seccional en la salida.

f
densidad a la salida del tanque equivalente a la densidad en el tanque.
g aceleracin de la gravedad.
q
i
ujo en la i-sima entrada del tanque.
Realizando la sustitucin de los elementos en la anterior ecuacin se tiene:

x =
1
R(x)C
x +
1
C
u

h =

f
A
f
2

2gh
h
f
A
h +
1

f
A
n
X
i=1
q
i

h =
A
f
A
2
p
2gh +
1

f
A
n
X
i=1
q
i
(3.30)
La ecuacin (3.30) describe la propiedad dinmica de la altura en el tanque. Como un
44 Modelos matemticos del proceso de mezclado de petrleo crudo
0 10 20 30 40 50 60
0
5
10
15
20
A lt ura del Tanque
h
0 10 20 30 40 50 60
0
5
10
15
20
Deri vada de l a al t ura del Tanque
t i empo
h
1
Figura 3.2: Altura y su derivada en el tanque
ejemplo, para los siguientes datos:
A = 100 m
2
A
f
= 100 m
2

f
= 32,23
o
API
g = 9,81 Kg/m
2
2
X
i=1
q
i
= 59903 m
3
/h
El resultado esta expresado en la grca de la Figura 3.2.
3.3 Modelos de las propiedades dinmicas de mezclado 45
3.3.2. Modelo 2. En funcin de la densidad y del volumen en el
tanque
Para simular el comportamiento dinmico de la densidad y el volumen de la seccin de
almacenamiento y carga a buque tanques se utiliza la siguiente ecuacin:
dm
dt
= f
in
f
o
(3.31)
donde m representa la masa de petrleo crudo contenido en el tanque. f
in
y f
o
son los ujos
de entrada y de salida respectivamente en el tanque, con la diferencia de que en el buque
tanque f
o
= 0 [1]. Las variables de inters son la densidad y el volumen en el tanque y el
buque tanque, desarrollando (3.31) se tiene:
d(V )
dt
= f
in
f
o

dV
dt
+V
d
dt
= f
in
f
o
dV
dt
=

f
in
f
o
V
d
dt

(3.32)
La ecuacin (3.32) describira el volumen, pero el problema es que contiene dos variables
y solo una ecuacin lo cual hace imposible encontrar una solucin. Para solucionar este
problema, en la prctica se observa que el comportamiento dinmico de la densidad en un
tanque puede ser descrita por:
d
dt
=
(
in
k
2
)
k
1
(3.33)
donde k
1,2
son los parmetros de ajuste y
in
es la densidad de la corriente que ingresa al
tanque o al buque tanque.
Sustituyendo la ecuacin (3.33) en la ecuacin (3.32) se tiene:
dV
dt
=

f
in
f
o
V
d
dt

dV
dt
=
h
f
in
f
o
V

in
k
2

k
1
i
1

dV
dt
=

f
in
f
o
V

in
k
2

k
1

(3.34)
46 Modelos matemticos del proceso de mezclado de petrleo crudo
La ecuacin (3.33) describe el comportamiento dinmico de la densidad y la ecuacin (3.34)
describe el comportamiento dinmico del volumen en la seccin de almacenamiento, por
tanto, las ecuaciones (3.33) y (3.34) describen el comportamiento dinmico en el tanque y
en el buque tanque.
Ejemplo:
El modelo del tanque en funcin de la densidad y del volumen se describe mediante las
ecuaciones (3.33) y (3.34) respectivamente, las cuales se enuncian de nuevo a continuacin:
d
dt
=
(
in
k
2
)
k
1
dV
dt
=
h
f
in
f
o
V

in
k
2

k
1
i
1

donde:
f
in
ujo de entrada al tanque o al buque tanque.
f
o
ujo de salida al tanque o al buque tanque. Para el caso del buque tanque se tiene
f
o
= 0.

in
densidad de la corriente que ingresa al tanque o al buque tanque.
V volumen del tanque o del buque tanque.
densidad del tanque o del buque tanque.
k
1,2
parmetros de ajuste.
Para el caso del buque tanque donde se tienen los siguientes datos:

in
= 32,23
o
API
f
in
= 176979 m
3
/h
f
o
= 0
El cual se ajusta para los siguientes parmetros de ajuste:
k
1
= 6
k
2
= 1
El resultado de la densidad y el volumen en el buque tanque estn expresados en la grca
de la Figura 3.3.
3.3 Modelos de las propiedades dinmicas de mezclado 47
0 10 20 30 40 50 60 70
32. 2
32. 4
32. 6
32. 8
33
Densidad en el Tanque
r
h
o
0 10 20 30 40 50 60 70
0
0. 5
1
1. 5
2
x 10
5
Volumen en el Tanque
t iempo
V
Figura 3.3: Densidad y Volumen en el buque tanque
48 Modelos matemticos del proceso de mezclado de petrleo crudo
3.4. Modelos del mezclado de petrleo crudo
En la Figura (3.5) se muestra el arreglo fsico de un proceso de mezclado de petrleo
crudo, considerado representativo de los que se utilizan actualmente en la industria petrol-
era nacional. El proceso consiste de dos etapas: una etapa de mezclado y una etapa de
almacenamiento y carga a buque tanques [1].
La etapa de mezclado est compuesta por tres tipos de nodos: nodos de mezclado (Mez-
cladores), un nodo de deshidratacin (Deshidratador) y un nodo divisor de corriente (Cr-
culo). Los mezcladores tienen dos corrientes de entrada y una de salida cada uno, el nodo
divisor de corriente es utilizado para el envo de una mezcla considerada para consumo na-
cional y el nodo deshidratador se utiliza para la separacin del agua contenida en el petrleo
crudo.
Se utilizar un modelo agregado y uno distribuido para representar el proceso de mez-
clado. En el modelo distribuido, el proceso se representa por nodos de mezcla individuales
con un controlador para cada uno, donde solo se dispone de informacin local del proceso.
En el modelo agregado, el proceso se representa como un solo nodo de mezclado utilizando
solo un controlador, el cual tiene informacin global del proceso.
La etapa de almacenamiento consta de tanques cerrados para almacenar el petrleo crudo
que se produce en la etapa de mezclado y cargar los buque tanques.
Actualmente, las operaciones de mezclado en la industria petrolera se realizan de manera
tal, que las propiedades de la mezcla que entregan estn por encima de lo requerido ocasio-
nando una fuga econmica por producir una mezcla fuera de especicacin. Esta situacin
crea una oportunidad para la aplicacin de tcnicas de control avanzadas en las operaciones
de mezclado para entregar una mezcla que cumpla con las propiedades requeridas y al mismo
tiempo obtener un benecio econmico extra.
3.4.1. Regla de mezclado para petrleo crudo
Considere el mezclador de la Figura (3.4) con una corriente de salida S
M
como la mezcla
homognea de las m corrientes de entrada S [1]. Cada corriente de entrada es representada
3.4 Modelos del mezclado de petrleo crudo 49
S1
S2
Sm
SM
Figura 3.4: Mezcla homognea de m componentes
por un vector de propiedades como
S
i
= {f
i mn
, f
i max
,
i
, c
i
} , i = 1, 2, . . . , m
donde:
f
i(mn,max)
es el ujo mnimo y mximo disponible de la i-sima corriente de entrada,
(kg/h).

i
es la densidad de la corriente de salida , (
o
API, donde
o
API es una medida
indirecta de la densidad empleada en el Instituto Mexicano del Petrleo).
c
i
es un costo asociado a la corriente por su utilizacin en la mezcla, (USD/kg).
Mientras que la corriente de salida se dene por el vector:
S
M
=

f
M mn
, f
M max
,
M mn
,
M max,
c
M

donde:
f
M(mn,max)
es el ujo mnimo y mximo requerido, (kg/h).
50 Modelos matemticos del proceso de mezclado de petrleo crudo

M(mn,max)
es la densidad mnima y mxima permitida en la mezcla , (
o
API).
c
M
es el costo de produccin de la mezcla, (USD/kg).
Si la mezcla fuera ideal su densidad, para todo t > 0 (con t denotando la variable tiempo),
se puede obtener como:

M
(t) =
m
X
i=1
f
i
(t)
i
f
M
(3.35)
pero en general la ecuacin (3.35) no es representativa del proceso, ya que la regla de mezclado
est dada por una funcin que depende de las densidades y una no linealidad en los ujos
de las corrientes de entrada,
M
(t) = g(f(t), ). Una alternativa es agregar un trmino
de correccin
M
(t) a (3.35), llamado "propiedad en exceso.
o
"desviacin de lo ideal".
Siguiendo la idea de las ecuaciones de las propiedades en exceso en soluciones no ideales, el
trmino
M
(t) se propone como:

M
(t) =
m1
X
j=1
m
Y
i=j+1

j,i
f
j
(t)f
i
(t)
f
2
M
(3.36)
donde
j,i
es el coeciente de iteracin entre los componentes j e i que se mezclarn y su
valor es obtenido empricamente como:

j,i
=

j
+
i

donde es un parmetro de ajuste. Se sabe que para el petrleo crudo se cumple la siguiente
relacin:

M
(t) 0,1
"
m
X
i=1
f
i
(t)
i
f
M
#
(3.37)
Entonces la densidad de la mezcla se obtiene de una regla de mezclado denida como la
suma de una funcin lineal y un trmino de correccin que es una funcin no lineal:

M
(t) =
M
(t)
Lineal
+
M
(t)
NoLineal

M
(t) =
m
X
i=1
f
i
(t)
i
f
M
+
m1
X
j=1
m
Y
i=j+1

j,i
f
j
(t)f
i
(t)
f
2
M
(3.38)
la ecuacin (3.38) es la que describe el proceso de mezclado general.
3.4 Modelos del mezclado de petrleo crudo 51
M1
S1 SM1
S2 SP1
M2
SP2
S3
SM2
SP3
SP4
S4
SM3
Figura 3.5: Etapa de mezclado de la industria petrolera nacional
3.4.2. Proceso de mezclado que incluye diferentes tipos de nodos
Para mostrar como se incluyen los modelos de los distintos tipos de nodos en el modelo
de un proceso de mezclado, considere el mezclado de la Figura 3.5, el cual tiene un nodo
deshidratador y un nodo divisor de corriente [1].
Para obtener el modelo del deshidratador se sabe que las corrientes S
M1
y S
P2
estn
compuestas por una cantidad de petrleo crudo O y una cantidad de agua W.
La corriente S
P1
est compuesta nicamente por la diferencia de agua entre S
M1
y S
P2
.
f
M1
= O
f
M1
+W
f
M1
= af
M1
+bf
M1
(3.39)
f
P1
= W
f
M1
W
f
P2
(3.40)
f
P2
= O
f
P2
+W
f
P2
= cf
P2
+df
P2
(3.41)
donde a, b, c y d representan las fracciones msicas de los componentes. Asumiendo que la
masa total de petrleo crudo que ingresa al deshidratador se conserva a la salida (slo se
separa el agua en el proceso), entonces se tiene:
O
f
P2
= O
f
M1
52 Modelos matemticos del proceso de mezclado de petrleo crudo
cf
P2
= af
M1
f
P2
= f
M1
(3.42)
donde = (a/b) y la cantidad de agua en S
P2
se obtiene como:
W
f
P2
= df
P2
=
ad
c
f
M1
entonces (3.40) queda como:
f
P1
= bf
M1

ad
c
f
M1
f
P1
= f
M1
(3.43)
donde = (bc ad)/c. La nueva densidad de la corriente que sale del deshidratador
P2
se
obtiene como:

P2
=
f
M1

P1
f
P1

P1
f
P2
utilizando (3.42) y (3.43) se tiene lo siguiente:

P2
=

M1

P1

(3.44)
donde , son las constantes de deshidratacin y
P1
es la densidad del agua dada en
o
API,
la ecuacin (3.44) es la que describe la relacin que existe entre las densidades de los crudos
a la entrada y a la salida del deshidratador.
Ahora, realizando una resta de la ecuaciones (3.39) menos la ecuacin (3.41) se tiene lo
siguiente:
f
M1
f
P2
= W
f
M1
W
f
P2
+O
f
M1
O
f
P2
= (bf
M1
df
P2
) + (af
M1
cf
P2
) (3.45)
pero como se asumi que la masa de petrleo crudo que ingresa al deshidratador se conserva
a la salida descrito por la siguiente ecuacin:
O
f
P2
= O
f
M1
cf
P2
= af
M1
3.4 Modelos del mezclado de petrleo crudo 53
entonces sustituyendo este resultado en la ecuacin (3.45) se tiene el siguiente resultado:
f
M1
f
P2
= bf
M1
df
P2
f
M1
=
1 d
1 b
f
P2
(3.46)
donde b y d son las fracciones msicas de agua a la entrada y a la salida del deshidratador,
respectivamente, con la ecuacin (3.46) se obtiene el ujo que se tiene que introducir a la
entrada del deshidratador debido a la restriccin impuesta por el ujo que se requiere a la
salida del deshidratador.
Para el modelo de un divisor de corriente se considera que la densidad de la corriente
de entrada es la misma en las corrientes de salida, esto es
M2
=
P3
=
P4
, el balance de
materia es:
f
M2
= f
P3
+f
P4
(3.47)
3.4.3. Modelo distribuido
Desde este enfoque, cada punto de mezclado es visto de una forma independiente, como
se muestra en la Figura 3.6 [1].
Cada nodo mezclador solo tiene informacin de las propiedades de las corrientes que
ingresan en l y las caractersticas requeridas en las corrientes de salida o la mezcla deseada.
Esto hace que la informacin que obtiene el controlador asignado a este punto de mezcla
solo conozca informacin local del proceso y por lo tanto desconoce las capacidades fsicas
de los dems puntos de mezclado.
De la Figura 4.2, el ujo f
Mi
y la densidad
Mi
de la corriente S
Mi
se obtienen como:
f
Mi
= f
(Mi1)
+f
i

Mi
=

f
(Mi1)

(Mi1)
+f
j

j
+

(Mi1,j)
f
(Mi1)
f
j
f
Mi

1
f
Mi
i = 1, 2, . . . , n, j = i + 1
La representacin distribuida de la etapa de mezclado de la Figura 3.5 solo considera los
nodos de mezclado en el control, la informacin de los otros nodos como el deshidratador
54 Modelos matemticos del proceso de mezclado de petrleo crudo
SMi SMi-1
Sj
Figura 3.6: Representacin distribuida del proceso de mezclado
y el divisor de corriente se incluyen de manera indirecta y no forman parte del modelo de
control, por tanto se utiliza la misma regla de mezclado.
3.4.4. Modelo agregado
El modelo consiste en representar el modelo en lnea de petrleo crudo de manera agre-
gada, como se muestra en la Figura 3.7 [1].
Bajo esta representacin la relacin existente entre las corrientes de entrada S y la de
salida S
Mn
es obtenida a partir de las ecuaciones de balance de materia y regla me mezclado
existentes en cada mezclador.
De la Figura 3.7, el ujo f
M1
y la densidad
M1
en la corriente S
M1
estn dados por:
f
M1
= f
1
+f
2
(3.48)

M1
=

1
f
1
+
2
f
2
+

1
f
1
f
2
f
M1

1
f
M1
(3.49)
y para el ujo f
M2
y la densidad
M2
en la corriente S
M2
se tiene:
f
M2
= f
M1
+f
2
3.4 Modelos del mezclado de petrleo crudo 55
S1
S2
S4
SM3
S3
SP3
SP1
Figura 3.7: Representacin agregada de la etapa de mezclado

M2
=

M1
f
M1
+
3
f
3
+

2
f
M1
f
3
f
M2

1
f
M2
utilizando (3.48) y (3.49) se tiene lo siguiente:
f
M2
= f
1
+f
2
+f
3
(3.50)

M2
=

1
f
1
+
2
f
2
+

1
f
1
f
2
f
M1

f
1
+f
2
f
1
+f
2

+
3
f
3
+

2
(f
1
+f
2
)f
3
f
M2

1
f
M2
(3.51)
nalmente, separando (3.51) en parte lineal y no lineal se tiene:

M2
=

1
f
1
+
2
f
2
+
3
f
3
+

1
f
1
f
2
f
1
+f
2
+

2
(f
1
+f
2
)f
3
f
1
+f
2
+f
3

1
f
1
+f
2
+f
3
(3.52)
El modelo agregado de la etapa de mezclado de la Figura 3.5, se muestra en la Figura
3.7. Bajo esta representacin, la relacin entre las corrientes de entrada y la de salida se
obtienen de las ecuaciones de balance de materia y de la regla de mezclado existentes entre
cada mezclador.
Siguiendo el mismo procedimiento donde se obtuvieron las ecuaciones (3.50) y (3.52) para
calcular el ujo y la densidad nal en una representacin agregada, se obtienen las siguientes
56 Modelos matemticos del proceso de mezclado de petrleo crudo
relaciones:
f
M3
= (f
1
+f
2
) +f
3
+f
4
f
P3

M3
=
(
1

P1
) f
1
+ (
2

P1
) f
2
+
3
f
3
+
4
f
4
+
f
M3
donde:
=

1
f
1
f
2
f
M1
+

2
f
P2
f
3
f
M2

1
f
P3
f
M2

((
1

P1
) f
1
+ (
2

P1
) f
2
+
3
f
3
)
f
P3
f
M2
+

3
f
P4
f
4
f
M3

representa la parte no lineal de la mezcla. Aqu la no linealidad de la mezcla es distinta


que la del modelo distribuido.
Captulo 4
Modelacin del mezclado de petrleo
crudo va redes neuronales y datos
reales
4.1. Introduccin
En este captulo se presenta como se obtienen los datos reales que se tienen una base
de datos reales en un programa de Excel, se establece la comunicacin para extraer los
datos de Excel con una sentencia de Matlab [22], posteriormente estos datos se emplean
para desarrollar la estimacin del comportamiento del proceso de mezclado para el modelo
agregado y para el modelo distribuido, va Least Square, va Redes neuronales y se presentan
los resultados para cada uno de los casos, por ltimo se presenta una tabla comparativa que
muestra los resultados para cada caso.
Para la modelacin del proceso de mezclado de petrleo crudo se consideran 3 tipos de
modelos de identicacin del mezclado de petrleo crudo: la identicacin de parmetros va
least square descrita mediante el inciso (a) de la Figura 4.1, la identicacin de parmetros
va redes neuronales para el modelo completo descrita mediante el inciso (b) de la Figura 4.1
y la identicacin de parmetros va redes neuronales para la no linealidad descrita mediante
58 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
Figura 4.1: Modelos de identicacin del mezclado de petrleo crudo
el inciso (c) de la Figura 4.1.
4.2. Least square (LS) para identicar los parmetros
del mezclado de petrleo crudo
La propiedad esttica del mezclado de petrleo crudo se puede expresar mediante la
siguiente relacin:
y =
1
x
1
+
2
x
2
+. . . +
n
x
n
(4.1)
donde (x
1
, x
2
, . . . , x
n
, y) son datos conocidos y (
1
,
2
, . . . ,
n
) son los parmetros [24][10].
Experimentalmente estos datos no se pueden considerar como una relacin exacta, por
4.2 Least square (LS) para identicar los parmetros del mezclado de petrleo crudo 59
tanto se expresan como sigue:
y
1
=
1
x
11
+
2
x
12
+. . . +
n
x
1n
+ e
1
y
2
=
1
x
21
+
2
x
22
+. . . +
n
x
2n
+ e
2
.
.
.
y
m
=
1
x
m1
+
2
x
m2
+. . . +
n
x
mn
+e
m
En forma matricial:
Y = X+E (4.2)
donde:
Y = [y
1
, . . . , y
n
]
T
X =
_

_
x
11
x
1n
.
.
.
.
.
.
.
.
.
x
m1
x
mn
_

_
= [
1
, . . . ,
n
]
T
E = [e
1
, . . . e
m
]
T
Aplicando mnimos cuadrados al modelo de la ecuacin (4.2) se tiene:
J = E
T
E =
m
X
i=1
e
2
i
, mn

J least square

J

= 0

donde J es la funcin de costo. Se aplica la derivada a la funcin de costo con respecto al


vector de los parmetros a identicar para obtener el mnimo de la funcin de costo como
sigue:
J

=
J
E
E

= 2E

(Y X)
= 2 (Y X)
T
(X) =
= 2Y
T
X + 2
T
X
T
X = 0
As la estimacin de los parmetros se obtiene mediante:
=

X
T
X

1
Y
T
X (4.3)
La no singularidad de X
T
X depende de los datos de entrada (x
1
, . . . , x
n
).
60 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
Para el modelo ARX (Auto-Regresivo Ay con entrada eXtra Bu) se tiene
Ay(k) = Bu(k) (4.4)
donde:
A = 1 +a
1
q
1
+. . . + a
n
q
n
B = b
1
q
1
+. . . +b
m
q
m
q
1
= unidad de retraso
Este se puede expresar en forma regresiva lineal de la siguiente manera:
y(k) = a
1
y(k 1) . . . a
n
y(k n) +b
1
u(k 1) +. . . +b
m
u(k m)
Cuando se da una entrada u(k) a la planta, hay una correspondiente salida y(k). El vector
de parmetros es:
= [a
1
. . . a
n
, b
1
. . . b
m
]
T
El vector de datos es:
(k) = [y(k 1) . . . y(k n), u(k 1) . . . , u(k m)]
T
Desde que estos datos no pueden describir exactamente la planta, sta se puede escribir de
la siguiente manera:
y(k) =
T
(k) +e(k) (4.5)
donde:
(k) = [y(k 1) . . . y(k n), u(k 1) . . . , u(k m)]
T
= [a
1
. . . a
n
, b
1
. . . b
m
]
T
e(k) = vector que contiene los errores de modelado, el cual es
idependiente de la entrada u(k) y de la salida y(k)
Aplicando mnimos cuadrados al modelo descrito por la ecuacin (4.5) se tiene:
J =
m
X
i=1
e
2
i
(k), mn

J least square

J

= 0

4.3 Redes neuronales para identicar los parmetros del mezclado de petrleo crudo 61
donde l > m ax(m, n). Se aplica la derivada a la funcin de costo con respecto al vector de
los parmetros a identicar para obtener el mnimo de la funcin de costo, aplicando la regla
de la cadena y sustituyendo el error de modelado de la ecuacin (4.5) se tiene lo siguiente:
J

=
l
X
k=1
J
e(k)
e(k)

= 2
l
X
k=1
e(k)

y(k)
T
(k)

= 2
l
X
k=1

y(k)
T
(k)

T
(k)

=
= 2
l
X
k=1
y(k)
T
(k) 2
"
l
X
k=1

T
(k)(k)
#
= 0
As la estimacin de los parmetros se obtiene mediante:
=
"
l
X
k=1

T
(k)(k)
#
1
l
X
k=1
y(k)
T
(k) (4.6)
donde la no-singularidad de
l
X
k=1

T
(k)(k) depende de los datos de entrada [u(k 1) . . . , u(k m)].
4.3. Redes neuronales para identicar los parmetros
del mezclado de petrleo crudo
Las propiedad a la salida del modelo de mezclado de petrleo crudo se puede escribir en
la siguiente forma general:
y(k) = [u
1
, u
2
, u
3
, . . .] = [X(k)] (4.7)
donde:
X(k) = [u
1
, u
2
, u
3
, . . .]
T
(4.8)
() es una funcin lineal conocida que representa la operacin de mezclado, u
i
es una entrada
escalar medible, esta puede ser la fraccin volumen del componente, y(k) es el valor de la
propiedad a la salida del modelo de mezclado al tiempo k. Este es el modelo NARMA [24].
62 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
Se considera una red neuronal multicapa (o perceptrn multicapa, MLP) al modelo es-
ttico del proceso de mezclado de la ecuacin (4.7), la ecuacin que describe la red neuronal
multicapa es la siguiente:
b y(k) = V
k
[W
k
X(k)] (4.9)
donde la salida escalar es b y(k) R
nx1
, el vector de entrada es X(k) R
nx1
denido en
ecuacin (4.8), los pesos sinpticos en la capa de salida son V
k
R
1xm
, los pesos en la capa
oculta son W
k
R
mxn
, es una funcin vectorial m-dimensional, la representacin tpica de
la funcin
i
() es una funcin sigmoidal debido a que se necesita una funcin continua para
poder obtener su derivada ya que la derivada tambin se emplea en el algoritmo [25][26]. El
error de identicacin en la capa de salida se dene mediante:
e(k) = b y(k) y(k)
El sistema de mezclado de la ecuacin (4.7) se puede reescribir como:
y(k) = V

[W

X(k)] (k)
donde V

y W

son los pesos sinpticos desconocidos de la capa de salida y de la capa oculta


respectivamente, los cuales pueden minimizar el error de modelado (k). La planta no-lineal
de ecuacin (4.7) se puede tambin expresar como:
y(k) = V
o
[W

X(k)] (k) (4.10)


donde V
o
es un vector seleccionado por el usuario. En general, k(k)k k(k)k. Usando la
Serie de Taylor alrededor del punto W
k
X(k), el error de identicacin se puede expresar de
la siguiente manera:
e(k) = V
k
[W
k
X(k)] V
o
[W

X(k)] +(k)
= V
k
[W
k
X(k)] V
o
[W
k
X(k)] +V
o
[W
k
X(k)] V
o
[W

X(k)] +(k)
=
e
V
k
[W
k
X(k)] +V
o

f
W
k
X(k) +(k)
(4.11)
donde es la derivada de la funcin de activacin no-lineal () en el punto W
k
X(k),
f
W
k
=
W
k
W

,
e
V
k
= V
k
V
o
, (k) = V
o
(k) + (k), aqu (k) es la aproximacin de segundo
orden del error de la Serie de Taylor.
4.3 Redes neuronales para identicar los parmetros del mezclado de petrleo crudo 63
En este documento solamente se est interesado en la identicacin en lazo abierto, se
puede asumir que la planta de la ecuacin (4.7) es acotada en la entrada, acotada en la
salida, por lo tanto, es estable, i.e., u(k) y y(k) en ecuacin (4.7) son acotadas. Desde que
X(k) = [u
1
, u
2
, u
3
, . . .]
T
, X(k) es acotada. Debido a que la funcin es acotada se asume
que (k) de la ecuacin (4.10) es acotada, tambin (k) es acotado. As (k) en ecuacin
(4.11) es acotada. El siguiente teorema prueba la estabilidad del algoritmo backpropagation
como un algoritmo para una red neuronal multicapa en tiempo discreto [25][26].
Teorema 4.1 Si se usa la red neuronal multicapa de la ecuacin (4.9) para identicar el
proceso no-lineal de la ecuacin (4.7) el siguiente algoritmo parecido al backpropagation puede
hacer el error de identicacin e(k) acotado.
W
k+1
= W
k

k
e(k)V
oT
X
T
(k)
V
k+1
= V
k

k
e(k)
T
(4.12)
donde
k
=

1+kV
oT
X
T
(k)k
2
+kk
2
, 0 < 1. El promedio del error de identicacin satisface:
J = lmsup
T
1
T
T
X
k=1
e
2
(k)

(4.13)
donde:
=
Ka
1+k

2
k
1+k

> 0
k = max
k

V
oT
X
T
(k)

2
+ kk
2

=
2Ka
1+k
max
k
[e(k)(k)]
Demostracin. Se selecciona la matriz positiva denida L
k
como:
L
k
=

f
W
k
K
w
f
W
T
k

e
V
k
K
v
e
V
T
k

(4.14)
donde
f
W
k
= W
k
W

,
e
V
k
= V
k
V
o
. Desde la ley de actualizacin de los pesos sinpticos
de la ecuacin (4.12) se tiene:
]
W
k+1
=
f
W
k

k
e(k)V
oT
X
T
(k)
g
V
k+1
=
e
V
k

k
e(k)
T
64 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
desde que la matriz es una matriz diagonal, y usando la ecuacin (4.11) se tiene:
L
k
=

f
W
k+1
K
w
f
W
T
k+1

e
V
k+1
K
v
e
V
T
k+1

f
W
k
K
w
f
W
T
k

e
V
k
K
v
e
V
T
k

L
k
=

f
W
k

k
e(k)V
oT
X
T
(k)

K
w

f
W
k

k
e(k)V
oT
X
T
(k)

+
+

e
V
k

k
e(k)
T

K
v

e
V
k

k
e(k)
T

f
W
k
K
w
f
W
T
k

e
V
k
K
v
e
V
T
k

f
W
k
K
w
f
W
T
k

f
W
k
K
w

k
e(k)V
oT
X
T
(k)

k
e(k)V
oT
X
T
(k)K
w
f
W
k
T
+

k
e(k)V
oT
X
T
(k)K
w

k
e(k)V
oT
X
T
(k)

+
+

e
V
k
K
v
e
V
k
T

e
V
k
K
v

k
e(k)
T

k
e(k)
T
K
v
e
V
k
T
+
k
e(k)
T
K
v

k
e(k)
T

f
W
k
K
w
f
W
T
k

e
V
k
K
v
e
V
T
k

f
W
k
K
w
f
W
T
k


f
W
k
K
w

k
e(k)V
oT
X
T
(k)

k
e(k)V
oT
X
T
(k)K
w
f
W
k
T
+

k
e(k)V
oT
X
T
(k)K
w

k
e(k)V
oT
X
T
(k)

e
V
k
K
v
e
V
T
k

e
V
k
K
v

k
e(k)
T

k
e(k)
T
K
v
e
V
k
T
+
k
e(k)
T
K
v

k
e(k)
T

f
W
k
K
w
f
W
T
k

e
V
k
K
v
e
V
T
k


f
W
k
K
w

k
e(k)V
oT
X
T
(k)

k
e(k)V
oT
X
T
(k)K
w
f
W
k
T
+

k
e(k)V
oT
X
T
(k)K
w

k
e(k)V
oT
X
T
(k)

+
+

e
V
k
K
v

k
e(k)
T

k
e(k)
T
K
v
e
V
k
T
+
k
e(k)
T
K
v

k
e(k)
T

2
k
e(k)V
oT
X
T
(k)K
w
f
W
k
T

k
e(k)V
oT
X
T
(k)K
w

k
e(k)V
oT
X
T
(k)

+
+

2
k
e(k)
T
K
v
e
V
k
T

k
e(k)
T
K
v

k
e(k)
T

2
k
ke(k)k

V
oT
X
T
(k)K
w
f
W
k
T
+
T
K
v
e
V
k
T

k
e(k)V
oT
X
T
(k)K
w

k
e(k)V
oT
X
T
(k)

k
e(k)
T
K
v

k
e(k)
T

Si K
w
= K
v
= K
a
2K
a

k
ke(k)k

f
W
k
X(k)V
oT
+
e
V
k

+K
a

k
e(k)V
oT
X
T
(k)

2
+K
a

k
e(k)
T

2
2K
a

e
2
(k) e(k)
T
(k)

+K
a

2
k
e
2
(k)

V
oT
X
T
(k)

2
+K
a

2
k
e
2
(k)

2
K
a

k
e
2
(k)
h
2
k

V
oT
X
T
(k)

2
+ kk
2
i
+ 2K
a

k
e(k)
T
(k)

K
a

1+k

2
k
1+k

e
2
(k) +
2Ka
1+k
e(k)
T
(k)
L
k
e
2
(k) + (4.15)
4.3 Redes neuronales para identicar los parmetros del mezclado de petrleo crudo 65
donde se dene en la ecuacin (4.13). Desde (4.11) y (4.14) se tiene que V
k
esta en funcin
de e(k) y (k), as se admite que L
k
es una funcin de Lyapunov suave, la dinmica del error
es entrada-a-estado estable. Debido a que la "ENTRADA"(k) es acotada, el "ESTADO"e(k)
es acotado, lo anterior se comprueba en la siguiente desarrollo, la ecuacin (4.15) se puede
reescribir como:
L
k
e
2
(k) +
2
(k) e
2
(k) + (4.16)
Considerando el intervalo de L
k
de la ecuacin (4.16) desde 1 a T, y considerando que L
T
> 0
y que L
1
es una constante se tiene:
L
T
L
1

T
X
k=1
e
2
(k) +T

T
X
k=1
e
2
(k) L
1
L
T
+T L
1
+T T
1
T
T
X
k=1
e
2
(k)

de donde el se tiene el promedio del error de identicacin de la ecuacin (4.13) el cual es


estable, con el desarrollo anterior se comprueba el teorema.
Comentario 4.1 V
o
no tiene efecto sobre la propiedad de estabilidad de la neuroidenti-
cacin, pero esta tiene inuencia sobre la exactitud de la identicacin, ver ecuacin (4.13).
Se ha diseado un mtodo o-line (fuera de lnea) para encontrar el mejor valor de V
o
.
Si se ja V
o
= V
0
, el algoritmo de la ecuacin (4.12) puede hacer convergente el error de
identicacin, i.e., V
k
har el error de identicacin ms pequeo que el de V
0
, V
o
se puede
seleccionar empleando los siguientes pasos:
1. Inicia desde cualquier valor inicial para V
o
= V
0
.
2. Hacer la identicacin con este V
o
hasta T
0
.
3. Si ke(T
0
)k < ke(0)k, entonces V
T
es el nuevo V
o
, i.e., V
o
= V
To
, ir al paso 2 y repetir
el proceso de identicacin.
66 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
4. Si ke(T
0
)k ke(0)k, termina la identicacin o-line (fuera de lnea), ahora V
To
es el
valor nal para V
o
.
Conociendo con anterioridad V
o
, se puede iniciar la identicacin con el algoritmo de la
ecuacin (4.12).
4.4. Obtencin de los datos desde una base de datos
reales
Para los datos reales se tiene el reporte de medicin tomado diariamente del mes de
noviembre del 2002 para el proceso de mezclado de la Figura 3.5 tomando en cuenta las
siguientes equivalencias en los smbolos:
S
1
= L
3
, S
2
= Puerto Ceiba (PC), S
3
= Maya (M), S
4
= El Golpe (EG)
S
M1
= Q
a
, S
M2
= Q
c
, S
M3
= Recibo en Tanques (RT)
S
P1
= S
P1
, S
P2
= Q
b
, S
P3
= Envo a Nueva Etapa, S
P4
= Q
d
b = b (Fraccin msica de agua en la entrada)
d = d (Fraccin msica de agua en la salida)
(4.17)
Los segundos smbolos despus del signo de igualdad corresponden a los smbolos que se
emplean a partir de este momento, ya que estos se emplean en el programa de Excel y son
los datos que vienen en el reporte diario del mes de Noviembre del 2002; Puerto Ceiba,
Maya y El Golpe corresponden a tipos especiales de crudo que se caracterizan por tener un
valor diferente de
o
API (donde
o
API es una medida indirecta de la densidad empleada en
el Instituto Mexicano del Petrleo) [15].
Los datos de densidad en
o
API para cada etapa del proceso de la Figura 3.5 vienen
reportados en el reporte diario del mes de Noviembre del 2002.
La cantidad de ujo para cada etapa del proceso de la Figura 3.5 se obtiene de la siguiente
4.4 Obtencin de los datos desde una base de datos reales 67
manera:
Dispositivo Flujo (m
3
/h)
Mezclador M3 S
P4
= (Recibo en Tanques) (El Golpe)
Divisor de corriente Q
c
= Q
d
+ (Envo a Nueva Etapa)
Mezclador M2 Q
b
= Q
c
(Maya)
Deshidratador Q
a
=
1d
1b
Q
b
Mezclador M1 L
3
= Q
a
(Puerto Ceiba)
(4.18)
Note que la ecuacin para el deshidratador es no lineal, esta ecuacin es la que se describi
como la ecuacin (3.46) en donde viene la obtencin detallada de esta ecuacin.
Se obtiene el dato de la no linealidad para la densidad de salida de cada mezclador del
modelo distribuido para posteriormente enviar los datos a un programa de Matlab. Los datos
se obtienen de la siguiente manera:
Dispositivo No linealidad de la densidad en
o
API
Mezclador M1 NLD1 = Q
a
o
API

h
(
L
3f
Q
af
) L
3
o
API
i

h
(
PC
f
Q
af
) PCo
API
i
Mezclador M2 NLD2 = Q
c
o
API

h
(
Q
bf
Q
cf
) Q
b
o
API
i

h
(
M
f
Q
cf
) Mo
API
i
Mezclador M3 NLD3 = RTo
API

h
(
Q
df
RT
f
) Q
d
o
API
i

h
(
EG
f
RT
f
) EGo
API
i
(4.19)
Se obtienen las fracciones de ujo a la entrada de cada mezclador del modelo distribuido
para posteriormente enviar los datos a un programa de Matlab. Los datos se obtienen de la
siguiente manera:
Dispositivo Fraccin de ujo en entrada 1 (s/u) Fraccin de ujo en entrada 2 (s/u)
Mezclador M1 u(1, k) =
L
3f
Q
af
u(2, k) =
PC
f
Q
af
Mezclador M2 u(1, k) =
Q
bf
Q
cf
u(2, k) =
M
f
Q
cf
Mezclador M3 u(1, k) =
Q
df
RT
f
u(2, k) =
EG
f
RT
f
(4.20)
Se obtiene el dato de la no linealidad para la densidad de salida de todos los mezcladores
del modelo agregado para posteriormente enviar el dato a un programa de Matlab. El dato
68 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
se obtiene de la siguiente manera:
No linealidad de la densidad en
o
API
NLA = RTo
API

h
(
L
3f
prom
) L
3
o
API
i

h
(
PC
f
prom
) PCo
API
i

h
(
M
f
prom
) Mo
API
i

h
(
EG
f
prom
) EGo
API
i
prom = L
3f
+PC
f
+M
f
+EG
f
(4.21)
Se obtienen las fracciones de ujo en cada entrada para todos los mezcladores en el mod-
elo agregado para posteriormente enviar los datos a un programa de Matlab. Los datos se
obtienen de la siguiente manera:
Flujo, entrada 1 (s/u) Flujo, entrada 2 (s/u) Flujo, entrada 3 (s/u) Flujo, entrada 4 (s/u)
u(1, k) =
L
3f
prom
u(2, k) =
PC
f
prom
u(3, k) =
M
f
prom
u(4, k) =
EG
f
prom
Se extraen los datos del programa de Excel hacia programas de Matlab con la instruccin:
A = xlsread(data)
donde A es la matriz donde se alojan en Matlab todos los datos numricos, data es el nombre
del programa en Excel (Ver Figura 4.2) [22].
Las propiedades estticas en una mezcla de petrleo crudo se describen mediante la
ecuacin (3.14) [18], la cual se enuncia de nuevo a continuacin:
M =
X
x
i
M
i
+M
donde:
M cambio de propiedad de la mezcla.
x
i
fraccin mol del componente i en la solucin.
M se obtiene mediante la ecuacin (3.15) la cual se enuncia a continuacin:
M = M
X
x
i
M
o
i
donde:
4.4 Obtencin de los datos desde una base de datos reales 69
Base de datos
Excel
Programa
Matlab
A=xlsread(data)
Matlab
Figura 4.2: Comunicacin Excel-Matlab
M
o
i
propiedad molar estndar del componente i en un estado estndar especicado.
Para este documento interesa la propiedad de la densidad.
Para el caso de los modelos distribuido y agregado y si todos los componentes existen
en un estado liquido a la misma presin y temperatura como en solucin, entonces M
o
i
se
convierte en:
M
o
i
=
i
donde:

i
densidad para cada componente a la entrada del mezclador, dada en
o
API.
y x
i
se convierte a:
x
i
=
f
in
X
f
in
= u
i
donde:
f
in
ujo de cada entrada del mezclador, dado en m
3
/h.
u
i
ujo parcial de cada componente, sin unidades.
70 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
Entonces la ecuacin (3.15) se convierte en la siguiente ecuacin:
=
X
u
i

i
(4.22)
donde
densidad a la salida del mezclador, en la caso agregado es la densidad a la salida del
ultimo mezclador, dada en
o
API.
no linealidad de la densidad en la mezcla, dada en
o
API.
y la ecuacin (3.14) se convierte en la siguiente ecuacin:
=
X
u
i

i
+ (4.23)
La ecuacin (4.23) describe el comportamiento de la densidad de la mezcla por cada da, y
la ecuacin (4.22) describe el comportamiento de la no linealidad en la mezcla por cada da,
para este documento se tiene el dato de 26 das.
Por ejemplo, para el caso del modelo distribuido del mezclador 1 se tienen las siguientes
ecuaciones:
x
i
=
f
in
2
X
i=1
f
in
=
2
X
i=1
u
i

i
=
2
X
i=1
u
i

i
+
y se tiene la repuesta dada por la Figura 4.3.
Para el caso del modelo agregado se tienen las siguientes ecuaciones:
x
i
=
f
in
4
X
i=1
f
in
=
4
X
i=1
u
i

i
=
4
X
i=1
u
i

i
+
y se tiene la repuesta dada por la Figura 4.4.
4.4 Obtencin de los datos desde una base de datos reales 71
0 5 10 15 20 25 30
31. 8
32
32. 2
32. 4
32. 6
32. 8
33
t i em po
D
e
n
s
i
d
a
d
M odel o m at em at i c o para el M ez c l ador 1
Figura 4.3: Densidad a la salida del mezclador 1
0 5 1 0 1 5 2 0 2 5 3 0
3 1
3 1 . 2
3 1 . 4
3 1 . 6
3 1 . 8
3 2
3 2 . 2
3 2 . 4
t i e m p o
D
e
n
s
i
d
a
d
M o d e l o m a t e m a t i c o p a ra e l M o d e l o A g re g a d o
Figura 4.4: Densidad de salida del modelo agregado
72 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
4.5. Modelacin del modelo distribuido
Para el modelo distribuido se consideran cada uno de los 3 mezcladores por separado (ver
Figuras 3.5 y 3.6) tenindose un programa para cada mezclador. Se obtienen 26 datos de
una base de datos reales los cuales se emplean para realizar cada programa. Se consideran
3 programas para identicacin de parmetros va least square (uno por cada mezclador),
se tienen 6 programas para identicacin de parmetros va redes neuronales debido a que
hay dos modalidades que son para el modelo completo y para la no linealidad las cuales se
explicarn ms adelante.
4.5.1. Identicacin de parmetros va least square
Basta con explicar solamente un programa dado que los tres programas de identicacin
de parmetros va Least square son idnticos, con la diferencia que cada programa contiene
los datos correspondientes a cada mezclador.
Para este programa se emplea la formula descrita por la ecuacin (4.3) para el Least
square monovariable la cual se vuelve a citar a continuacin:
=

X
T
X

1
Y
T
X
X = [x(1), x(2), . . . x(26)]
Y = [y(1), y(2), . . . y(26)]
x(k) = u(1, k) u(2, k), k = 1, 2, . . . , 26
y1(k) = x(k), k = 1, 2, . . . , 26
(4.24)
donde u(1, k) es la fraccin de ujo de la entrada 1 para cada mezclador, u(2, k) es la fraccin
de ujo de la entrada 2 para cada mezclador, es el parmetro a identicar va least square,
y(k) es la salida proporcionada por los datos reales y y1(k) es la salida identicada va least
square.
Posteriormente se gracan los resultados, que son tres grcas en una Figura y una Figura
para cada mezclador (ver Figuras 4.5, 4.6 y 4.7):
4.5 Modelacin del modelo distribuido 73
La primer grca compara la seal deseada de los datos proporcionados por el programa
de Excel contra seal de salida que se tiene con la identicacin va Least square.
La segunda grca los puntos de la entrada contra la salida para el programa de Excel,
tambin grca en una lnea recta la pendiente que se obtiene va Least square la
cual es el valor del parmetro , donde es el parmetro de iteracin del modelo de
iteracin.
La tercer grca proporciona el error promedio cuadrtico de la seal deseada y la
seal de salida para el algoritmo de Least square.
A continuacin se analizan las grcas de los programas de Matlab de Least square para
cada mezclador:
De la grca del inciso (a) de la Figura 4.5 donde se encuentran la seal deseada con
la estimada del mezclador 1 se observa que la seal estimada es una lnea recta que pasa
por en medio de todos los valores de la seal deseada. De la grca del inciso (b) de la
Figura 4.5 donde se encuentra la pendiente para el mezclador 1 proporciona una pendiente
muy cercana a cero. De la grca del inciso (c) de la Figura 4.5 donde se encuentra el error
promedio cuadrtico del mezclador 1 se observa que el valor del error promedio cuadrtico
es de 0,2046.
De la grca del inciso (a) de la Figura 4.6 donde se encuentran la seal deseada con
la estimada del mezclador 2 se observa que la seal estimada es una lnea recta que pasa
por en medio de todos los valores de la seal deseada. De la grca del inciso (b) de la
Figura 4.6 donde se encuentra la pendiente para el mezclador 2 proporciona una pendiente
muy cercana a cero. De la grca del inciso (c) de la Figura 4.6 donde se encuentra el error
promedio cuadrtico del mezclador 2 se observa que el valor del error promedio cuadrtico
es de 0,0869.
De la grca del inciso (a) de la Figura 4.7 donde se encuentran la seal deseada con
la estimada del mezclador 3 se observa que las seales son muy aproximadas debido a que
la seal deseada el altamente lineal. De la grca del inciso (b) de la Figura 4.7 donde se
encuentra la pendiente para el mezclador 3 proporciona una pendiente muy cercana a cero.
74 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
0 5 10 15 20 25 30
31
32
33
34
(
a
)
D
e
s
e
a
d
a

v
s

L
S
Identificacion via Least Square para Mezclador 1
0.062 0.063 0.064 0.065 0.066 0.067 0.068 0.069 0.07 0.071 0.072
31
32
33
34
(
b
)
P
e
n
d
i
e
n
t
e
0 5 10 15 20 25
0
0.2
0.4
tiempo
(
c
)
E
r
r
o
r

p
r
o
m
e
d
i
o
Figura 4.5: Least square para el mezclador 1
4.5 Modelacin del modelo distribuido 75
0 5 10 15 20 25 30
30
31
32
33
(
a
)
D
e
s
e
a
d
a

v
s

L
S
Identificacion via Least Square para Mezclador 2
0.168 0.17 0.172 0.174 0.176 0.178 0.18 0.182 0.184
30
31
32
33
(
b
)
P
e
n
d
i
e
n
t
e
0 5 10 15 20 25
0
0.05
0.1
tiempo
(
c
)
E
r
r
o
r

p
r
o
m
e
d
i
o
Figura 4.6: Least square para el mezclador 2
76 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
0 5 10 15 20 25 30
31.8099
31.8099
(
a
)
D
e
s
e
a
d
a

v
s

L
S
Identificacion via Least Square para Mezclador 3
-2 -1.5 -1 -0.5 0 0.5
31.8099
31.8099
(
b
)
P
e
n
d
i
e
n
t
e
0 5 10 15 20 25
0
2
4
6
x 10
-31
tiempo
(
c
)
E
r
r
o
r

p
r
o
m
e
d
i
o
Figura 4.7: Least square para el mezclador 3
4.5 Modelacin del modelo distribuido 77
De la grca del inciso (c) de la Figura 4.7 donde se encuentra el error promedio cuadrtico
del mezclador 3 se observa que el valor del error promedio cuadrtico es de 5,0487e 031.
4.5.2. Identicacin va redes neuronales para el modelo completo
Basta con explicar solamente un programa dado que los tres programas de identicacin
de parmetros va redes neuronales son idnticos, con la diferencia que cada programa con-
tiene los datos correspondientes a cada mezclador.
Para este programa se emplea el algoritmo denominado de aprendizaje con parmetros
de aprendizaje variables descrito al principio de ste captulo, este algoritmo es parecido al
algoritmo backpropagation, de hecho en el camino hacia adelante son idnticos, el camino
hacia adelante es obtener la salida de cada neurona a partir de sus entradas, para esto se
emplea la formula (2.1) la cual se vuelve a citar a continuacin para la i-sima neurona:
u
i
=
n
X
j=1

ij
x
j
y
i
= (u
i

i
)
donde:
x
j
j-simo componente de la entrada.

ij
peso de la conexin entre la j-sima componente de la entrada y la i-sima neurona.
u
i
salida del sumador.

i
umbral.
() funcin de activacin no lineal.
y
i
salida de la i-sima neurona.
En este caso no se emplea el umbral quedando la salida de cada neurona como sigue:
y
i
= (u
i
)
Para el modelo distribuido se tienen dos entradas que son u(1, k) y u(2, k).
Para el caso del camino hacia atrs se tiene como se propaga el error de la salida a
travs de cada neurona en la red neuronal, la diferencia entre el algoritmo de aprendizaje
78 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
con parmetros de aprendizaje variables y el backpropagation estriba en que en el caso del
algoritmo de aprendizaje con parmetros de aprendizaje variables emplea el parmetro de
aprendizaje que vara con cada iteracin y adems, en ste se puede comprobar la estabilidad.
La actualizacin de los pesos sinpticos se describe mediante la ecuacin (4.12) la cual
se vuelve a citar a continuacin:
W
k+1
= W
k

k
e(k)V
oT
X
T
(k)
V
k+1
= V
k

k
e(k)
T
donde la salida escalar de la red neuronal es b y(k) R
nx1
, el vector de entrada a la red es
X(k) R
nx1
denida en ecuacin (4.8) donde se emplean las dos entradas que son u(1, k) y
u(2, k), los pesos sinpticos en la capa de salida son V
k
R
1xm
, los pesos en la capa oculta
son W
k
R
mxn
, es una funcin vectorial m-dimensional, la representacin tpica de la
funcin
i
() es una funcin sigmoidal, pero para propsitos del programa se selecciona la
funcin tangente hiperblica ya que esta adems de ser derivable (se emplea la derivada en
el algoritmo) tambin es asimtrica por lo que considera valores menores y mayores a cero
proporcionando mejores resultados en la simulacin. El error de identicacin en la capa de
salida se dene como:
e(k) = b y(k) y(k)
donde es el parmetro de aprendizaje inicial que tiene el valor de 1. V
o
es un vector
seleccionado por el usuario para calibrar la red que para propsitos del programa en Matlab
se pone como V
o
= rand lo cual quiere decir que puede tomar cualquier valor entre 0 y 1.
Para el entrenamiento y examinacin se emplean las siguientes frmulas:
U = [u(1, k), u(2, k)], k = 1, 2, . . . , 26
DE = [DE(1, k), DE(2, k)], k = 1, 2, . . . , 26
y(k) = (DE U
T
) +NLD1(1, k), k = 1, 2, . . . , 26
yn(k) = (DE U
T
) +yn(k), k = 1, 2, . . . , 26
(4.25)
donde DE(1, k) es la densidad de la primer entrada para cada mezclador, DE(2, k) es la
densidad de la segunda entrada para cada mezclador, NLD1(1, k) es la no linealidad del
4.5 Modelacin del modelo distribuido 79
modelo distribuido para el mezclador1, u(1, k) es la fraccin de ujo de la entrada 1 para
cada mezclador, u(2, k) es la fraccin de ujo de la entrada 2 para cada mezclador, y(k)
es la salida deseada para cada mezclador y yn(k) es la salida de la red neuronal para cada
mezclador.
Posteriormente se gracan los resultados, que son cuatro grcas en una Figura y una
Figura para cada mezclador (ver Figuras 4.8, 4.9 y 4.10):
La primer grca compara la seal deseada de los datos proporcionados por el programa
de Excel contra seal de salida que se tiene con la identicacin va Redes Neuronales
para el caso del entrenamiento.
La segunda grca compara la seal deseada de los datos proporcionados por el pro-
grama de Excel contra seal de salida que se tiene con la identicacin va Redes
Neuronales para el caso de la generalizacin.
La tercer grca proporciona el error promedio cuadrtico de la seal deseada y la
seal de salida para el entrenamiento del algoritmo de Redes Neuronales.
La cuarta grca proporciona el error promedio cuadrtico de la seal deseada y la
seal de salida para la generalizacin del algoritmo de Redes Neuronales.
A continuacin se analizan las grcas de los programas de Matlab de Redes neuronales
para el modelo completo de cada mezclador:
En la Figura 4.8 se simula una red neuronal con parmetro de aprendizaje variable,
2 entradas, 1 salida, 5 neuronas en la capa oculta, una ganancia para la funcin tangente
hiperblica de 4, 20 patrones con 100 pocas para el entrenamiento y 6 patrones con 50 pocas
para la generalizacin. De la grca del inciso (a) de la Figura 4.8 donde se encuentran la seal
deseada con la estimada para el entrenamiento del mezclador 1 se observa que ambas seales
son muy aproximadas tenindose por consiguiente un buen entrenamiento. De la grca del
inciso (b) de la Figura 4.8 donde se encuentran la seal deseada con la estimada para la
generalizacin del mezclador 1 se observa que ambas seales son aproximadas tenindose por
80 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
1900 1950 2000
31.8
32
32.2
32.4
32.6
32.8
(
a
)

E
n
t
r
e
n
a
m
i
e
n
t
o
# de iteraciones
Redes Neuronales para el modelo completo del Mezclador 1
220 240 260 280
31.5
32
32.5
33
(
b
)

G
e
n
e
r
a
l
i
z
a
c
i
o
n
# de iteraciones
0 500 1000 1500 2000
0.04
0.05
0.06
0.07
0.08
(
c
)

E
r
r
o
r

(
E
)
# de iteraciones
0 100 200 300
0
0.05
0.1
0.15
0.2
(
d
)

E
r
r
o
r

(
G
)
# de iteraciones
Figura 4.8: Red neuronal para el modelo completo del mezclador 1
4.5 Modelacin del modelo distribuido 81
1900 1950 2000
31
31.5
32
32.5
(
a
)

E
n
t
r
e
n
a
m
i
e
n
t
o
# de iteraciones
Redes Neuronales para el modelo completo del Mezclador 2
220 240 260 280
31
31.5
32
32.5
(
b
)

G
e
n
e
r
a
l
i
z
a
c
i
o
n
# de iteraciones
0 500 1000 1500 2000
0.02
0.04
0.06
0.08
0.1
(
c
)

E
r
r
o
r

(
E
)
# de iteraciones
0 100 200 300
0
0.05
0.1
0.15
0.2
(
d
)

E
r
r
o
r

(
G
)
# de iteraciones
Figura 4.9: Red neuronal para el modelo completo del mezclador 2
consiguiente una buena generalizacin. De la grca del inciso (c) de la Figura 4.8 donde se
encuentra el error promedio cuadrtico para el entrenamiento del mezclador 1 se observa que
el valor del error promedio cuadrtico de entrenamiento es de 0,0538. De la grca del inciso
(d) de la Figura 4.8 donde se encuentra el error promedio cuadrtico para la generalizacin
del mezclador 1 se observa que el valor del error promedio cuadrtico de generalizacin es
de 0,0197.
En la Figura 4.9 se simula una red neuronal con parmetro de aprendizaje variable,
2 entradas, 1 salida, 5 neuronas en la capa oculta, una ganancia para la funcin tangente
82 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
hiperblica de 4, 20 patrones con 100 pocas para el entrenamiento y 6 patrones con 50 pocas
para la generalizacin. De la grca del inciso (a) de la Figura 4.9 donde se encuentran la seal
deseada con la estimada para el entrenamiento del mezclador 2 se observa que ambas seales
son muy aproximadas tenindose por consiguiente un buen entrenamiento. De la grca del
inciso (b) de la Figura 4.9 donde se encuentran la seal deseada con la estimada para la
generalizacin del mezclador 2 se observa que ambas seales son aproximadas tenindose por
consiguiente una buena generalizacin. De la grca del inciso (c) de la Figura 4.9 donde se
encuentra el error promedio cuadrtico para el entrenamiento del mezclador 2 se observa que
el valor del error promedio cuadrtico de entrenamiento es de 0,0931. De la grca del inciso
(d) de la Figura 4.9 donde se encuentra el error promedio cuadrtico para la generalizacin
del mezclador 2 se observa que el valor del error promedio cuadrtico de generalizacin es
de 0,0243.
En la Figura 4.10 se simula una red neuronal con parmetro de aprendizaje variable,
2 entradas, 1 salida, 5 neuronas en la capa oculta, una ganancia para la funcin tangente
hiperblica de 4, 20 patrones con 100 pocas para el entrenamiento y 6 patrones con 50
pocas para la generalizacin. De la grca del inciso (a) de la Figura 4.10 donde se encuen-
tran la seal deseada con la estimada para el entrenamiento del mezclador 3 se observa que
ambas seales son muy aproximadas tenindose por consiguiente un buen entrenamiento.
De la grca del inciso (b) de la Figura 4.10 donde se encuentran la seal deseada con la
estimada para la generalizacin del mezclador 3 se observa que ambas seales son aproxi-
madas tenindose por consiguiente una buena generalizacin. De la grca del inciso (c) de
la Figura 4.10 donde se encuentra el error promedio cuadrtico para el entrenamiento del
mezclador 3 se observa que el valor del error promedio cuadrtico de entrenamiento es de
0,0867. De la grca del inciso (d) de la Figura 4.10 donde se encuentra el error promedio
cuadrtico para la generalizacin del mezclador 3 se observa que el valor del error promedio
cuadrtico de generalizacin es de 0,0433.
4.5 Modelacin del modelo distribuido 83
1900 1950 2000
31
31.5
32
32.5
(
a
)

E
n
t
r
e
n
a
m
i
e
n
t
o
# de iteraciones
Redes Neuronales para el modelo completo del Mezclador 3
220 240 260 280
31
31.5
32
32.5
(
b
)

G
e
n
e
r
a
l
i
z
a
c
i
o
n
# de iteraciones
0 500 1000 1500 2000
0
0.02
0.04
0.06
0.08
0.1
(
c
)

E
r
r
o
r

(
E
)
# de iteraciones
0 100 200 300
0
0.1
0.2
0.3
0.4
(
d
)

E
r
r
o
r

(
G
)
# de iteraciones
Figura 4.10: Red neuronal para el modelo completo del mezclador 3
84 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
4.5.3. Identicacin va redes neuronales para la parte no lineal
Basta con explicar solamente un programa dado que los tres programas de identicacin
de parmetros va Redes Neuronales son idnticos, con la diferencia que cada programa
contiene los datos correspondientes a cada mezclador.
Este programa es idntico al programa de redes neuronales para el modelo completo con
la siguiente diferencia:
Para el entrenamiento se emplean las siguientes frmulas:
U = [u(1, k), u(2, k)], k = 1, 2, . . . , 26
DE = [DE(1, k), DE(2, k)], k = 1, 2, . . . , 26
y(k) = (NLD1(1, k) P), k = 1, 2, . . . , 26
yn(k) = yn(k), k = 1, 2, . . . , 26
(4.26)
donde DE(1, k) es la densidad de la primer entrada para cada mezclador, DE(2, k) es la
densidad de la segunda entrada para cada mezclador, NLD1(1, k) es la no linealidad del
modelo distribuido para el mezclador 1, u(1, k) es la fraccin de ujo de la entrada 1 para
cada mezclador, u(2, k) es la fraccin de ujo de la entrada 2 para cada mezclador, y(k)
es la salida deseada del entrenamiento para cada mezclador, yn(k) es la salida de la red
neuronal del entrenamiento para cada mezclador, P es una ganancia para la salida deseada,
este parmetro se emplea debido a que NLD1(1, k) es muy pequeo y se necesita amplicar
para que la funcin tangente hiperblica pueda operar adecuadamente.
Para la examinacin se emplean las siguientes frmulas:
ya(k) = (DE U
T
) +NLD1(1, k), k = 1, 2, . . . , 26
yna(k) = (DE U
T
) + (yn(k)/P), k = 1, 2, . . . , 26
(4.27)
Note que en esta etapa se le divide por el parmetro P debido a que este parmetro se
multiplica a la salida deseada para tener un mejor aprendizaje, ya(k) es la salida deseada
de la examinacin para el modelo, yna(k) es la salida de la red neuronal de la examinacin
para el modelo.
Posteriormente se gracan los resultados, que son cuatro grcas en una Figura y una
Figura para cada mezclador (ver Figuras 4.11, 4.12 y 4.13):
4.5 Modelacin del modelo distribuido 85
La primer grca compara la seal deseada de los datos proporcionados por el programa
de Excel contra seal de salida que se tiene con la identicacin va Redes Neuronales
para el caso del entrenamiento.
La segunda grca compara la seal deseada de los datos proporcionados por el pro-
grama de Excel contra seal de salida que se tiene con la identicacin va Redes
Neuronales para el caso de la generalizacin.
La tercer grca proporciona el error promedio cuadrtico de la seal deseada y la
seal de salida para el entrenamiento del algoritmo de Redes Neuronales.
La cuarta grca proporciona el error promedio cuadrtico de la seal deseada y la
seal de salida para la generalizacin del algoritmo de Redes Neuronales.
A continuacin se analizan las grcas de los programas de Matlab de Redes neuronales
para la no linealidad de cada mezclador:
En la Figura 4.11 se simula una red neuronal con parmetro de aprendizaje variable,
2 entradas, 1 salida, 5 neuronas en la capa oculta, una ganancia para la funcin tangente
hiperblica de 0.001, una ganancia de la salida deseada de 0.01, 20 patrones con 100 pocas
para el entrenamiento y 6 patrones con 3 pocas para la generalizacin. De la grca del
inciso (a) de la Figura 4.11 donde se encuentran la seal deseada con la estimada para el
entrenamiento del mezclador 1 se observa que ambas seales son muy aproximadas tenindose
por consiguiente un buen entrenamiento. De la grca del inciso (b) de la Figura 4.11 donde
se encuentran la seal deseada con la estimada para la generalizacin del mezclador 1 se
observa que ambas seales son muy aproximadas tenindose por consiguiente una buena
generalizacin. De la grca del inciso (c) de la Figura 4.11 donde se encuentra el error
promedio cuadrtico para el entrenamiento del mezclador 1 se observa que el valor del error
promedio cuadrtico de entrenamiento es de 0,2314. De la grca del inciso (d) de la Figura
4.11 donde se encuentra el error promedio cuadrtico para la generalizacin del mezclador 1
se observa que el valor del error promedio cuadrtico de generalizacin es de 0,1053.
86 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
1900 1950 2000
31.5
32
32.5
33
33.5
(
a
)

E
n
t
r
e
n
a
m
i
e
n
t
o
# de iteraciones
Redes Neuronales para la no linealidad del Mezclador 1
20 25 30 35 40
31.5
32
32.5
33
33.5
(
b
)

G
e
n
e
r
a
l
i
z
a
c
i
o
n
# de iteraciones
0 500 1000 1500 2000
0.2
0.25
0.3
(
c
)

E
r
r
o
r

(
E
)
# de iteraciones
20 25 30 35 40
0.1
0.2
0.3
0.4
0.5
(
d
)

E
r
r
o
r

(
G
)
# de iteraciones
Figura 4.11: Red neuronal para la no linealidad del mezclador 1
4.5 Modelacin del modelo distribuido 87
1900 1950 2000
31.8
31.9
32
32.1
32.2
32.3
(
a
)

E
n
t
r
e
n
a
m
i
e
n
t
o
# de iteraciones
Redes Neuronales para la no linealidad del Mezclador 2
20 25 30 35 40
31.6
31.8
32
32.2
32.4
(
b
)

G
e
n
e
r
a
l
i
z
a
c
i
o
n
# de iteraciones
0 500 1000 1500 2000
0.1
0.12
0.14
0.16
0.18
0.2
(
c
)

E
r
r
o
r

(
E
)
# de iteraciones
20 25 30 35 40
0
0.05
0.1
0.15
0.2
(
d
)

E
r
r
o
r

(
G
)
# de iteraciones
Figura 4.12: Red neuronal para la no linealidad del mezclador 2
88 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
En la Figura 4.12 se simula una red neuronal con parmetro de aprendizaje variable,
2 entradas, 1 salida, 5 neuronas en la capa oculta, una ganancia para la funcin tangente
hiperblica de 0.001, una ganancia de la salida deseada de 0.01, 20 patrones con 100 pocas
para el entrenamiento y 6 patrones con 3 pocas para la generalizacin. De la grca del
inciso (a) de la Figura 4.12 donde se encuentran la seal deseada con la estimada para el
entrenamiento del mezclador 2 se observa que ambas seales son muy aproximadas tenindose
por consiguiente un buen entrenamiento. De la grca del inciso (b) de la Figura 4.12 donde
se encuentran la seal deseada con la estimada para la generalizacin del mezclador 2 se
observa que ambas seales son muy aproximadas tenindose por consiguiente una buena
generalizacin. De la grca del inciso (c) de la Figura 4.12 donde se encuentra el error
promedio cuadrtico para el entrenamiento del mezclador 2 se observa que el valor del error
promedio cuadrtico de entrenamiento es de 0,1463. De la grca del inciso (d) de la Figura
4.12 donde se encuentra el error promedio cuadrtico para la generalizacin del mezclador 2
se observa que el valor del error promedio cuadrtico de generalizacin es de 0,0337.
En la Figura 4.13 se simula una red neuronal con parmetro de aprendizaje variable,
2 entradas, 1 salida, 5 neuronas en la capa oculta, una ganancia para la funcin tangente
hiperblica de 0.001, una ganancia de la salida deseada de 0.01, 20 patrones con 100 pocas
para el entrenamiento y 6 patrones con 3 pocas para la generalizacin. De la grca del
inciso (a) de la Figura 4.13 donde se encuentran la seal deseada con la estimada para el
entrenamiento del mezclador 3 se observa que ambas seales son muy aproximadas tenindose
por consiguiente un buen entrenamiento. De la grca del inciso (b) de la Figura 4.13 donde
se encuentran la seal deseada con la estimada para la generalizacin del mezclador 3 se
observa que ambas seales son muy aproximadas tenindose por consiguiente una buena
generalizacin. De la grca del inciso (c) de la Figura 4.13 donde se encuentra el error
promedio cuadrtico para el entrenamiento del mezclador 3 se observa que el valor del error
promedio cuadrtico de entrenamiento es de 6,7055e 006. De la grca del inciso (d) de
la Figura 4.13 donde se encuentra el error promedio cuadrtico para la generalizacin del
mezclador 3 se observa que el valor del error promedio cuadrtico de generalizacin es de
1,9722e 010.
4.5 Modelacin del modelo distribuido 89
1900 1950 2000
31
31.5
32
32.5
(
a
)

E
n
t
r
e
n
a
m
i
e
n
t
o
# de iteraciones
Redes Neuronales para la no linealidad del Mezclador 3
20 25 30 35 40
31
31.5
32
32.5
(
b
)

G
e
n
e
r
a
l
i
z
a
c
i
o
n
# de iteraciones
0 500 1000 1500 2000
6.4
6.5
6.6
6.7
6.8
x 10
-6
(
c
)

E
r
r
o
r

(
E
)
# de iteraciones
20 25 30 35 40
0
0.5
1
1.5
x 10
-9
(
d
)

E
r
r
o
r

(
G
)
# de iteraciones
Figura 4.13: Red neuronal para la no linealidad del mezclador 3
90 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
4.6. Modelacin del modelo agregado
Para el modelo agregado se consideran los 3 mezcladores en un modelo (ver Figuras 3.5
y 3.7) tenindose un programa para todos los mezcladores. Se obtienen 26 datos de una base
de datos reales los cuales se emplean para realizar el programa. Se considera 1 programa
para identicacin de parmetros va least square, se tienen 2 programas para identicacin
de parmetros va redes neuronales debido a que hay dos modalidades.
4.6.1. Identicacin de parmetros va least square
Para este programa se emplea la formula descrita por la ecuacin (4.3) para el Least
square monovariable la cual se vuelve a citar a continuacin:
=

X
T
X

1
Y
T
X
X = [x(1), x(2), . . . x(26)]
Y = [y(1), y(2), . . . y(26)]
x(k) = u(1, k) u(2, k) u(3, k) u(4, k), k = 1, 2, . . . , 26
y1(k) = x(k), k = 1, 2, . . . , 26
(4.28)
donde u(1, k) es la fraccin de ujo de la entrada 1 para el modelo, u(2, k) es la fraccin de
ujo de la entrada 2 para el modelo, u(3, k) es la fraccin de ujo de la entrada 3 para el
modelo, u(4, k) es la fraccin de ujo de la entrada 4 para el modelo, es el parmetro a
identicar va least square, y(k) es la salida proporcionada por los datos reales y y1(k) es la
salida identicada va least square.
Posteriormente se gracan los resultados, que son tres grcas en una Figura (ver Figura
4.14):
La primer grca compara la seal deseada de los datos proporcionados por el programa
de Excel contra seal de salida que se tiene con la identicacin va Least square.
La segunda grca los puntos de la entrada contra la salida para el programa de Excel,
tambin grca en una lnea recta la pendiente que se obtiene va Least square la
4.6 Modelacin del modelo agregado 91
0 5 10 15 20 25 30
30
32
34
36
(
a
)
D
e
s
e
a
d
a

v
s

L
S
Identificacion via Least Square para Modelo Agregado
0 0.2 0.4 0.6 0.8 1 1.2
x 10
-4
30
32
34
36
(
b
)
P
e
n
d
i
e
n
t
e
0 5 10 15 20 25
0
0.5
1
tiempo
(
c
)
E
r
r
o
r

p
r
o
m
e
d
i
o
Figura 4.14: Least square para el modelo agregado
cual es el valor del parmetro , donde es el parmetro de iteracin del modelo de
iteracin.
La tercer grca proporciona el error promedio cuadrtico de la seal deseada y la
seal de salida para el algoritmo de Least square.
A continuacin se analiza la grca del programa de Matlab de Least square para el
Modelo agregado:
De la grca del inciso (a) de la Figura 4.14 donde se encuentran la seal deseada con
92 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
la estimada del modelo agregado se observa que la seal estimada se aproxima a la seal
deseada. De la grca del inciso (b) de la Figura 4.14 donde se encuentra la pendiente para
el modelo agregado proporciona una pendiente con valor aproximado a 4. De la grca del
inciso (c) de la Figura 4.14 donde se encuentra el error promedio cuadrtico del modelo
agregado se observa que el valor del error promedio cuadrtico es de 0,7155.
4.6.2. Identicacin va redes neuronales para el modelo completo
Para este programa se emplea el algoritmo denominado de aprendizaje con parmetros
de aprendizaje variables descrito al principio de ste captulo, este algoritmo es parecido al
algoritmo backpropagation, de hecho en el camino hacia adelante son idnticos, el camino
hacia adelante es obtener la salida de cada neurona a partir de sus entradas, para esto se
emplea la formula (2.1) la cual se vuelve a citar a continuacin para la i-sima neurona:
u
i
=
n
X
j=1

ij
x
j
y
i
= (u
i

i
)
donde:
x
j
j-simo componente de la entrada.

ij
peso de la conexin entre la j-sima componente de la entrada y la i-sima neurona.
u
i
salida del sumador.

i
umbral.
() funcin de activacin no lineal.
y
i
salida de la i-sima neurona.
En este caso no se emplea el umbral quedando la salida de cada neurona como sigue:
y
i
= (u
i
)
Para el modelo agregado se tienen cuatro entradas que son u(1, k), u(2, k), u(3, k) y u(4, k).
Para el caso del camino hacia atrs se tiene como se propaga el error de la salida a
travs de cada neurona en la red neuronal, la diferencia entre el algoritmo de aprendizaje
4.6 Modelacin del modelo agregado 93
con parmetros de aprendizaje variables y el backpropagation estriba en que en el caso del
algoritmo de aprendizaje con parmetros de aprendizaje variables emplea el parmetro de
aprendizaje que vara con cada iteracin y adems, en ste se puede comprobar la estabilidad.
La actualizacin de los pesos sinpticos se describe mediante la ecuacin (4.12) la cual
se vuelve a citar a continuacin:
W
k+1
= W
k

k
e(k)V
oT
X
T
(k)
V
k+1
= V
k

k
e(k)
T
donde la salida escalar de la red neuronal es b y(k) R
nx1
, el vector de entrada a la red es
X(k) R
nx1
denida en ecuacin (4.8) donde se emplean la cuatro entradas que son u(1, k),
u(2, k), u(3, k) y u(4, k), los pesos sinpticos en la capa de salida son V
k
R
1xm
, los pesos en
la capa oculta son W
k
R
mxn
, es una funcin vectorial m-dimensional, la representacin
tpica de la funcin
i
() es una funcin sigmoidal, pero para propsitos del programa se
selecciona la funcin tangente hiperblica ya que esta adems de ser derivable (se emplea
la derivada en el algoritmo) tambin es asimtrica por lo que considera valores menores y
mayores a cero proporcionando mejores resultados en la simulacin. El error de identicacin
en la capa de salida se dene como:
e(k) = b y(k) y(k)
donde es el parmetro de aprendizaje inicial que tiene el valor de 1. V
o
es un vector
seleccionado por el usuario para calibrar la red que para propsitos del programa en Matlab
se pone como V
o
= rand lo cual quiere decir que puede tomar cualquier valor entre 0 y 1.
Para el entrenamiento y examinacin se emplean las siguientes frmulas:
U = [u(1, k), u(2, k), u(3, k), u(4, k)], k = 1, 2, . . . , 26
DE = [DE(1, k), DE(2, k), DE(3, k), DE(4, k)], k = 1, 2, . . . , 26
y(k) = (DE U
T
) +NLA(1, k), k = 1, 2, . . . , 26
yn(k) = (DE U
T
) +yn(k), k = 1, 2, . . . , 26
(4.29)
donde DE(1, k) es la densidad de la primer entrada para el modelo, DE(2, k) es la densidad
de la segunda entrada para el modelo, DE(3, k) es la densidad de la tercer entrada para el
94 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
modelo, DE(4, k) es la densidad de la cuarta entrada para el modelo, NLA(1, k) es la no
linealidad del modelo agregado, u(1, k) es la fraccin de ujo de la entrada 1 para el modelo,
u(2, k) es la fraccin de ujo de la entrada 2 para el modelo, u(3, k) es la fraccin de ujo de
la entrada 3 para el modelo, u(4, k) es la fraccin de ujo de la entrada 4 para el modelo, y(k)
es la salida deseada para el modelo y yn(k) es la salida de la red neuronal del entrenamiento
para el modelo.
Posteriormente se gracan los resultados, que son cuatro grcas en una Figura (ver
Figura 4.15):
La primer grca compara la seal deseada de los datos proporcionados por el programa
de Excel contra seal de salida que se tiene con la identicacin va Redes Neuronales
para el caso del entrenamiento.
La segunda grca compara la seal deseada de los datos proporcionados por el pro-
grama de Excel contra seal de salida que se tiene con la identicacin va Redes
Neuronales para el caso de la generalizacin.
La tercer grca proporciona el error promedio cuadrtico de la seal deseada y la
seal de salida para el entrenamiento del algoritmo de Redes Neuronales.
La cuarta grca proporciona el error promedio cuadrtico de la seal deseada y la
seal de salida para la generalizacin del algoritmo de Redes Neuronales.
A continuacin se analiza la grca del programa de Matlab de Redes neuronales para el
modelo completo del modelo agregado:
En la Figura 4.15 se simula una red neuronal con parmetro de aprendizaje variable,
2 entradas, 1 salida, 5 neuronas en la capa oculta, una ganancia para la funcin tangente
hiperblica de 4, 20 patrones con 100 pocas para el entrenamiento y 6 patrones con 50 pocas
para la generalizacin. De la grca del inciso (a) de la Figura 4.15 donde se encuentran la
seal deseada con la estimada para el entrenamiento del modelo agregado se observa que
ambas seales son muy aproximadas tenindose por consiguiente un buen entrenamiento.
4.6 Modelacin del modelo agregado 95
1900 1950 2000
31
31.5
32
32.5
(
a
)

E
n
t
r
e
n
a
m
i
e
n
t
o
# de iteraciones
Redes Neuronales para el modelo completo del Modelo Agregado
220 240 260 280
31
31.5
32
32.5
(
b
)

G
e
n
e
r
a
l
i
z
a
c
i
o
n
# de iteraciones
0 500 1000 1500 2000
0.02
0.04
0.06
0.08
0.1
(
c
)

E
r
r
o
r

(
E
)
# de iteraciones
0 100 200 300
0
0.1
0.2
0.3
0.4
(
d
)

E
r
r
o
r

(
G
)
# de iteraciones
Figura 4.15: Red neuronal para el modelo completo del modelo agregado
96 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
De la grca del inciso (b) de la Figura 4.15 donde se encuentran la seal deseada con
la estimada para la generalizacin del modelo agregado se observa que ambas seales son
aproximadas tenindose por consiguiente una buena generalizacin. De la grca del inciso
(c) de la Figura 4.15 donde se encuentra el error promedio cuadrtico para el entrenamiento
del modelo agregado se observa que el valor del error promedio cuadrtico de entrenamiento
es de 0,0929. De la grca del inciso (d) de la Figura 4.15 donde se encuentra el error
promedio cuadrtico para la generalizacin del modelo agregado se observa que el valor del
error promedio cuadrtico de generalizacin es de 0,0447.
4.6.3. Identicacin va redes neuronales para la parte no lineal
Este programa es idntico al programa de redes neuronales para el modelo completo con
la siguiente diferencia:
Para el entrenamiento se emplean las siguientes frmulas:
U = [u(1, k), u(2, k)], k = 1, 2, . . . , 26
DE = [DE(1, k), DE(2, k)], k = 1, 2, . . . , 26
y(k) = (NLD1(1, k) P), k = 1, 2, . . . , 26
yn(k) = yn(k), k = 1, 2, . . . , 26
(4.30)
donde DE(1, k) es la densidad de la primer entrada para el modelo, DE(2, k) es la densidad
de la segunda entrada para el modelo, DE(3, k) es la densidad de la tercer entrada para
el modelo, DE(4, k) es la densidad de la cuarta entrada para el modelo, NLA(1, k) es la
no linealidad del modelo agregado, u(1, k) es la fraccin de ujo de la entrada 1 para el
modelo, u(2, k) es la fraccin de ujo de la entrada 2 para el modelo, u(3, k) es la fraccin
de ujo de la entrada 3 para el modelo, u(4, k) es la fraccin de ujo de la entrada 4 para el
modelo, y(k) es la salida deseada del entrenamiento para el modelo, yn(k) es la salida de la
red neuronal del entrenamiento para el modelo, P es una ganancia para la salida deseada,
este parmetro se emplea debido a que NLA(1, k) es muy pequeo y se necesita amplicar
para que la funcin tangente hiperblica pueda operar adecuadamente.
4.6 Modelacin del modelo agregado 97
Para la examinacin se emplean las siguientes frmulas:
ya(k) = (DE U
T
) +NLD1(1, k), k = 1, 2, . . . , 26
yna(k) = (DE U
T
) + (yn(k)/P), k = 1, 2, . . . , 26
(4.31)
Note que en esta etapa se le divide por el parmetro P debido a que este parmetro se
multiplica a la salida deseada para tener un mejor aprendizaje, ya(k) es la salida deseada
de la examinacin para el modelo, yna(k) es la salida de la red neuronal de la examinacin
para el modelo.
Posteriormente se gracan los resultados, que son cuatro grcas en una Figura (ver
Figura 4.16):
La primer grca compara la seal deseada de los datos proporcionados por el programa
de Excel contra seal de salida que se tiene con la identicacin va Redes Neuronales
para el caso del entrenamiento.
La segunda grca compara la seal deseada de los datos proporcionados por el pro-
grama de Excel contra seal de salida que se tiene con la identicacin va Redes
Neuronales para el caso de la generalizacin.
La tercer grca proporciona el error promedio cuadrtico de la seal deseada y la
seal de salida para el entrenamiento del algoritmo de Redes Neuronales.
La cuarta grca proporciona el error promedio cuadrtico de la seal deseada y la
seal de salida para la generalizacin del algoritmo de Redes Neuronales.
A continuacin se analiza la grca del programa de Matlab de Redes neuronales para
la no linealidad del modelo agregado:
En la Figura 4.16 se simula una red neuronal con parmetro de aprendizaje variable,
2 entradas, 1 salida, 5 neuronas en la capa oculta, una ganancia para la funcin tangente
hiperblica de 0.001, una ganancia de la salida deseada de 0.01, 20 patrones con 100 pocas
para el entrenamiento y 6 patrones con 3 pocas para la generalizacin. De la grca del
inciso (a) de la Figura 4.16 donde se encuentran la seal deseada con la estimada para
98 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
1900 1950 2000
29.5
30
30.5
31
(
a
)

E
n
t
r
e
n
a
m
i
e
n
t
o
# de iteraciones
Redes Neuronales para la no linealidad del Modelo Agregado
20 25 30 35 40
29.5
30
30.5
31
(
b
)

G
e
n
e
r
a
l
i
z
a
c
i
o
n
# de iteraciones
0 500 1000 1500 2000
2.5
3
3.5
(
c
)

E
r
r
o
r

(
E
)
# de iteraciones
20 25 30 35 40
0
2
4
6
8
(
d
)

E
r
r
o
r

(
G
)
# de iteraciones
Figura 4.16: Red neuronal para la no linealidad del modelo agregado
4.6 Modelacin del modelo agregado 99
el entrenamiento del modelo agregado se observa que ambas seales son muy aproximadas
tenindose por consiguiente un buen entrenamiento. De la grca del inciso (b) de la Figura
4.16 donde se encuentran la seal deseada con la estimada para la generalizacin del modelo
agregado se observa que ambas seales son muy aproximadas tenindose por consiguiente
una buena generalizacin. De la grca del inciso (c) de la Figura 4.16 donde se encuentra
el error promedio cuadrtico para el entrenamiento del modelo agregado se observa que el
valor del error promedio cuadrtico de entrenamiento es de 3,4020. De la grca del inciso
(d) de la Figura 4.16 donde se encuentra el error promedio cuadrtico para la generalizacin
del modelo agregado se observa que el valor del error promedio cuadrtico de generalizacin
es de 1,0822.
100 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
4.7. Conclusin
En el desarrollo de esta seccin se realiza una comparacin entre la identicacin va
least square contra la identicacin va redes neuronales para el modelo completo y contra la
identicacin va redes neuronales para la no linealidad tenindose mejores resultados para
la identicacin va redes neuronales para la no linealidad dado que en ste caso se tiene una
generalizacin excelente ,i.e., las seales identicada y la deseada son muy aproximadas, y
adems, se ocupa un menor nmero de pocas para la generalizacin, comprobndose con
esto que es recomendable el empleo de las redes neuronales para tener mejores resultados
en la identicacin para el proceso de mezclado de crudo. El resultado anterior se corrobora
mediante la siguiente tabla.
LS = Least square
NNMC = Red neuronal para el modelo completo
NNNL = Red neuronal para la no linealidad
M1 = Mezclador 1
M2 = Mezclador 2
M3 = Mezclador 3
MA = M. Agregado
error promedio
cuadrtico
#
entradas
#
salidas
Generalizacin
LSM1 0,2046 2 1 Mala
LSM2 0,0869 2 1 Mala
LSM3 5,0487e 031 2 1 Buena
LSMA 0,7155 4 1 Regular
4.7 Conclusin 101
#
entradas
#
salidas
Ganancia la de funcin
tangente hiperblica
Ganancia de la
salida deseada
NNMCM1 2 1 4
NNMCM2 2 1 4
NNMCM3 2 1 4
NNMCMA 4 1 4
NNNLM1 2 1 0,001 0,01
NNNLM2 2 1 0,001 0,01
NNNLM3 2 1 0,001 0,01
NNNLMA 4 1 0,001 0,01
error promedio
de entrenamiento
error promedio
de generalizacin
# neuronas en
la capa oculta
Generalizacin
NNMCM1 0,0538 0,0197 5 Buena
NNMCM2 0,0931 0,0243 5 Buena
NNMCM3 0,0867 0,0433 5 Buena
NNMCMA 0,0929 0,0447 5 Buena
NNNLM1 0,2314 0,1053 5 Excelente
NNNLM2 0,1463 0,0337 5 Excelente
NNNLM3 6,7055e 006 1,9722e 010 5 Excelente
NNNLMA 3,4020 1,0822 5 Excelente
# patrones de
entrenamiento
# patrones de
generalizacin
# pocas de
entrenamiento
# pocas de
generalizacin
NNMCM1 20 6 100 50
NNMCM2 20 6 100 50
NNMCM3 20 6 100 50
NNMCMA 20 6 100 50
NNNLM1 20 6 100 3
NNNLM2 20 6 100 3
NNNLM3 20 6 100 3
NNNLMA 20 6 100 3
102 Modelacin del mezclado de petrleo crudo va redes neuronales y datos reales
Captulo 5
Optimizacin de petrleo crudo va
redes neuronales y actualizacin de
datos (bias updating)
5.1. Introduccin
En este captulo se presenta como se aplica el controlador optimizante con redes neu-
ronales al proceso de mezclado, para ello en primer lugar se demuestra la robustez del con-
trolador optimizante [12], despus se demuestra la robustez del controlador optimizante con
redes neuronales [26], posteriormente se realiza una comparacin entre el controlador op-
timizante que opera fuera de lnea al cual se le introducen datos reales y el controlador
optimizante con redes neuronales que opera fuera de lnea, por ltimo se presenta una tabla
comparativa que muestra los resultados para cada caso.
Muchos controladores optimizantes de mezclado de petrleo crudo estn basados sobre
la tcnica de programacin lineal. En general, la regla de mezclado es no lineal, un mtodo
alternativo es adicionar un trmino de correccin (incertidumbre) a la regla de mezclado
lineal. Para llevar a cabo la operacin de mezclado con las incertidumbres, se ha propuesto
la optimizacin en tiempo real. El esquema de actualizacin de datos es una herramienta
104
Optimizacin de petrleo crudo va redes neuronales y actualizacin de datos (bias
updating)
para resolver el problema de optimizacin en tiempo real [3][12]. La desventaja principal
del esquema de actualizacin es que requiere de la medicin en lnea de las propiedades de
mezclado. Algunas veces tambin se necesita la optimizacin fuera de lnea, por ejemplo, si se
espera encontrar la fraccin de velocidad de ujo a la entrada ptimo sobre datos histricos,
este tipo de control es til para decisin, supervisin y control [26].
Un modelo real para el mezclado de petrleo crudo basado sobre los datos de operacin
es muy importante para los ingenieros. Resultados recientes muestran que la tcnica de
redes neuronales es muy efectiva para modelar una gran cantidad de sistemas no lineales
complejos donde no se tienen informacin completa del modelo. Es muy importante asegurar
la estabilidad del modelo neuro tericamente antes de usarlo en algunas aplicaciones reales.
5.2. Optimizacin del mezclado de petrleo crudo con
redes neuronales y un esquema de actualizacin
(bias updating)
5.2.1. Optimizacin del mezclado petrleo crudo con un esquema
de actualizacin
El proceso de mezclado de aceite crudo esta sujeto a un nmero de restricciones. Los
objetivos del mezclado de petrleo crudo son maximizar el valor de todos los productos
mientras se satisfacen sus restricciones, o minimizar el costo del mezclado [26]. El mezclado
de aceite crudo se puede considerar como una mezcla de n componentes con:
q = [q
1
, . . . , q
n
]
T
= velocidad de ujo en la entrada
p = [p
1
, . . . , p
n
]
T
= propiedad en la entrada
q
f
= velocidad de ujo en la salida
p
f
= propiedad en la salida
u =
h
q
1
q
f
, . . . ,
qn
q
f
i
T
= fraccin de ujo en la entrada
5.2 Optimizacin del mezclado de petrleo crudo con redes neuronales y un esquema de
actualizacin (bias updating) 105
Considerando los efectos dinmicos insignicantes, la regla de mezclado es una funcin no
lineal:
p
f
= f (u, p) (5.1)
El problema control de mezclado es la optimizacin del costo sobre las variables manipu-
lables o el vector de ujo en la entrada de control u, la funcin objetivo esta en forma de
programacin lineal:
mnc
T
u (5.2)
donde c es el vector de parmetros de costo del alimentacin. Las restricciones son como
sigue:
1. Disponibilidad mnima y mxima:
u
i,mn
u
i
u
i,max
(5.3)
2. Balance de masa:
n
X
i=1
u
i
= u
f
= 1 (5.4)
3. Requerimientos de las propiedades cualitativas:
p
f,mn
p
f
p
f,max
(5.5)
Una forma estndar la cual se puede resolver con el mtodo simplex es:
mnc
T
u
sujeto a:
Au b
A
eq
u = b
eq
u
i,mn
u
i
u
i,max
(5.6)
Se puede ver que ecuaciones (5.3) y (5.4) estn incluidas en la forma estndar de la ecuacin
(5.6), pero la ecuacin (5.5) no se puede aplicar en la ecuacin (5.6) directamente, se emplea
106
Optimizacin de petrleo crudo va redes neuronales y actualizacin de datos (bias
updating)
el esquema de actualizacin para resolver este problema. Una suposicin bsica del esquema
de actualizacin es que la regla de mezclado de la ecuacin (5.1) se puede expresar como una
parte lineal conocida y una parte no lineal desconocida:
p
f
=
q
T
p
n
X
i=1
q
i
+ (5.7)
donde p
f
es medible, p es un vector constante, se decidir el valor de u mediante la opti-
mizacin, en aplicaciones, se puede estimar por el valor previo de u =
q
q
f
= q. Desde una
condicin inicial para , por ejemplo (0) = 0, se puede estimar despus de calcular
u = q mediante de la optimizacin.
(k + 1) = p
f
(k)
q
T
(k)p
n
X
i=1
q
i
= p
f
(k) p
T
(k)u(k) (5.8)
De las ecuaciones (5.5) y (5.7) se tiene lo siguiente:
p
f,mn

q
T
p
q
f
+(k) p
f,max
(5.9)
p
f,mn
(k)
p
q
f
q p
f,max
(k)
(p
f,mn
(k))
p
q
f
q

p
q
f
q p
f,mn
+(k)
p
q
f
q p
f,max
(k)
"
p
q
f

p
q
f
#
q(k)
"
p
f,max
(k)
p
f,mn
+(k)
#
Ahora, las ecuaciones (5.2), (5.3), (5.4), (5.7) y (5.8) se transforman en la forma estndar de
la programacin lineal:
mnc
T
u(k)
sujeto a:
Au(k) b
A
eq
u(k) = b
eq
u
mn
u(k) u
max
(5.10)
5.2 Optimizacin del mezclado de petrleo crudo con redes neuronales y un esquema de
actualizacin (bias updating) 107
donde:
A =
"
p
q
f

p
q
f
#
=
"
p
p
#
b =
"
p
f,max
(k)
p
f,mn
+(k)
#
A
eq
= [1, . . . , 1]
b
eq
= u
f
= 1
(k) = p
f
(k 1) p
T
(k 1)u(k 1)
En muchos problemas de ingeniera, se requiere que la convergencia rpida hacia la solucin
ptima. De cualquier manera, los algoritmos tradicionales para computadora, tales como los
Toolbox de Optimizacin de Matlab, no son muy ecientes, debido a que el tiempo necesario
para el clculo depende de la dimensin y de la estructura del problema, una solucin a
ste problema es aplicar redes neuronales las cuales hacen que el problema de optimizacin
converja ms rpido.
5.2.2. Optimizacin fuera de lnea del mezclado de petrleo crudo
con redes neuronales
El alcance propuesto en la seccin anterior, solamente se puede aplicar en lnea, por que
el esquema de actualizacin requiere de la propiedad de salida p
f
la cual se obtiene mediante
un analizador en lnea. Algunas veces, se necesita la optimizacin fuera de lnea, por ejemplo,
cuando se desea encontrar la velocidad de ujo a la entrada ptima sobre datos histricos,
este control es til para la decisin, supervisin y control. En esta seccin se da la respuesta
a como disear un controlador optimizante con datos histricos [26].
El diagrama esquemtico de la optimizacin fuera de lnea del mezclado de petrleo crudo
se muestra en la Figura 5.1.
Se puede evitar la suposicin de analizar en tiempo real mediante el empleo de un esquema
de actualizacin y de la red neuronal para estimar el comportamiento del mezclador con datos
histricos, despus del aprendizaje de la red neuronal se tiene el valor de salida de la red
108
Optimizacin de petrleo crudo va redes neuronales y actualizacin de datos (bias
updating)
(k)
Figura 5.1: Diagrama de la optimizacin fuera de lnea del mezclado de crudo con nn
neuronal como las propiedades cualitativas del proceso de mezclado:
b p
f
= V
k
[W
k
X(k)] (5.11)
Del requerimiento de las propiedades cualitativas de la ecuacin (5.5) se tiene:
p
f,mn
p
f
p
f,max
p
f,mn
V
k
[W
k
X(k)] p
f,max
p
f,mn
Aq(k) +V
k
[W
k
X(k)] Aq(k) p
f,max
(5.12)
donde A es una matriz constante, se puede estimar con la ecuacin (5.8) despus de
calcular u = q mediante de la optimizacin:
p
f,mn

q
T
p
q
f
+(k) p
f,max
Pero de la ecuacin (5.7) se tiene:
(k) = b p
f

q
T
p
q
f
5.2 Optimizacin del mezclado de petrleo crudo con redes neuronales y un esquema de
actualizacin (bias updating) 109
(k) = b p
f
Aq(k) (5.13)
Sustituyendo ecuacin (5.13) en ecuacin (5.12) se tiene:
p
f,mn
Aq(k) +(k) p
f,max
(5.14)
Por tanto, como las ecuaciones (5.9) y (5.14) son iguales, se tienen las misma restricciones
que las de la seccin anterior, la nica diferencia radica en que para cuando de emplean redes
neuronales se emplea la ecuacin (5.11) evitando el empleo de un modelo matemtico.
Ahora, las ecuaciones (5.2), (5.3), (5.4), (5.7) y (5.8) se transforman en la forma estndar
de la programacin lineal:
mnc
T
u(k)
sujeto a:
Au(k) b
A
eq
u(k) = b
eq
u
mn
u(k) u
max
(5.15)
donde:
A =
"
p
q
f

p
q
f
#
=
"
p
p
#
b =
"
p
f,max
(k)
p
f,mn
+(k)
#
A
eq
= [1, . . . , 1]
b
eq
= u
f
= 1
(k) = p
f
(k 1) p
T
(k 1)u(k 1)
110
Optimizacin de petrleo crudo va redes neuronales y actualizacin de datos (bias
updating)
5.3. Anlisis de robustez del controlador con redes neu-
ronales para mezclado
5.3.1. Anlisis de robustez del controlador
Considere el siguiente problema de control [12]:
mnc
T
u
sujeto a:
n
X
i=1
u
i
= 1
p
mn
p
T
u +N(u) p
max
u
mn
u u
max
(5.16)
donde:
N(u) = no linealidad
u = [u
1
, . . . , u
n
]
T
= fraccin de ujo en la entrada
c = [c
1
, . . . , c
n
]
T
= funcin de costo
p = [p
1
, . . . , p
n
]
T
= propiedad del ujo en la entrada
u
max
= [u
max 1
, . . . , u
max n
]
T
= fraccin de ujo mxima en la entrada
u
mn
= [u
mn1
, . . . , u
mnn
]
T
= fraccin de ujo mnima en la entrada
p
max
= propiedad del ujo mxima en la salida
p
mn
= propiedad del ujo mnima en la salida
Realizando el siguiente desarrollo matemtico se tiene:
u
1
+. . . +u
n
= 1 u
1
+. . . +u
n
1 = 0
u u
max
u u
max
0
u u
mn
u +u
mn
0
p
T
u +N(u) p
max
p
T
u +N(u) p
max
0
p
T
u +N(u) p
mn
p
T
u N(u) +p
mn
0
5.3 Anlisis de robustez del controlador con redes neuronales para mezclado 111
_

_
I
nxn
I
nxn
p
T
p
T
_

_
u +
_

_
u
max
u
mn
p
max
p
mn
_

_
+
_

_
0
n
0
n
N(u)
N(u)
_

_
0
Por tanto, se puede reescribir el problema de control de la siguiente manera:
mnc
T
u
sujeto a:
D
T
1
u +b
1
= 0
D
2
u +b
2
+(u) 0
2n+2
(5.17)
donde:
D
1
= [1, . . . , 1]
T
R
n
D
2
=
_

_
I
nxn
I
nxn
p
T
p
T
_

_
R
(2n+2)xn
b
1
= 1 R
b
2
=
_

_
u
max
u
mn
p
max
p
mn
_

_
R
2n+2
(u) =
_

_
0
n
0
n
N(u)
N(u)
_

_
R
2n+2
La ecuacin (5.17) se puede escribir en forma de Lagrange [20]. Escribiendo la funcin de
Lagrange como:
L(u, , ) = f(u) +g
1
(u) +
T
g
2
(u) (5.18)
112
Optimizacin de petrleo crudo va redes neuronales y actualizacin de datos (bias
updating)
donde:
f(u) = funcin objetivo
g
1
(u) = restriccin de igualdad
g
2
(u) = restriccin de desigualdad
Sustituyendo los valores de la ecuacin (5.17) en la ecuacin (5.18) se tiene lo siguiente:
L(u, , ) = c
T
u +

D
T
1
u +b
1

+
T
[D
2
u +b
2
+(u)] (5.19)
donde:
=

1
, . . . ,
2n+2

T
R
2n+2
Nota: Darse cuenta que la funcin de Lagrange de la ecuacin (5.19) es un escalar.
Derivando la funcin de Lagrange con respecto a cada uno de sus argumentos e igualando
a cero se obtienen las condiciones necesarias y sucientes para obtener el mnimo de la
funcin objetivo del problema de optimizacin de la ecuacin (5.17), para la restriccin de
desigualdad adems se necesitan satisfacer las condiciones de Kuhn-Tucker:
L
u
= 0
L

= 0
L

T
= 0,
T
[D
2
u +b
2
+(u)] = 0,
T
0
(5.20)
Sustituyendo la funcin de Lagrangiano de la ecuacin (5.19) en las condiciones de la ecuacin
(5.20) se tiene:
c +D
1
+ [D
2
+(u)]
T
= 0
D
T
1
u +b
1
= 0
D
2
u +b
2
+(u) = 0,
T
0
(5.21)
donde:
(u) =

(u)
u
1
, . . . ,
(u)
u
n

R
(2n+2)xn
Considerando solamente las condiciones referentes a las restricciones de la ecuacin (5.21) se
tiene:
_

_
D
T
1
D
2
0
nxn
_

_
u +
_

_
0
(u)
(u)
T

_
=
_

_
b
1
b
2
c D
1
D
T
2

_
5.3 Anlisis de robustez del controlador con redes neuronales para mezclado 113
El sistema algebraico se puede escribir como:
Ax +M(x) = y
sp
(5.22)
donde se requiere para el anlisis de estabilidad que la matriz A sea invertible, por tanto se
completan los trminos de la siguiente manera:
p = 3n + 3
A =
_

_
D
T
1
D
2
0
nxn
0
nx(2n+3)
I
(2n+3)x(2n+3)
_

_
R
pxp
M(x) =
_

_
0
(u)
(u)
T

_
R
p
x =
"
0
2n+1
u
#
R
p
y
sp
=
_

_
b
1
b
2
c D
1
D
T
2

_
R
p
Se asegura que la matriz A es invertible debido a que:
det (A) = det
_

_
D
T
1
D
2
0
nxn
0
nx(2n+3)
I
(2n+3)x(2n+3)
_

_
6= 0
De este modo, solamente para la prueba de estabilidad (y no para encontrar el ptimo),
resolver el problema de programacin no lineal de la ecuacin (5.16) es equivalente a resolver
el sistema algebraico de la ecuacin (5.22) [12]. Para simplicar el anlisis, se consideran las
siguientes suposiciones:
A.1 x
op
es la nica solucin del sistema algebraico de la ecuacin (5.22) para todo t 0; es
decir, existe solamente un valor x
op
tal que Ax
op
+M(x
op
) = y
sp
. Esto signica que u
op
114
Optimizacin de petrleo crudo va redes neuronales y actualizacin de datos (bias
updating)
es un extremo nico del programa de la ecuacin (5.16). Si u
op
no es una solucin nica,
el resultado de la convergencia descrito a continuacin se sostendr solo localmente (i.e.
en una regin de x
op
).
A.2 Si
_
A es un estimado de A, ambas, A y
_
A son matrices invertibles, esto signica que se
supone una regularidad de u
op
relativo al problema de la ecuacin (5.16). Se asegura
que la matriz A es invertible debido a que:
det (A) =
_

_
D
T
1
D
2
0
nxn
0
nx(2n+3)
I
(2n+3)x(2n+3)
_

_
6= 0
De este modo, acorde a las suposiciones A.1 y A.2 la solucin del problema de progra-
macin no lineal de la ecuacin (5.16) es equivalente a resolver el sistema de ecuaciones
algebraicas de la ecuacin (5.22) donde la no linealidad M(x) es no conocida.
Desde la estructura de la teora de control, este problema se puede ver como el diseo de
una estrategia de control robusto (contra las incertidumbres de la no linealidad) u(t) tal que
y(t) y
op
asintticamente.
Sea la estrategia de control con esquema de actualizacin correspondiente a la ecuacin
(5.22).
Se dene el error de modelado asociado al sistema algebraico de la ecuacin (5.22)de la
siguiente manera:
B(x) =

A

A

x +M(x) (5.23)
donde

A es una matriz invertible estimada de la matriz A dado que A = A(q
k
) y

A es el
valor de A en un instante. De la ecuacin (5.23) se tiene:
M(x) = B(x) Ax +

Ax
Sustituyendo en la ecuacin (5.22) se tiene:
Ax +B(x) Ax +

Ax = y
sp
5.3 Anlisis de robustez del controlador con redes neuronales para mezclado 115
B(x) +

Ax = y
sp
(5.24)
La correspondiente iteracin para la ecuacin (5.24) est dada por:

Ax
k
= y
sp
B
k
x
k
=

A
1
(y
sp
B
k
) (5.25)
La correspondiente iteracin para la ecuacin (5.23) esta dada por:
B
k
=

A

A

x
k
+M(x) = Ax
k
+M(x)

Ax
k
B
k
= y
sp

Ax
k
(5.26)
Este procedimiento lleva a un optimizador impropio debido a que se requiere x
k
para calcular
la seal del error de modelado de la ecuacin (5.26) el cual se requiere para la optimizacin
y obtener el valor de x
k
, esto es, se requiere x
k
para calcularse l mismo. Para resolver
este problema se emplea una estimacin, es decir, en aplicaciones se puede emplear el valor
anterior de x
k
para calcular su valor actual (bias update) [3][12], de esta manera, de la
ecuacin (5.26) se tiene:
B
k
= y
k1

Ax
k1
(5.27)
siendo B
k
el esquema de actualizacin para el optimizador en donde y
k
es la salida medida
116
Optimizacin de petrleo crudo va redes neuronales y actualizacin de datos (bias
updating)
en un instante y y
sp
es la salida deseada del sistema algebraico de la ecuacin (5.22), esto es:
Si y
sp
=
_

_
b
1
b
2
c D
1
D
T
2

_
=
_

_
1

_
u
max
u
mn
p
max
p
mn
_

_
c
1
.
.
.
c
n
_

_
1
.
.
.
1
_

_
_
_
_
_
_
_
_

_
I
nxn
I
nxn
p
T
p
T
_

_
T
_

1
.
.
.

2n+2
_

_
_
_
_
_
_
_
_
_

_
y
sp
= y
sp
(p)
como y
sp
depende de la propiedad de entrada p, y como p vara con cada iteracin, entonces
si se puede introducir y
k
.
En virtud de la suposicin A.1, la armacin dada por las ecuaciones (5.25) y (5.27) es
calcular la trayectoria de la entrada de control x
k
tal que y
k
y
op
asintticamente. Las
ecuaciones (5.25) y (5.27) se pueden combinar para dar:
Ax +M(x) = y
sp
x
k
=

A
1

y
sp
y
k1
+

Ax
k1

x
k
= x
k1
+

A
1
(y
sp
y
k1
) (5.28)
La salida medida introduce el trmino de correccin

A
1
(y
sp
y
k1
), con el cual x
k
se
actualiza. Entonces es claro que si y
k
y
op
asintticamente, el evento de iteracin de la
ecuacin (5.28) es estable. Por la suposicin A.1, esto implica que x
k
x
op
asintticamente
(por tanto u
k
u
op
asintticamente.) como se desea.
5.3 Anlisis de robustez del controlador con redes neuronales para mezclado 117
Se tiene que y
k
= Ax
k
+M(x
k
), para todo k 1. Entonces, de la ecuacin (5.28) se tiene
lo siguiente:
x
k
= x
k1
+

A
1
(y
sp
Ax
k1
M(x
k1
)) (5.29)
Sea e
k
= x
k
x
op
y dado que y
sp
=

Ax
k
+ B(x
op
) = Ax
op
+ M(x
op
), se pueden sustituir en
la ecuacin (5.29) para obtener:
x
k
= x
k1
+

A
1
[y
sp
Ax
k1
M(x
k1
)]
x
k
= x
k1
+

A
1
[Ax
op
+M(x
op
) Ax
k1
M(x
k1
)]
x
k
= x
k1


A
1
[A(x
k1
x
op
) +M(x
k1
) M(x
op
)]
x
k
= x
k1


A
1
[Ae
k1
+M(x
k1
) M(x
op
)]
e
k
+x
op
= x
k1


A
1
Ae
k1


A
1
[M(x
k1
) M(x
op
)]
e
k
= x
k1
x
op


A
1
Ae
k1


A
1
[M(x
k1
) M(x
op
)]
e
k
= e
k1


A
1
Ae
k1

A
1
[M(x
k1
) M(x
op
)]
e
k
= (I
n

A
1
A)e
k1


A
1
[M(e
k1
+x
op
) M(x
op
)]
e
k
= (I
n

A
1
A)e
k1


A
1
[M(e
k1
+x
op
) M(x
op
)] (5.30)
Debido a la suposicin A.1 la ecuacin (5.30) tiene un punto de equilibrio nico e
eq
= 0
p
por
lo menos en una vecindad del origen. Note que, si M(x) = 0 y A =

A, entonces e
k
= 0
p
, esto
es, si no existe incertidumbre, el esquema de actualizacin converge en un solo paso; por lo
tanto, en presencia de una pequea incertidumbre, el esquema de actualizacin converger
asintticamente al valor ptimo x
op
. Se arma sto en la siguiente proposicin [12].
Proposicin 5.1 Considere el esquema de actualizacin descrito anteriormente. Entonces
u
k
u
op
si:

I
n

A
1
(A+J
M
(x))

< 1 (5.31)
para todo x R
p
, donde J
M
(x) es la matriz jacobiana de la no linealidad M(x).
118
Optimizacin de petrleo crudo va redes neuronales y actualizacin de datos (bias
updating)
Con ste resultado, se siguen las siguientes comentarios:
1. La principal conclusin de la proposicin es que, comparado a la regla de mezclado
ideal, las no linealidades podran ser lo sucientemente pequeas tal que garanticen
la convergencia de la programacin lineal con el esquema de actualizacin. Por otro
lado, si la no linealidad de la mezcla afecta demasiado, se podran presentar inestabil-
idades. Este hecho limita ampliamente la aplicacin de la programacin lineal con el
esquema de actualizacin para resolver problemas de control de mezclado con efectos
considerables en la no linealidad.
2. En algunas situaciones prcticas, la no linealidad N(u) tiene una pequea contribucin
a la propiedad de la mezcla. Si I
n

A
1
A es sucientemente pequeo, de sto se espera
que J
M
(x) acte como una perturbacin a la matriz A, de esta forma, si se satisface
la ecuacin (5.31). Un ejemplo de sto es el caso de la regla de mezclado f
MR
(u, p) =
"
n
X
i=1
u
i
p

i
#
1/
para valores pequeos de | 1|. En tal caso, la no linealidad de los
componentes o desviacin de lo ideal est dado por p
b.nl
(u) =
"
n
X
i=1
u
i
p

i
#
1/

n
X
i=1
u
i
p
i
.
Note que p
b.nl
(u) 0 cuando 1, as que, implica que |p
b.nl
(u)| es pequeo para
valores pequeos de | 1|.
3. Se ha considerado que la matriz de las propiedades de torrente no es medible, en la
prctica, sta la matriz se puede medir a travs de la actualizacin de datos corre-
spondiente a la matriz

A. De esta forma, la ecuacin (4.9) se puede generalizar al
considerar las uctuaciones de la matriz A y las medidas peridicas de la propiedad
dando la siguiente expresin:
e
k
= (I
n

A
1
k1
A
k1
)e
k1


A
1
k1
[M(e
k1
+x
op
) M(x
op
)]
donde A
k
es el valor de A en un instante y

A
k
es su correspondiente valor estimado.
Note que en los sistemas de mezclado comerciales, las mediciones de las variaciones en
5.3 Anlisis de robustez del controlador con redes neuronales para mezclado 119
las propiedades se emplean para introducir un esquema de control prealimentado. De
este modo, el impacto de las variaciones de las propiedades de los componentes sobre
las propiedades del producto se reducen drsticamente a travs de la compensacin
(prealimentacin).
4. El esquema de actualizacin se puede ver como una accin integral sobre el error
de regulacin y
sp
y. De hecho, de la ecuacin (5.28) se puede obtener la siguiente
ecuacin:
x
k
= x
0
+

A
1
k1
X
j=1
(y
sp
y
j
)
donde

A
1
juega el papel de una ganancia integral. En el caso continuo, tal accin de
control es reescribe as x(t) = x
0
+

A
1
t
Z
0
(y
sp
y(t)) dt. De este modo, el esquema de
actualizacin adiciona una accin de control integral dentro del controlador optimizante
para compensar los errores modelo-planta.
5.3.2. Anlisis de robustez del controlador optimizante con redes
neuronales
Cuando se emplean redes neuronales para la no linealidad para la ecuacin (5.22) se tiene
[12][9]:
Ax +M(x) = Ax +(v) + = y
sp
(5.32)
con:
y = (v) +
v = w
T
u
donde:
= error entre la salida deseada y la salida de la red neuronal
w = pesos sinpticos que conectan las neuronas
y = salida de la red neuronal
() = funcin no lineal (tangente hiperblica)
120
Optimizacin de petrleo crudo va redes neuronales y actualizacin de datos (bias
updating)
De la ecuacin (5.32) (v) es un trmino que se puede conocer a travs de la red neuronal,
por lo tanto se puede considerar como un trmino constante el cual puede pasar al otro lado
de la igualdad, de sta forma, la ecuacin (5.32) se puede reescribir de la siguiente manera:
Ax + = y
a
(5.33)
donde:
y
a
= y
sp
(v)
y adems se cumple lo siguiente:
M(x) (5.34)
De la ecuacin (5.34) se tiene que el error entre la salida deseada y la salida de la red neuronal
() tiene un valor mucho menor que el trmino que depende de la no linealidad (M(x)), con lo
que para el caso donde se emplean redes neuronales el valor no lineal desconocido es menor al
caso donde no se emplean y con esto se asegura que tenga una mayor robustez el controlador
optimizante con redes neuronales descrito mediante la ecuacin (5.33) al caso donde se no
emplean stas descrito mediante la ecuacin (5.22) debido a lo analizado en la proposicin
del tema anterior (donde se encuentra el ecuacin (5.31)) y su primer comentario.
5.4. Simulacin de la optimizacin fuera de lnea del
mezclado de crudo con redes neuronales
5.4.1. Obtencin de los datos y algoritmo empleado
El proceso de mezclado de aceite crudo esta sujeto a un nmero de operaciones de re-
striccin. Los objetivos del mezclado de petrleo crudo son maximizar el valor de todos los
productos mientras se satisfacen sus restricciones, o minimizar el costo del mezclado. El
5.4 Simulacin de la optimizacin fuera de lnea del mezclado de crudo con redes neuronales 121
mezclado de aceite crudo se puede considerar como una mezcla de n componentes con:
q = [q
1
, . . . , q
n
]
T
= velocidad de ujo en la entrada
p = [p
1
, . . . , p
n
]
T
= propiedad en la entrada
q
f
= velocidad de ujo en la salida
p
f
= propiedad en la salida
u =
h
q
1
q
f
, . . . ,
qn
q
f
i
T
= fraccin de ujo en la entrada
En este programa se emplea el algoritmo de la optimizacin fuera de lnea del petrleo crudo
con redes neuronales y con esquema de optimizacin de la Figura (5.1) y de la ecuacin
(5.15) la cual se vuelve a citar a continuacin:
mnc
T
u(k)
sujeto a:
Au(k) b
A
eq
u(k) = b
eq
u
mn
u(k) u
max
donde:
A =
"
p
q
f

p
q
f
#
=
"
p
p
#
b =
"
p
f,max
(k)
p
f,mn
+(k)
#
A
eq
= [1, . . . , 1]
b
eq
= u
f
= 1
(k) = p
f
(k 1) p
T
(k 1)u(k 1)
Se puede evitar la suposicin del analizador en tiempo real con esquema de actualizacin al
emplear la red neuronal para estimar el comportamiento del mezclador con datos histricos,
despus del aprendizaje de la red neuronal se tiene el valor de salida de la red neuronal como
las propiedades cualitativas del proceso de mezclado que se describe mediante la ecuacin
(5.11) la cual se vuelve a citar a continuacin:
b p
f
= V
k
[W
k
X(k)]
122
Optimizacin de petrleo crudo va redes neuronales y actualizacin de datos (bias
updating)
De una condicin inicial para , por ejemplo (0) = 0, que es el parmetro que describe
el esquema de actualizacin se puede estimar mediante la ecuacin (5.8) despus de calcular
u (fraccin de ujo en la entrada) mediante de la optimizacin. El esquema de actualizacin
se vuelve a citar a continuacin:
(k + 1) = b p
f
(k)
q
T
(k)p(k)
q
f
= b p
f
(k) p
T
(k)u(k)
En este caso la propiedad cualitativa es la densidad a la salida del modelo la cual se obtiene
directamente de las estimaciones que se analizaron en el captulo anterior para los casos del
modelo distribuido (mezclador 1, mezclador 2 y mezclador 3), del modelo agregado, para
cuando se aplic la red neuronal para el modelo completo y cuando se aplic la red neuronal
solamente para la no linealidad. Para este programa se emplea la funcin de Matlab llamada
linprog (programacin lineal) que se dene como sigue:
x = LINPROG(c, A1, b1) (5.35)
La ecuacin (5.35) de Matlab resuelve en un problema de programacin lineal:
mnc
T
x
sujeto a:
A1x b1
(5.36)
donde para el programa x = u (fraccin de ujo en la entrada).
x = LINPROG(c, A1, b1, A0, b0) (5.37)
La ecuacin (5.37) de Matlab resuelve el problema de la ecuacin (5.36) mientras adicional-
mente satisface las restricciones de igualdad:
A0x = b0
x = LINPROG(c, A1, b1, A0, b0, xi, xa) (5.38)
5.4 Simulacin de la optimizacin fuera de lnea del mezclado de crudo con redes neuronales 123
La ecuacin (5.38) de Matlab dene un espacio de cotas inferior y superior sobre las variables
de diseo (que para nuestro caso son las fracciones de ujo de las entradas del modelo), tal
que el programa de una solucin dentro de este rango.
x = LINPROG(c, A1, b1, A0, b0, xi, xa, xx) (5.39)
La ecuacin (5.39) da un punto inicial a x, denotado por xx.
A continuacin se muestran los resultados de emplear este algoritmo para el controlador
de cada uno de los modelos mencionados.
5.4.2. Optimizacin del modelo distribuido
Para el cotrolador optimizante del mezclado de crudo con redes neuronales del modelo
distribuido se consideran cada uno de los 3 mezcladores por separado tenindose un programa
para cada mezclador. Se obtienen los datos de los programa de Matlab para redes neuronales
del captulo anterior los cuales se emplean para realizar cada programa. Se tienen 6 programas
para el controlador debido a que hay dos modalidades que son para el modelo completo y
para la no linealidad las cuales se explicaron en el captulo anterior.
Optimizacin con redes neuronales para el modelo completo
A continuacin se gracan los resultados, que son cuatro grcas en una Figura y una
Figura para cada mezclador (ver Figuras 5.2, 5.3 y 5.4):
La primer grca proporciona los valores ptimos de las fracciones de ujo de los
componentes de entrada del modelo lo cuales son proporcionados por el controlador
para el mezclado de crudo con redes neuronales.
La segunda grca proporciona los valores ptimos de las fracciones de ujo de los
componentes de entrada del modelo lo cuales son proporcionados por el controlador
para el mezclado de crudo con redes neuronales.
124
Optimizacin de petrleo crudo va redes neuronales y actualizacin de datos (bias
updating)
La tercer grca proporciona la funcin de costo ptima para el controlador empleado
en el mezclado de crudo con redes neuronales.
La cuarta grca proporciona la funcin de costo ptima para el controlador empleado
en el mezclado de crudo con datos reales.
Para los programas de las Figuras 5.2, 5.3 y 5.4 se tiene una funcin de costo de c=[34;32],
una matriz para la restriccin de igualdad de A0=[1,1], un elemento para la restriccin de
igualdad de b0=1, una cota inferior de xi=[0;0], una densidad mnima a la salida del modelo
de Pi=30, una densidad mxima a la salida del modelo de Pa=35, el valor inicial de la no
linealidad para el esquema de actualizacin es delta(1)=0, una condicin inicial xx=0 y una
matriz para la restriccin de desigualdad de A1=[DE;-DE] donde DE es la densidad de los
elementos de entrada del modelo.
En la Figura 5.2 se simul el controlador para el mezclado de crudo con redes neuronales,
2 entradas, 1 salida y una cota superior de xa=[0.6;0.8]. De la grca del inciso (a) de la
Figura 5.2 donde se encuentran los valores ptimos para las facciones de ujo para el modelo
completo del mezclador 1 con redes neuronales se observa que ambas seales son estables
con valores u
1
= 0,2, u
2
= 0,8 y que
n
X
i=1
u
i
= 1 tenindose por consiguiente una optimizacin
exitosa. De la grca del inciso (b) de la Figura 5.2 donde se encuentran los valores ptimos
para las facciones de ujo para el modelo completo del mezclador 1 con datos reales se observa
que ambas seales son estables con valores u
1
= 0,2, u
2
= 0,8 y que
n
X
i=1
u
i
= 1 tenindose
por consiguiente una optimizacin exitosa. De la grca del inciso (c) de la Figura 5.3 donde
se encuentra la funcin de costo ptima para el modelo completo del mezclador 1 con redes
neuronales se observa que tiene un valor nal de 32,4. De la grca del inciso (d) de la Figura
5.3 donde se encuentra la funcin de costo ptima para el modelo completo del mezclador 1
con datos reales se observa que tiene un valor nal de 32,4.
En la Figura 5.3 se simul el controlador para el mezclado de crudo con redes neuronales,
2 entradas, 1 salida y una cota superior de xa=[0.8;0.6]. De la grca del inciso (a) de la
Figura 5.3 donde se encuentran los valores ptimos para las facciones de ujo para el modelo
5.4 Simulacin de la optimizacin fuera de lnea del mezclado de crudo con redes neuronales 125
0 10 20 30
0
0.2
0.4
0.6
0.8
o u1 * u2
(
a
)
F
r
a
c
c
i
o
n

d
e

f
l
u
j
o

(
R
e
d

N
)
Optimizacion para la no linealidad del Mezclador 1
0 10 20 30
0
0.2
0.4
0.6
0.8
o u1 * u2
(
b
)
F
r
a
n
c
i
o
n

d
e

f
l
u
j
o

(
D
a
t
o
s
)
0 10 20 30
0
10
20
30
40
tiempo
(
c
)
C
o
s
t
o

(
R
e
d

N
)
0 10 20 30
0
10
20
30
40
tiempo
(
d
)
C
o
s
t
o

(
D
a
t
o
s
)
Figura 5.2: Optimizacin para el modelo completo del Mezclador 1
126
Optimizacin de petrleo crudo va redes neuronales y actualizacin de datos (bias
updating)
0 10 20 30
0
0.2
0.4
0.6
0.8
o u1 * u2
(
a
)
F
r
a
c
c
i
o
n

d
e

f
l
u
j
o

(
R
e
d

N
)
Optimizacion para el modelo completo del Mezclador 2
0 10 20 30
0
0.2
0.4
0.6
0.8
o u1 * u2
(
b
)
F
r
a
n
c
i
o
n

d
e

f
l
u
j
o

(
D
a
t
o
s
)
0 10 20 30
0
10
20
30
40
tiempo
(
c
)
C
o
s
t
o

(
R
e
d

N
)
0 10 20 30
0
10
20
30
40
tiempo
(
d
)
C
o
s
t
o

(
D
a
t
o
s
)
Figura 5.3: Optimizacin para el modelo completo del Mezclador 2
5.4 Simulacin de la optimizacin fuera de lnea del mezclado de crudo con redes neuronales 127
completo del mezclador 2 con redes neuronales se observa que ambas seales son estables
con valores u
1
= 0,4, u
2
= 0,6 y que
n
X
i=1
u
i
= 1 tenindose por consiguiente una optimizacin
exitosa. De la grca del inciso (b) de la Figura 5.3 donde se encuentran los valores ptimos
para las facciones de ujo para el modelo completo del mezclador 2 con datos reales se
observa que ambas seales son no estables con valores u
1
= 0,6778, u
2
= 0,3222 y que
n
X
i=1
u
i
= 1 tenindose por consiguiente una optimizacin no exitosa. De la grca del inciso
(c) de la Figura 5.3 donde se encuentra la funcin de costo ptima para el modelo completo
del mezclador 2 con redes neuronales se observa que tiene un valor nal de 32,8. De la grca
del inciso (d) de la Figura 5.3 donde se encuentra la funcin de costo ptima para el modelo
completo del mezclador 2 con datos reales se observa que tiene un valor nal de 33,3555.
En la Figura 5.4 se simul controlador para el mezclado de crudo con redes neuronales,
2 entradas, 1 salida y una cota superior de xa=[0.6;0.6]. De la grca del inciso (a) de la
Figura 5.4 donde se encuentran los valores ptimos para las facciones de ujo para el modelo
completo del mezclador 3 con redes neuronales se observa que ambas seales son estables
con valores u
1
= 0,4, u
2
= 0,6 y que
n
X
i=1
u
i
= 1 tenindose por consiguiente una optimizacin
exitosa. De la grca del inciso (b) de la Figura 5.4 donde se encuentran los valores ptimos
para las facciones de ujo para el modelo completo del mezclador 3 con datos reales se observa
que ambas seales son estables con valores u
1
= 0,4, u
2
= 0,6 y que
n
X
i=1
u
i
= 1 tenindose
por consiguiente una optimizacin exitosa. De la grca del inciso (c) de la Figura 5.4 donde
se encuentra la funcin de costo ptima para el modelo completo del mezclador 3 con redes
neuronales se observa que tiene un valor nal de 32,8. De la grca del inciso (d) de la Figura
5.4 donde se encuentra la funcin de costo ptima para el modelo completo del mezclador 3
con datos reales se observa que tiene un valor nal de 32,8.
Optimizacin con redes neuronales para la parte no lineal
A continuacin se gracan los resultados, que son cuatro grcas en una Figura y una
Figura para cada mezclador (ver Figuras 5.5, 5.6 y 5.7):
128
Optimizacin de petrleo crudo va redes neuronales y actualizacin de datos (bias
updating)
0 10 20 30
0
0.2
0.4
0.6
0.8
o u1 * u2
(
a
)
F
r
a
c
c
i
o
n

d
e

f
l
u
j
o

(
R
e
d

N
)
Optimizacion para el modelo completo del Mezclador 3
0 10 20 30
0
0.2
0.4
0.6
0.8
o u1 * u2
(
b
)
F
r
a
n
c
i
o
n

d
e

f
l
u
j
o

(
D
a
t
o
s
)
0 10 20 30
0
10
20
30
40
tiempo
(
c
)
C
o
s
t
o

(
R
e
d

N
)
0 10 20 30
0
10
20
30
40
tiempo
(
d
)
C
o
s
t
o

(
D
a
t
o
s
)
Figura 5.4: Optimizacin para el modelo completo del Mezclador 3
5.4 Simulacin de la optimizacin fuera de lnea del mezclado de crudo con redes neuronales 129
La primer grca proporciona los valores ptimos de las fracciones de ujo de los
componentes de entrada del modelo lo cuales son proporcionados por el controlador
para el mezclado de crudo con redes neuronales.
La segunda grca proporciona los valores ptimos de las fracciones de ujo de los
componentes de entrada del modelo lo cuales son proporcionados por el controlador
para el mezclado de crudo con redes neuronales.
La tercer grca proporciona la funcin de costo ptima para el controlador empleado
en el mezclado de crudo con redes neuronales.
La cuarta grca proporciona la funcin de costo para el controlador empleado en el
mezclado de crudo con datos reales.
Para los programas de las Figuras 5.5, 5.6 y 5.7 se tiene una funcin de costo de c=[34;32],
una matriz para la restriccin de igualdad de A0=[1,1], un elemento para la restriccin de
igualdad de b0=1, una cota inferior de xi=[0;0], una densidad mnima a la salida del modelo
de Pi=30, una densidad mxima a la salida del modelo de Pa=35, el valor inicial de la no
linealidad para el esquema de actualizacin es delta(1)=0, una condicin inicial xx=0 y una
matriz para la restriccin de desigualdad de A1=[DE;-DE] donde DE es la densidad de los
elementos de entrada del modelo.
En la Figura 5.5 se simul el controlador para el mezclado de crudo con redes neuronales,
2 entradas, 1 salida y una cota superior de xa=[0.6;0.8]. De la grca del inciso (a) de la
Figura 5.5 donde se encuentran los valores ptimos para las facciones de ujo para la no
linealidad del mezclador 1 con redes neuronales se observa que ambas seales son estables
con valores u
1
= 0,2, u
2
= 0,8 y que
n
X
i=1
u
i
= 1 tenindose por consiguiente una optimizacin
exitosa. De la grca del inciso (b) de la Figura 5.5 donde se encuentran los valores ptimos
para las facciones de ujo para la no linealidad del mezclador 1 con datos reales se observa
que ambas seales son estables con valores u
1
= 0,2, u
2
= 0,8 y que
n
X
i=1
u
i
= 1 tenindose
por consiguiente una optimizacin exitosa. De la grca del inciso (c) de la Figura 5.5 donde
130
Optimizacin de petrleo crudo va redes neuronales y actualizacin de datos (bias
updating)
0 10 20 30
0
0.2
0.4
0.6
0.8
o u1 * u2
(
a
)
F
r
a
c
c
i
o
n

d
e

f
l
u
j
o

(
R
e
d

N
)
Optimizacion para la no linealidad del Mezclador 1
0 10 20 30
0
0.2
0.4
0.6
0.8
o u1 * u2
(
b
)
F
r
a
n
c
i
o
n

d
e

f
l
u
j
o

(
D
a
t
o
s
)
0 10 20 30
0
10
20
30
40
tiempo
(
c
)
C
o
s
t
o

(
R
e
d

N
)
0 10 20 30
0
10
20
30
40
tiempo
(
d
)
C
o
s
t
o

(
D
a
t
o
s
)
Figura 5.5: Optimizacin para la no linealidad del Mezclador 1
5.4 Simulacin de la optimizacin fuera de lnea del mezclado de crudo con redes neuronales 131
0 10 20 30
0
0.2
0.4
0.6
0.8
o u1 * u2
(
a
)
F
r
a
c
c
i
o
n

d
e

f
l
u
j
o

(
R
e
d

N
)
Optimizacion para la no linealidad del Mezclador 2
0 10 20 30
0
0.2
0.4
0.6
0.8
o u1 * u2
(
b
)
F
r
a
n
c
i
o
n

d
e

f
l
u
j
o

(
D
a
t
o
s
)
0 10 20 30
0
10
20
30
40
tiempo
(
c
)
C
o
s
t
o

(
R
e
d

N
)
0 10 20 30
0
10
20
30
40
tiempo
(
d
)
C
o
s
t
o

(
D
a
t
o
s
)
Figura 5.6: Optimizacin para la no linealidad del Mezclador 2
se encuentra la funcin de costo ptima para la no linealidad del mezclador 1 con redes
neuronales se observa que tienen un valor nal de 32,4. De la grca del inciso (d) de la
Figura 5.5 donde se encuentra la funcin de costo ptima para la no linealidad del mezclador
1 con datos reales se observa que tienen un valor nal de 32,4.
En la Figura 5.6 se simul el controlador para el mezclado de crudo con redes neuronales,
2 entradas, 1 salida y una cota superior de xa=[0.8;0.6]. De la grca del inciso (a) de la
Figura 5.6 donde se encuentran los valores ptimos para las facciones de ujo para la no
linealidad del mezclador 2 con redes neuronales se observa que ambas seales son estables
132
Optimizacin de petrleo crudo va redes neuronales y actualizacin de datos (bias
updating)
con valores u
1
= 0,6269, u
2
= 0,3731 y que
n
X
i=1
u
i
= 1 tenindose por consiguiente una
optimizacin exitosa. De la grca del inciso (b) de la Figura 5.6 donde se encuentran los
valores ptimos para las facciones de ujo para la no linealidad del mezclador 2 con datos
reales se observa que ambas seales son no estables con valores u
1
= 0,6778, u
2
= 0,3222 y
que
n
X
i=1
u
i
= 1 tenindose por consiguiente una optimizacin no exitosa. De la grca del
inciso (c) de la Figura 5.6 donde se encuentra la funcin de costo ptima para la no linealidad
del mezclador 2 con redes neuronales se observa que tienen un valor nal de 33,2537. De la
grca del inciso (d) de la Figura 5.6 donde se encuentra la funcin de costo ptima para la
no linealidad del mezclador 2 con datos reales se observa que tienen un valor nal de 33,3555.
En la Figura 5.7 se simul el controlador para el mezclado de crudo con redes neuronales,
2 entradas, 1 salida y una cota superior de xa=[0.6;0.6]. De la grca del inciso (a) de la
Figura 5.7 donde se encuentran los valores ptimos para las facciones de ujo para la no
linealidad del mezclador 3 con redes neuronales se observa que ambas seales son estables
con valores u
1
= 0,4, u
2
= 0,6 y que
n
X
i=1
u
i
= 1 tenindose por consiguiente una optimizacin
exitosa. De la grca del inciso (b) de la Figura 5.7 donde se encuentran los valores ptimos
para las facciones de ujo para la no linealidad del mezclador 3 con datos reales se observa
que ambas seales son estables con valores u
1
= 0,4, u
2
= 0,6 y que
n
X
i=1
u
i
= 1 tenindose
por consiguiente una optimizacin exitosa. De la grca del inciso (c) de la Figura 5.7 donde
se encuentra la funcin de costo ptima para la no linealidad del mezclador 3 con redes
neuronales se observa que tienen un valor nal de 32,8. De la grca del inciso (d) de la
Figura 5.7 donde se encuentra la funcin de costo ptima para la no linealidad del mezclador
3 con datos reales se observa que tienen un valor nal de 32,8.
5.4.3. Optimizacin del modelo agregado
Para el modelo agregado se consideran los 3 mezcladores en un modelo tenindose un
programa para todos los mezcladores. Se obtienen los datos de los programa de Matlab para
5.4 Simulacin de la optimizacin fuera de lnea del mezclado de crudo con redes neuronales 133
0 10 20 30
0
0.2
0.4
0.6
0.8
o u1 * u2
(
a
)
F
r
a
c
c
i
o
n

d
e

f
l
u
j
o

(
R
e
d

N
)
Optimizacion para la no linealidad del Mezclador 3
0 10 20 30
0
0.2
0.4
0.6
0.8
o u1 * u2
(
b
)
F
r
a
n
c
i
o
n

d
e

f
l
u
j
o

(
D
a
t
o
s
)
0 10 20 30
0
10
20
30
40
tiempo
(
c
)
C
o
s
t
o

(
R
e
d

N
)
0 10 20 30
0
10
20
30
40
tiempo
(
d
)
C
o
s
t
o

(
D
a
t
o
s
)
Figura 5.7: Optimizacin para la no linealidad del Mezclador 3
134
Optimizacin de petrleo crudo va redes neuronales y actualizacin de datos (bias
updating)
redes neuronales del captulo anterior los cuales se emplean para realizar el programa. Se
tienen 2 programas para el controlador debido a que hay dos modalidades que son para el
modelo completo y para la no linealidad las cuales se explicaron en el captulo anterior.
Optimizacin con redes neuronales para el modelo completo
A continuacin se gracan los resultados, que son cuatro grcas en una Figura (ver
Figura 5.8):
La primer grca proporciona los valores ptimos de las fracciones de ujo de los
componentes de entrada del modelo lo cuales son proporcionados por el controlador
para el mezclado de crudo con redes neuronales.
La segunda grca proporciona los valores ptimos de las fracciones de ujo de los
componentes de entrada del modelo lo cuales son proporcionados por el controlador
para el mezclado de crudo con redes neuronales.
La tercer grca proporciona la funcin de costo ptima para el controlador empleado
en el mezclado de crudo con redes neuronales.
La cuarta grca proporciona la funcin de costo para el controlador empleado en el
mezclado de crudo con datos reales.
Para el programa de la Figura 5.8 se tiene una funcin de costo de c=[34;32;10;20], una
matriz para la restriccin de igualdad de A0=[1,1,1,1], un elemento para la restriccin de
igualdad de b0=1, una cota inferior de xi=[0;0;0;0], una densidad mnima a la salida del
modelo de Pi=30, una densidad mxima a la salida del modelo de Pa=35, el valor inicial de
la no linealidad para el esquema de actualizacin es delta(1)=0, una condicin inicial xx=0
y una matriz para la restriccin de desigualdad de A1=[DE;-DE] donde DE es la densidad
de los elementos de entrada del modelo.
En la Figura 5.8 se simul el controlador para el mezclado de crudo con redes neuronales,
4 entradas, 1 salida y una cota superior de xa=[0.6;0.5;0.5;0.2]. De la grca del inciso (a)
5.4 Simulacin de la optimizacin fuera de lnea del mezclado de crudo con redes neuronales 135
0 10 20 30
0
0.1
0.2
0.3
0.4
0.5
o u1 * u2 x u3 + u4
(
a
)
F
r
a
c
c
i
o
n

d
e

f
l
u
j
o

(
R
e
d

N
)
Optimizacion para el modelo completo del Modelo Agregado
0 10 20 30
0
0.1
0.2
0.3
0.4
0.5
o u1 * u2 x u3 + u4
(
b
)
F
r
a
n
c
i
o
n

d
e

f
l
u
j
o

(
D
a
t
o
s
)
0 10 20 30
0
5
10
15
20
25
tiempo
(
c
)
C
o
s
t
o

(
R
e
d

N
)
0 10 20 30
0
5
10
15
20
25
tiempo
(
d
)
C
o
s
t
o

(
D
a
t
o
s
)
Figura 5.8: Optimizacin para el modelo completo del Modelo Agregado
136
Optimizacin de petrleo crudo va redes neuronales y actualizacin de datos (bias
updating)
de la Figura 5.8 donde se encuentran los valores ptimos para las facciones de ujo para el
modelo completo del modelo agregado con redes neuronales se observa que todas las seales
son estables con valores u
1
= 0,0, u
2
= 0,3, u
3
= 0,5, u
4
= 0,2 y que
n
X
i=1
u
i
= 1 tenindose
por consiguiente una optimizacin exitosa. De la grca del inciso (b) de la Figura 5.8 donde
se encuentran los valores ptimos para las facciones de ujo para el modelo completo del
modelo agregado con datos reales se observa que no todas las seales son estables con valores
u
1
= 0,0, u
2
= 0,3725, u
3
= 0,4275, u
4
= 0,2 y que
n
X
i=1
u
i
= 1 tenindose por consiguiente
una optimizacin no exitosa. De la grca del inciso (c) de la Figura 5.8 donde se encuentra la
funcin de costo ptima para el modelo completo del modelo agregado con redes neuronales
se observa que tienen un valor nal de 18,6. De la grca del inciso (d) de la Figura 5.8
donde se encuentra la funcin de costo ptima para el modelo completo del modelo agregado
con datos reales se observa que tienen un valor nal de 20,1958.
Optimizacin con redes neuronales para la parte no lineal
A continuacin se gracan los resultados, que son cuatro grcas en una Figura (ver
Figura 5.9):
La primer grca proporciona los valores ptimos de las fracciones de ujo de los
componentes de entrada del modelo los cuales son proporcionados por el controlador
para el mezclado de crudo con redes neuronales.
La segunda grca proporciona los valores ptimos de las fracciones de ujo de los
componentes de entrada del modelo lo cuales son proporcionados por el controlador
para el mezclado de crudo con redes neuronales.
La tercer grca proporciona la funcin de costo ptima para el controlador empleado
en el mezclado de crudo con redes neuronales.
La cuarta grca proporciona la funcin de costo para el controlador empleado en el
mezclado de crudo con datos reales.
5.4 Simulacin de la optimizacin fuera de lnea del mezclado de crudo con redes neuronales 137
0 10 20 30
0
0.1
0.2
0.3
0.4
0.5
o u1 * u2 x u3 + u4
(
a
)
F
r
a
c
c
i
o
n

d
e

f
l
u
j
o

(
R
e
d

N
)
Optimizacion para la no linealidad del Modelo Agregado
0 10 20 30
0
0.1
0.2
0.3
0.4
0.5
o u1 * u2 x u3 + u4
(
b
)
F
r
a
n
c
i
o
n

d
e

f
l
u
j
o

(
D
a
t
o
s
)
0 10 20 30
0
5
10
15
20
25
tiempo
(
c
)
C
o
s
t
o

(
R
e
d

N
)
0 10 20 30
0
5
10
15
20
25
tiempo
(
d
)
C
o
s
t
o

(
D
a
t
o
s
)
Figura 5.9: Optimizacin para la no linealidad del Modelo Agregado
Para el programa de la Figura 5.9 se tiene una funcin de costo de c=[34;32;10;20], una
matriz para la restriccin de igualdad de A0=[1,1,1,1], un elemento para la restriccin de
igualdad de b0=1, una cota inferior de xi=[0;0;0;0], una densidad mnima a la salida del
modelo de Pi=30, una densidad mxima a la salida del modelo de Pa=35, el valor inicial de
la no linealidad para el esquema de actualizacin es delta(1)=0, una condicin inicial xx=0
y una matriz para la restriccin de desigualdad de A1=[DE;-DE] donde DE es la densidad
de los elementos de entrada del modelo.
138
Optimizacin de petrleo crudo va redes neuronales y actualizacin de datos (bias
updating)
En la Figura 5.9 se simul el controlador para el mezclado de crudo con redes neuronales,
4 entradas, 1 salida y una cota superior de xa=[0.6;0.5;0.5;0.2]. De la grca del inciso (a)
de la Figura 5.9 donde se encuentran los valores ptimos para las facciones de ujo para la
no linealidad del modelo agregado con redes neuronales se observa que todas las seales son
estables con valores u
1
= 0,0, u
2
= 0,4953, u
3
= 0,3047, u
4
= 0,2 y que
n
X
i=1
u
i
= 1 tenindose
por consiguiente una optimizacin exitosa. De la grca del inciso (b) de la Figura 5.9
donde se encuentran los valores ptimos para las facciones de ujo para la no linealidad del
modelo agregado con datos reales se observa que no todas las seales son estables con valores
u
1
= 0,0, u
2
= 0,3725, u
3
= 0,4275, u
4
= 0,2 y que
n
X
i=1
u
i
= 1 tenindose por consiguiente
una optimizacin no exitosa. De la grca del inciso (c) de la Figura 5.9 donde se encuentra
la funcin de costo ptima para la no linealidad del modelo agregado con redes neuronales
se observa que tienen un valor nal de 22,8969. De la grca del inciso (d) de la Figura 5.9
donde se encuentra la funcin de costo ptima para la no linealidad del modelo agregado
con datos reales se observa que tienen un valor nal de 20,1958.
5.5 Conclusin 139
5.5. Conclusin
En sta seccin se realiza un anlisis de la robustez del controlador optimizante, el princi-
pal resultado establece que el controlador optimizante converge al valor ptimo siempre que
la parte no lineal (o desviacin de lo ideal) de la regla de mezclado y las variaciones en los
elementos de alimentacin tengan una contribucin muy pequea sobre las propiedades cual-
itativas de mezclado. Esto restringe el empleo del controlador optimizante para sistemas de
mezclado donde las variaciones del sistema son insignicantes. Adems, se realiza un anlisis
de robustez para el controlador optimizante con redes neuronales, donde, se demuestra el se
tiene una mayor robustez para el controlador optimizante con redes neuronales que para el
que no las emplea dado que para el que emplea redes neuronales se tiene un valor de la no
linealidad an menor que para el caso donde no las emplea.
En el desarrollo de esta seccin se realiza una comparacin entre el controlador opti-
mizante para el mezclado de crudo con redes neuronales contra el controlador optimizante
para el mezclado de crudo con datos reales tenindose mejores resultados para el que em-
plea redes neuronales dado que las fracciones de ujo de los elementos de entrada fueron
ms estables y se tuvo un menor valor en la funcin de costo, comprobndose con esto que
es recomendable el empleo de un controlador optimizante con redes neuronales para tener
resultados ms estables y un menor costo. Tomando en consideracin la funcin de costo el
mejor de todos es el controlador optimizante con redes neuronales para el modelo completo.
El resultado anterior se corrobora mediante la siguiente tabla.
CORN = Controlador optimizante con redes neuronales
CODR = Controlador optimizante con datos reales
M1 = Mezclador 1
M2 = Mezclador 2
M3 = Mezclador 3
MA = M.Agregado
140
Optimizacin de petrleo crudo va redes neuronales y actualizacin de datos (bias
updating)
Aplicado al modelo completo
u
1
u
2
u
3
u
4
Costo Estabilidad
CORNM1 0,2 0,8 32,4 Estable
CORNM2 0,4 0,6 32,8 Estable
CORNM3 0,4 0,6 32,8 Estable
CORNMA 0,0 0,3 0,5 0,2 18,6 Estable
CODRM1 0,2 0,8 32,4 Estable
CODRM2 0,6778 0,3222 33,3555 No estable
CODRM3 0,4 0,6 32,8 Estable
CODRMA 0,0 0,3725 0,4275 0,2 20,1958 No estable
Aplicado al la no linealidad
u
1
u
2
u
3
u
4
Costo Estabilidad
CORNM1 0,2 0,8 32,4 Estable
CORNM2 0,6269 0,3731 33,2537 Estable
CORNM3 0,4 0,6 32,8 Estable
CORNMA 0,0 0,4953 0,3047 0,2 22,8969 Estable
CODRM1 0,2 0,8 32,4 Estable
CODRM2 0,6778 0,3222 33,3555 No estable
CODRM3 0,4 0,6 32,8 Estable
CODRMA 0,0 0,3725 0,4275 0,2 20,1958 No estable
Captulo 6
Conclusiones
El principal resultado obtenido en este trabajo muestra que la aplicacin de un control
optimizante con redes neuronales en el control de procesos de mezclado de petrleo crudo,
garantiza entregar una mezcla con las condiciones de calidad requeridas a un costo mnimo.
La convergencia del controlador propuesto a los valores ptimos depender de que la no
linealidad en la mezcla y los cambios en las corrientes de entrada sean lo sucientemente
pequeos en la contribucin en la densidad de salida de la mezcla.
En la representacin distribuida de un proceso de mezclado el controlador solo tiene
informacin de las capacidades de las corrientes de entrada del mezclador al que se aplica,
desconociendo las del que le precede. Esto ocasiona un aumento en la sensibilidad a cambios
y una disminucin del espacio de solucin de los controladores que le preceden. En cuanto a
la representacin agregada, el controlador tiene informacin de las capacidades de todas las
corrientes de entrada al proceso, esto hace que sea menos sensible a los cambios y estabilizar
ms rpido la densidad de la mezcla deseada.
En la seccin de optimizacin se realiza un anlisis de la robustez del controlador op-
timizante, el principal resultado establece que el controlador optimizante converge al valor
ptimo siempre que la parte no lineal (o desviacin de lo ideal) de la regla de mezclado y las
variaciones en los elementos de alimentacin tengan una contribucin muy pequea sobre las
propiedades cualitativas de mezclado. Esto restringe el empleo del controlador optimizante
142 Conclusiones
para sistemas de mezclado donde las variaciones del sistema son insignicantes. Adems, se
realiza un anlisis de robustez para el controlador optimizante con redes neuronales, donde,
se demuestra el se tiene una mayor robustez para el controlador optimizante con redes neu-
ronales que para el que no las emplea dado que para el que emplea redes neuronales se tiene
un valor de la no linealidad an menor que para el caso donde no las emplea.
En la seccin de modelacin se realiza una comparacin entre la identicacin va least
square contra la identicacin va redes neuronales para el modelo completo y contra la
identicacin va redes neuronales para la no linealidad tenindose mejores resultados para
la identicacin va redes neuronales para la no linealidad dado que en ste caso se tiene una
generalizacin excelente ,i.e., las seales identicada y la deseada son muy aproximadas, y
adems, se ocupa un menor nmero de pocas para la generalizacin, comprobndose con
esto que es recomendable el empleo de las redes neuronales para tener mejores resultados en
la identicacin para el proceso de mezclado de crudo.
En la seccin de optimizacin se realiza una comparacin entre el controlador optimizante
para el mezclado de crudo con redes neuronales contra el controlador optimizante para el
mezclado de crudo con datos reales tenindose mejores resultados para el que emplea redes
neuronales dado que las fracciones de ujo de los elementos de entrada fueron ms estables y
se tuvo un menor valor en la funcin de costo, comprobndose con esto que es recomendable
el empleo de un controlador optimizante con redes neuronales para tener resultados ms
estables y un menor costo. Tomando en consideracin la funcin de costo el mejor de todos
es el controlador optimizante con redes neuronales para el modelo completo.
En el apndice A se encuentra una Interfase Grca de Usuario (GUI) la cual contiene
los resultados de las secciones de modelacin y de optimizacin.
Como trabajo futuro se encuentran los siguientes puntos:
Aunque aqu se present la representacin de un proceso de mezclado con nodos mez-
cladores y el proceso en el caso de estudio, se requiere una generalizacin de un con-
trolador optimizante para procesos de mezclado que contengan otros tipos de nodos y
procesos, como columnas de separacin, estabilizadores, separacin de fases, etc.
143
Se requiere una caracterizacin ms completa del comportamiento dinmico del mez-
clado en tanques de almacenamiento y buque tanques.
Se requiere una caracterizacin ms completa del comportamiento dinmico de los
tanques donde se realiza la operacin de mezclado.
144 Conclusiones
Apndice A
Simulacin con GUI
A.1. Estructura del GUI
Las Interfases Grcas de Usuario (GUIs) contienen varios componentes de interfases de
usuario que habilitan al software para comunicarse con un usuario nal. Una de las tareas de
implementar el GUI es controlar la forma en que el GUI responde a las acciones del usuario
[5][23].
A.1.1. Entrada
Botones push
El botn push genera una accin cuando se presiona (i.e. un OK al botn puede cerrar una
caja de dilogo). Cuando se hace click sobre un botn push, ste aparece presionado; cuando
se pone en libertad el botn del ratn, la apariencia retorna a su estado no-presionado; ste
ejecuta su callback (una accin) sobre un evento.
Botones toggle
El botn toggle genera una accin y indica un estado binario (i.e. encendido apagado).
Cuando se hace click sobre un botn toggle, ste aparece presionado y permanece presionado
146 Simulacin con GUI
cuando se pone en libertad el botn del ratn, en ste estado se ejecuta su callback. Un
subsecuente click al botn del ratn regresa al botn toggle a su estado no-presionado y de
nuevo ejecuta su callback.
Mens popup
Los mens popup se abren para desplegar una lista de elecciones (denidas mediante
poner el nombre en una cadena de letras, o mejor conocida como string) cuando el usuario
presiona el rectngulo que la dene. Cuando no esta abierto, un men popup despliega la
eleccin actual, el cual est determinado por el ndice contenido en el Value property. El
primer artculo en la lista tiene un ndice 1.
Los men popup son tiles cuando se requiere proporcionar un nmero de elecciones
mutuamente exclusivas, pero no quiere tomar una gran cantidad de espacio como es el caso
de los radio buttons (botones radio).
Cajas listas
La caja lista despliega una lista de artculos (denida usando una propiedad string) y
habilita al usuario para seleccionar uno o ms artculos. El valor de la propiedad contiene
un ndice dentro de la lista de cadenas que corresponde con el artculo seleccionado. Si el
usuario selecciona mltiples artculos, entonces el valor es un vector de ndices, entonces el
primer artculo en la lista tiene un ndice 1.
Textos editables
El control del texto editable es un campo que habilita al usuario a meter o modicar
cadenas de texto. Se emplea el texto editable cuando se quiere el texto como una entrada.
La propiedad string (cadena de caracteres) contiene el texto introducido por el usuario.
A.1 Estructura del GUI 147
A.1.2. Salida
Ejes
Los ejes habilitan el GUI para desplegar grcas de salida (i.e. grcas e imgenes). Los
ejes no son objetos uicontrol, pero se pueden programas para habilitar la interaccin del
usuario con los ejes y los objetos grcos desplegados en los ejes.
Figuras
Las guras son ventanas contenidas en el GUI para el diseo del editor de conguracin.
Textos estticos
El texto esttico despliega lneas de texto. El texto esttico tpicamente se emplea para
etiquetar otros controles, guiando al usuario o indicando los valores de un deslizador. El
usuario no puede cambiar el texto esttico y no hay un camino para invocar la rutina callback
asociada con ste.
A.1.3. Simulador de las redes neuronales y del controlador opti-
mizante
Existen muchos elementos los cuales permiten al usuario comunicarse con el software
pero el que se emplea en este documento es el men popup.
Los mens popup se abren para desplegar una lista de elecciones (denidas mediante
poner el nombre en una cadena de letras, o mejor conocida como string) cuando el usuario
presiona el rectngulo que la dene. Cuando no esta abierto, un men popup despliega la
eleccin actual, el cual est determinado por el ndice contenido en el Value property. El
primer artculo en la lista tiene un ndice 1.
Los men popup son tiles cuando se requiere proporcionar un nmero de elecciones
mutuamente exclusivas, pero no quiere tomar una gran cantidad de espacio como es el caso
de los radio buttons (botones radio).
148 Simulacin con GUI
En este desarrollo se presenta el GUI el cual muestra en un solo programa los resultados
de la identicacin con redes neuronales para el modelo completo y para la no linealidad,
tambin muestra los resultados del controlador optimizante con redes neuronales para el
modelo completo y para la no linealidad (los resultados citados se explican con detalle en
los dos captulos anteriores). Este programa consta de cuatro mens los cuales corresponden
cada uno a los resultados citados y cada men consta de la eleccin de cada uno de los tres
mezcladores para el modelo distribuido y para el modelo agregado.
El programa de GUI tiene cuatro etiquetas las cuales tienen el siguiente signicado:
RNMC = Red neuronal para el modelo completo
RNMC = Red neuronal para la no linealidad
COMC = Controlador optimizante para el modelo completo
RNMC = Controlador optimizante para la no linealidad
En la Figura A.1 se muestra el programa de GUI para la opcin de la red neuronal para la
no linealidad del mezclador 2.
Por ltimo, en la Figura A.2 se muestra el programa de GUI para la opcin del controlador
optimizante para el modelo completo del modelo agregado.
A.1 Estructura del GUI 149
Figura A.1: GUI en la opcin de la red neuronal para la no linealidad del mezclador 2
150 Simulacin con GUI
Figura A.2: GUI en la opcin del controlador optimizante para el modelo completo del modelo
agregado
Apndice B
Mtodo Simplex
La programacin lineal es un mtodo de optimizacin aplicable para solucin de prob-
lemas en los cuales la funcin objetivo y las restricciones aparecen como funciones lineales
de las variables de decisin. Las ecuaciones de restriccin en el problema de programacin
lineal se pueden expresar como igualdades o como desigualdades [11][20].
B.1. Forma estndar de un problema de programacin
lineal
El problema de programacin lineal se enuncia de la siguiente forma:
En forma escalar.
Minimizar f(x
1
, x
2
, . . . , x
n
) = c
1
x
1
+c
2
x
2
+. . . +c
n
x
n
(B.1)
sujeto a las siguientes restricciones:
_

_
a
11
x
1
+a
12
x
2
+. . . +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+. . . +a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+a
m2
x
2
+. . . +a
mn
x
n
= b
m
_

_
(B.2)
152 Mtodo Simplex
y
_

_
x
1
0
x
2
0
.
.
.
x
n
0
_

_
(B.3)
En forma matricial.
Minimize:
c
T
X (B.4)
sujeto a las siguientes restricciones:
aX = b (B.5)
y
X 0 (B.6)
donde:
X =
_

_
x
1
x
2
.
.
.
x
n
_

_
, b =
_

_
b
1
b
2
.
.
.
b
n
_

_
, c =
_

_
c
1
c
2
.
.
.
c
n
_

_
, a =
_

_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
a
m1
a
m2
a
mn
_

_
Las caractersticas del problema de programacin lineal se enuncian en la forma estndar
como sigue:
1. La funcin objetivo es de tipo minimizacin.
2. Todas las restricciones son de tipo igualdad.
3. Todas las variables son no negativas.
El problema de programacin lineal se puede poner en la forma estndar usando las
siguientes transformaciones.
B.1 Forma estndar de un problema de programacin lineal 153
1. La maximizacin de una funcin f(x
1
, x
2
, . . . , x
n
) es equivalente a la minimizacin del
negativo de la misma funcin. Por ejemplo:
minimize
f = c
1
x
1
+c
2
x
2
+. . . +c
n
x
n
es equivalente a:
maximize
f= f = c
1
x
1
c
2
x
2
. . . c
n
x
n
2. Una variable puede no estar restringida en signo para algunos problemas. En tales
casos, una variable no restringida (la cual puede ser positiva, negativa, o cero) se
puede describir como una ecuacin de diferencia de dos variables no negativas. As, si
x
j
no est restringida en signo, esta se puede escribir como x
j
= x
,
j
x
,,
j
donde:
x
j
0 y x
,,
j
0
x
j
ser negativa, cero o positiva dependiendo sobre si x
,,
j
es mayor que, igual o menor
que x
,
j
.
3. Si aparece una restriccin en la forma de "menor que"de la siguiente forma:
a
k1
x
1
+a
k2
x
2
+. . . +a
kn
x
n
b
k
Este se puede convertir en forma de igualdad adicionando una variable no negativa
x
n+1
.
a
k1
x
1
+a
k2
x
2
+. . . +a
kn
x
n
+x
n+1
= b
k
Similarmente, si aparece una restriccin en la forma de "mayor que"de la siguiente
forma:
a
k1
x
1
+a
k2
x
2
+. . . +a
kn
x
n
b
k
Este se puede convertir en forma de igualdad adicionando una variable no negativa
x
n+1
.
a
k1
x
1
+a
k2
x
2
+. . . +a
kn
x
n
x
n+1
= b
k
donde x
n+1
es una variable no negativa conocida como variable excedente.
154 Mtodo Simplex
B.2. Algoritmo simplex
El punto de inicio de un algoritmo simplex es siempre un espacio de ecuaciones, la cual
incluye la funcin objetivo con restricciones de igualdad del problema en forma cannica. As
el objetivo del algoritmo simplex es encontrar el vector X 0 el cual minimize la funcin
objetivo f(X) y satisfaga las ecuaciones:
_

_
1 x
1
+ 0 x
2
+ + 0 x
m
+a
1,m+1
x
m+1
+ +a
1n
x
n
= b
1
0 x
1
+ 1 x
2
+ + 0 x
m
+a
2,m+1
x
m+1
+ +a
2n
x
n
= b
2
.
.
.
0 x
1
+ 0 x
2
+ + 1 x
m
+a
m,m+1
x
m+1
+ +a
mn
x
n
= b
m
0 x
1
+ 0 x
2
+ + 0 x
m
f + c
m,m+1
x
m+1
+ +c
mn
x
n
= f
0
_

_
(B.7)
donde a
ij
, c
j
, b
j
y f
0
son constantes. Note que (f) es tratada como una variable bsica en
la forma cannica de la ecuacin (B.7). La ecuacin a la que se puede reducir desde ecuacin
(B.7) es:
_

_
x
i
= b
i
, i = 1, 2, . . . , m
f = f
0
x
i
= 0, i = m+ 1, m+ 2, . . . , n
_

_
(B.8)
Si esta solucin bsica es tambin factible, lo valores de x
i
, i = 1, 2, . . . , n son no negativos
y por lo tanto:
b
i
0, i = 1, 2, . . . , m (B.9)
En la fase I del mtodo simplex, la solucin bsica corresponde a obtener la forma cannica
despus de la introduccin de variables articiales y se obtendr un problema articial. La
fase II del mtodo simplex inicia con la solucin factible bsica del problema de programacin
lineal original. Por lo tanto en la forma cannica inicial en el inicio del algoritmo simplex
siempre es una solucin factible bsica.
B.3 Identicando un punto ptimo 155
B.3. Identicando un punto ptimo
Teorema B.1 Una solucin factible bsica es una solucin ptima con el valor mnimo de
la funcin objetivo de f
0
si todos los coecientes de costo c
j
, j = m + 1, m + 2, , n en la
ecuacin (B.7) son no negativos.
Para la ecuacin (B.7) se puede escribir:
f
0
+
n
X
j=m+1
c
i
x
i
= f (B.10)
Si ci > 0 para i = m + 1, m + 2, . . . , n, entonces al incrementar el valor de cualquier x
i
no
puede decrementar el valor de la funcin objetivo f. Desde que no se pueden cambiar el
valor de las variables bsicas tal que causen que f decrezca, el valor de la funcin debera
ser ptimo en f = f
0
.
B.3.1. Mejorando una solucin factible bsica no ptima
Desde la ltima la de la ecuacin (B.7), se puede escribir la funcin objetivo como:
f = f
0
+
m
X
i=1
c
i
x
i
+
n
X
j=m+1
c
j
x
j
= f
0
debido a la solucin dada en ecuacin (B.8) (B.11)
Si a lo menos un c
j
< 0, el valor de f se puede reducir haciendo el correspondiente x
j
> 0.
al mismo tiempo, debido a la operacin de pivote, una de las variables bsicas corrientes se
convierte en no bsica y por lo tanto los valores de las nuevas variables bsicas se ajustarn
para obtener un nuevo valor de f < f
0
. Si hay mas de un c
j
< 0, el ndice s de la variable
no bsica x
s
el cual la hace bsica es:
c
j
= mnimo (c
j
< 0) (B.12)
Habiendo decidido sobre la variable x
s
a convertirse en bsica, se incrementa desde cero
sosteniendo todas las otras variables como cero y observando el efecto sobre las variables
156 Mtodo Simplex
bsicas corrientes.
_

_
x
1
= b
1
a
1s
x
s
, b
1
0
x
2
= b
2
a
2s
x
s
, b
2
0
.
.
.
x
m
= b
m
a
ms
x
s
, b
m
0
_

_
(B.13)
f = f
0
+c
s
x
s
, c
s
< 0 (B.14)
Se puede ver que si todos los coecientes a
is
0, i = 1, 2, . . . , m, entonces x
s
se puede hacer
innitamente grande sin hacer ningn x
i
< 0, i = 1, 2, . . . , m. En tal caso el problema tiene
una solucin no acotada.
Por otro lado, si a lo menos un a
is
> 0, el valor mximo que x
s
puede tomar sin hacer x
i
negativo es (b
i
/a
is
).
El ms grande valor x

s
que x
s
puede tomar es:
x

s
=
b
r
a
rs
= mnimo (b
i
/a
is
) (B.15)
Sustituyendo el valor de x

s
dado por ecuacin (B.15) en ecuaciones (B.13) y (B.14) se tiene:
_

_
x
s
= x

s
x
i
= b
i
a
is
x
s
0, i = 1, 2 . . . , m. i 6= r
x
r
= 0
x
j
= 0, j = m+ 1, m+ 2, . . . , n. j 6= s
_

_
(B.16)
f = f
0
+c
s
x
s
f
0
(B.17)
Realizando la operacin de pivote sobre el sistema de la ecuacin (B.7) dar una nueva
forma cannica desde la cual se deduce la ecuacin (B.16). La ecuacin (B.17) muestra que
la solucin factible bsica corresponde a un valor de la funcin objetivo menor comparado con
el valor de la ecuacin (B.8). En el algoritmo simplex , este procedimiento es repetitivo hasta
que el algoritmo encuentra cualquiera de lo siguiente: (i) una clase de soluciones factibles
para las cuales f o (ii) una solucin factible bsica para la cual todos los c
i
0,
i = 1, 2, . . . , n.
B.4 Las dos fases del mtodo simplex 157
B.4. Las dos fases del mtodo simplex
El problema es encontrar valores no negativos para las variables x
1
, x
2
, . . . , x
n
los cuales
satisfagan las ecuaciones:
_

_
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
= b
m
_

_
(B.18)
c
1
x
1
+c
2
x
2
+c
n
x
n
= f (B.19)
La fase I del mtodo simplex usa el algoritmo simplex para encontrar si el problema de pro-
gramacin lineal tiene una solucin factible. La fase II del mtodo simplex, usa el algoritmo
simplex para encontrar si el problema tiene una solucin ptima acotada.
El mtodo simplex est descrito por los siguientes pasos.
1. Arreglar el sistema original de la ecuacin (B.18) tal que todos los trminos b
i
sean
positivos o cero cambiando a donde sea necesario, el signo a ambos lados de la ecuacin.
2. Introduce a este sistema bsico un espacio de variables articiales y
1
, y
2
, . . . , y
m
donde
cada y
i
0 y el sistema se convierte a:
_

_
a
11
x
1
+a
12
x
2
+ + a
1n
x
n
+y
1
= b
1
a
21
x
1
+a
22
x
2
+ + a
2n
x
n
+y
2
= b
2
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
+y
m
= b
m
_

_
(B.20)
b
i
0
La funcin objetivo de la ecuacin (B.19), se puede escribir de la siguiente manera:
c
1
x
1
+c
2
x
2
+c
n
x
n
f = 0 (B.21)
158 Mtodo Simplex
3. Fase I del mtodo. Dene una cantidad w como la suma de las variables articiales:
w = y
1
+y
2
+ . . . +y
m
(B.22)
y usar el algoritmo simplex para encontrar x
i
0 (i = 1, 2, . . . , n) y y
i
0 (i =
1, 2, . . . , m) el cual minimize w y satisfaga ecuaciones (B.20) y (B.21). Por consiguiente,
considerando el arreglo:
_

_
a
11
x
1
+a
12
x
2
+ + a
1n
x
n
+y
1
= b
1
a
21
x
1
+a
22
x
2
+ + a
2n
x
n
+y
2
= b
2
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
+y
m
= b
m
c
1
x
1
+c
2
x
2
+c
n
x
n
f = 0
y
1
+y
2
+. . . +y
m
w = 0
_

_
(B.23)
Este arreglo no esta en la forma cannica, de cualquier manera, este se puede escribir
en la forma cannica como sigue:
_

_
a
11
x
1
+a
12
x
2
+ + a
1n
x
n
+y
1
= b
1
a
21
x
1
+a
22
x
2
+ + a
2n
x
n
+y
2
= b
2
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
+y
m
= b
m
c
1
x
1
+c
2
x
2
+c
n
x
n
f = 0
d
1
x
1
+d
2
x
2
+d
n
x
n
w = w
0
_

_
(B.24)
donde:
d
i
= (a
1i
+a
2i
+ +a
mi
), i = 1, 2, . . . , n (B.25)
y
w
0
= (b
1
+b
2
+ +b
m
) (B.26)
La ecuacin (B.24) proporciona la solucin factible bsica para iniciar la fase I.
4. Aw se le llama la forma innitesimal y tiene la propiedad que si se tiene como resultado
de la fase I que el mnimo de w sea mayor que cero, entonces no existe solucin factible
B.4 Las dos fases del mtodo simplex 159
para el problema de programacin lineal original de la ecuaciones (B.18) y (B.19) y se
termina el proceso. Por otro lado, si el mnimo de w es igual a cero, entonces el arreglo
resultante estar en la forma cannica e iniciar la fase II eliminando la ecuacin de w
as como las variables articiales y
1
, y
2
, . . . , y
m
.
5. Fase II del mtodo. Aplicar el algoritmo simplex al sistema cannico ajustado de la
fase I para obtener, si existe una solucin nita, la cual optimize el valor de f.
Ahora, el problema de programacin lineal enunciado en forma matricial mediante las
ecuaciones (B.4)-(B.6) se puede reescribir de la siguiente manera:
mn(c, X), X R
n
sujeto a:
(a
i
, X) b
i
, i = 1, . . . , m
(B.27)
donde a
i
es una la de la matriz a y b
i
es un elemento del vector b. Entonces, el siguiente
teorema dice si la solucin encontrada con el mtodo simplex el nica [14].
Teorema B.2 Sea X

una solucin al problema de la ecuacin (B.27) y sea I

= {i : (a
i
, X

) = b
i
}
el espacio de las restricciones activas. Entonces, si entre los vectores a
i
, i I

, no se pueden
encontrar n vectores linealmente independientes, entonces X

no es nico. Mientras que, si


entre los vectores a
i
, i I

, si se pueden encontrar n vectores linealmente independientes y


sus correspondientes multiplicadores de Lagrange y

i
son positivos, entonces X

es nico.
160 Mtodo Simplex
Apndice C
Modelos matemticos del proceso de
mezclado de gasolina
Existen varias propiedades que son importantes en la caracterizacin de la gasolina de
automvil tales como son el nmero de octanos (ON), la presin de vapor Reid (RVP),
puntos de destilacin, de viscosidad y de equilibrio. En la mayora de los propiedades de la
mezcla en forma lineal y no-lineal, necesariamente usan modelos de mezclado complejos para
predecir sus propiedades [16][25].
Hay varias caractersticas para describir el modelo de mezclado. En este tema la mayora
de esas caractersticas son para describir su exactitud.
C.1. Nmero de octanos
El nmero de octanos indica las caractersticas anticknock de la gasolina o la habilidad de
la gasolina para resistir a la detonacin durante la combustin en la cmara de combustin.
Los dos ms comunes tipos de nmero de octanos para motores son el nmero de octanos
de investigacin (RON) y el nmero de octanos de motor (MON). Denidos por la Sociedad
Americana para la examinacin y el diseo de materiales ASTM D-908, el RON representa
la ejecucin del motor bajo condiciones de manejo en ciudad (aceleracin de frecuencia)
162 Modelos matemticos del proceso de mezclado de gasolina
mientras el MON (ASTM D-357) representa la ejecucin del motor en autopista o carretera.
Ya que el RON y el MON del mezclado de gasolina tienen una forma no-lineal, se necesitan
modelos complejos para una prediccin exacta del nmero de octanos mezclados.
C.1.1. Mtodo ideal del nmero de octanos mezclados
En ste mtodo se usan el nmero de octanos cticios BONs. Los BONs se mezclan
linealmente sobre una base volumtrica para dar el nmero de octanos de la mezcla.
(ON)
blend
=
n
X
i=1
u
i
(BON)
i
=
1
q
f
n
X
i=1
q
i
(BON)
i
(C.1)
donde: u
i
es la fraccin volumen del componente i, (ON)
blend
es el nmero de octanos (RON
o MON) de la mezcla, (BON)
i
es el nmero de octanos (RON o MON) del componente i, q
i
es la velocidad de ujo del componente i, n es el nmero de componentes en la mezcla. q
f
satisface el balance de masa:
q
f
=
P
n
i=1
q
i
u
i
=
q
i
q
f
El nmero de octanos mezclados se obtienen mediante un anlisis de regresin sobre un
espacio de datos dados pos el usuario. As, la aplicacin se basa frecuentemente sobre la
experiencia y el juicio del usuario. Las limitaciones del empleo de este mtodo se han re-
conocido ampliamente por lo cual se ha tratado con mtodos ms factibles que no dependan
demasiado del juicio del usuario.
C.1.2. Mtodo Ethil RT-70
El mtodo Ethil es uno de los ms viejos en la literatura. El mezclado no lineal se modela
explcitamente como funcin de la sensibilidad de los componentes (RON-MON), en este se
tienen que dar el contenido de oleana y el contenido aromtico de los componentes.
RON
blend
= r +a
1
(rs rs) +a
2
(O
2
O
2
) +a
3
(A
2
A
2
) (C.2)
C.1 Nmero de octanos 163
MON
blend
= m +a
4
(ms ms) +a
5
(O
2
O
2
) +a
6

(A
2
A
2
)
100
2
(C.3)
donde:r es RON, m es MON, s es la sensibilidad (RON o MON), s = pm, O es el contenido
de oleana ( % por volumen) de cada elemento de entrada, a
i
(i = 1 6) es el coeciente de
correlacin.
La ecuaciones (C.2) y (C.3) contienen un total de 6 parmetros para la mezcla de RON
y MON. Para estimar estos parmetros, se necesitan los siguientes datos:
RON, MON, contenido de oleana y contenido aromtico de cada elemento de ali-
mentacin puro.
RON y MON de cada mezcla.
Una de las ventajas de emplear el mtodo Ethil es que se puede expandir fcilmente al
incluir los efectos de otros factores (tales como el contenido de sulfuro) sobre la mezcla de
octano. Estos trminos se pueden incluir en forma similar a los contenidos aromtico y de
oleana usando trminos no-lineales adicionales. Las caractersticas de la mezcla pueden
cambiar considerablemente con los cambios en el nmero de octanos y con las cantidades
de otros elementos de la alimentacin. Por lo tanto, como las propiedades de los elementos
de entrada cambian con el tiempo debido a los cambios en las operaciones de los procesos
anteriores, los parmetros del modelo de mezclado pueden cambiar tambin. En el modelo
Ethil, los parmetros se pueden estimar en lnea usando los datos de mezcla histricos. As,
el modelo se puede hacer adaptivo y la exactitud no decrece con el tiempo. De cualquier
manera, este requiere del conocimiento de los contenidos aromtico y de oleana los cuales
no son fciles de obtener.
C.1.3. Mtodo Steward
Este mtodo fue propuesto por Steward ms o menos al mismo tiempo que se public
el mtodo Ethil y es similar al mtodo Ethil en que se contribuye el mezclado no-lineal al
164 Modelos matemticos del proceso de mezclado de gasolina
contenido de oleana de los componentes. El modelo de la mezcla es:
RON
blend
=
n
X
i=1
V
i
D
i
[RON
i
+ec (O
i
O
blend
)]
n
X
i=1
V
i
D
i
(C.4)
MON
blend
=
n
X
i=1
V
i
D
i
[RON
i
+ec (O
i
O
blend
)]
n
X
i=1
V
i
D
i
(C.5)
donde V
i
es el volumen del componente i en la mezcla, D
i
=
ha(O
i
O
blend
)
1exp[ha(O
i
O
blend
)]
, O
blend
es el
porciento de oleana concentrado de la mezcla y es el promedio volumtrico del contenido
de oleana del componente, y ec y ea son constantes.
Steward ha determinado las constantes ec y ea usando un anlisis least-square sobre 102
mezclas; es valor de ea se determin como 0.01414 para RON y 0.01994 para MON, el valor de
ec se determin como 0.130 para RON y 0.097 para MON. DE cualquier manera, solamente
10 de las mezclas empleadas fueron multicomponente, las dems fueron mezclas binarias.
C.1.4. Mtodo de Iteracin
Este mtodo est basado sobre el modelo dos-factores donde el efecto promedio se atribuye
al efecto principal de cada uno de los dos factores y el trmino de iteracin captura la no-
linealidad.
El trmino de iteracin informa el efecto de uno de los factores sobre el otro y se puede
determinar mediante ciertos experimentos. Similarmente, en el mtodo de iteracin, la no-
linealidad de la mezcla de octano se atribuye a la iteracin dos-factores entre los compo-
nentes en la mezcla y se acumula mediante la adicin y el trmino de iteracin del promedio
volumtrico del nmero de octanos. Se considera solamente la iteracin dos-caminos entre
pares de componentes, las de tres-caminos y trminos de iteracin ms altos generalmente
C.1 Nmero de octanos 165
se ignoran. Para un sistema de n componentes, el nmero de octanos (RON o MON) de la
mezcla se puede calcular como:
(ON)
blend
=
n
X
i=1
[u
i
(ON)
i
] +
n
X
i=1
n
X
k=i+1
(u
i
u
k
I
i,k
) (C.6)
donde I
i,k
es el coeciente de iteracin entre componentes i y k.
El coeciente de iteracin, I
i,k
, entre un par de componentes se obtiene usando el nmero
de octanos de los componentes puros y que para una mezcla 50:50 est dado como sigue:
I
i,k
= 4(ON)
i,k
2 [(ON)
i
+ (ON)
k
] (C.7)
donde (ON)
i,k
es el nmero de octanos de la mezcla 50 : 50 de i y k.
I
i,k
depende principalmente de la temperatura y de la presin. La ecuacin (C.7) se puede
generalizar para tomar en cuenta el coeciente tres-caminos, de cualquier manera, se pueden
obtener una muy pequea cantidad de datos para coeciente para tres-caminos de materiales
puros. Desde un punto de vista prctico, se espera que el modelo de coeciente dos-caminos
retenga las principales iteraciones no-lineales de las mezclas homogneas.
Para un sistema de n componentes, el nmero de coecientes de iteracin dos-caminos
son
n(n1)
2
para el RON o el MON, dando un total de n(n 1) parmetros por determinar.
Los datos experimentales que se requieren para estimar estos parmetros son:
RON y MON para cada componente puro,
RON y MON para la mezcla del 50:50 de las combinaciones de todos los componentes.
As, para el MON o el RON de un sistema de n componentes, el nmero total de com-
bustible examinado son n componentes puros mas
n(n1)
2
mezclas 50:50 que dan un total de
n(n+1)
2
. El nmero total de exmenes requeridos para el NOM y el RON son n(n + 1).
Desde que las caractersticas del octano mezclado puede cambiar con el nivel de octanos
y de otras propiedades, el coeciente de iteracin se puede actualizar si ocurren cambios
importantes en el octano alimentado. As, la exactitud predecida del modelo de Iteracin
puede decrecer con el tiempo tal como las calidades que los elementos de entrada cambian
166 Modelos matemticos del proceso de mezclado de gasolina
debido a procesos anteriores o a la variacin en la cantidad de crudo. De cualquier manera,
a diferencia del mtodo Ethil, el modelo de Iteracin no se puede hacer fcilmente adaptivo
desde que los coecientes de iteracin (I
i,k
) no son coecientes de correlacin ya que se
determinan experimentalmente. En lugar de determinar los coecientes de iteracin desde
mezclas binarias, los coecientes de iteracin se pueden obtener usando un anlisis de re-
gresin sobre los datos de la mezcla (los datos de las calidades de todos los elementos de
entrada as como la calidad de la mezcla). Los coecientes de iteracin, entonces se podran
actualizar usando datos de mezcla histricos y hacerlo adaptivo. Por ejemplo, 7 componentes
de mezcla podra requerir de la determinacin de 42 coecientes de iteracin mientras que el
mtodo Ethil requiere solamente 6 parmetros. Por lo tanto, se requiere una gran cantidad de
datos de mezcla para actualizar los coecientes de iteracin. Tambin, todos los parmetros
del modelo de podran evaluar como nuevos elementos de entrada para una nueva mezcla.
C.1.5. Mtodo en exceso
Este mtodo trata con desviaciones de los ideal por la aplicacin de un trmino "exceso".
Estos valores excedentes se adicionan al promedio volumtrico del nmero de octanos para
predecir el nmero de octanos de la mezcla (RON y MON) como:
(ON)
j
=
n
X
i=1
u
ij
(ON)
i
+
n
X
i=1
u
ij
(ON)
E
ij
(C.8)
donde: (ON)
j
es el nmero de octanos de la mezcla j, (ON)
E
ij
es el nmero de octanos
en exceso asociados con el componente i en la mezcla j, y u
ij
es la fraccin volumen del
componente i en la mezcla j.
En este modelo lineal, el nmero de octanos en exceso, (ON)
E
ij
, da una contribucin de la
no-linealidad en la mezcla j debida al componente i. Estos parmetros se determinan para
cada mezcla por la preparacin de una serie de restos-mezcla". Los restos-mezcla"se obtienen
por el mezclado de muchas muestras de combustibles de componentes pero omitiendo un
componente a la vez.
C.1 Nmero de octanos 167
El nmero de valores de (ON)
E
ij
por determinarse para cada grado de combustible (mez-
cla) es n y los datos experimentales que se necesitan para determinar estos parmetros son:
nmero de octanos (RON y MON) para cada componente,
nmero de octanos (RON y MON) de la mezcla,
nmero de octanos (RON y MON) de los n restos-mezcla".
El nmero de combustibles que se necesitan para examinar son (n + d(n + 1)). As, se
necesitaran un total de 2(n +d(n + 1)) exmenes para el MON y RON combinados, donde
d es el nmero de grados de gasolina.
C.1.6. Mtodo Zahed
Este mtodo correlaciona el nmero de octanos de los elementos de entrada para predecir
el nmero de octanos de la mezcla. Los parmetros en esta ecuacin se estiman usando un
anlisis de regresin sobre los datos experimentales. El modelo de la mezcla para el RON es:
(RON)
blend
= M
0
+
n
X
i=1
M
i

u
i
(RON)
l
i

k
3
(C.9)
Se puede emplear un mtodo anlogo para el MON:
(MON)
blend
= Q
0
+
n
X
i=1
Q
i

u
i
(MON)
l
i

k
4
(C.10)
donde M
0
, Q
0
, M
i
, Q
i
, k
3
y k
4
y l son constantes, y n es el nmero de elementos de ali-
mentacin en la mezcla.
As, los parmetros que se necesitan determinar son M
0
, M
1
,. . . , M
n
y k
3
para RON y
Q
0
, Q
1
,. . . , Q
n
y k
4
para MON. Estos datos que se necesitan para estimar estos parmetros
son RON y MON de cada mezcla y de los n componentes.
Como con otros modelos, la exactitud de este mtodo est limitada a un espacio de datos
usados en la estimacin de los parmetros desde las caractersticas de la mezcla y por los
168 Modelos matemticos del proceso de mezclado de gasolina
tanto los parmetros del modelo pueden cambiar debido a los cambios en las calidades de
los elementos de alimentacin en el tiempo. Los parmetros del modelo se pueden actualizar
en lnea usando datos de mezcla histricos.
C.2. Presin de Vapor Reid
La Presin de Vapor Reid (RVP), denida por la Sociedad Americana para el diseo y
examinacin de materiales ASTM D-323-56, da una indicacin de la volatilidad de la mezcla
de gasolina y es aproximadamente la presin vapor de la gasolina a 100
o
F(38
o
C). La RVP
de una mezcla de gasolina afecta la ejecucin de la gasolina en trminos de su facilidad
en el encendido, el calentamiento de motor, y la velocidad de aceleracin. RVP es tambin
importante debido a las epecicaciones mximas sobre el lmite RVP en la cantidad de n-
butano, una fuente relativamente barata de octano, que se puede adicionar a la mezcla.
C.2.1. Mtodo de Iteracin
El mtodo de iteracin tambin se ha aplicado al RVP de la mezcla por Morris. El modelo
de la mezcla es de la misma forma que el expuesto en la ecuaciones (C.6) y (C.7) exceptuando
que se mezcla el RVP en lugar del ON (nmero de octanos). Aqu tambin, se consideran solo
las iteraciones entre pares de componentes. Las iteraciones para mayor nmero de elementos
se ignoran. El modelo de iteracin es:
(RV P)
blend
=
n
X
i=1
[u
i
(RV P)
i
] +
n
X
i=1
n
X
k=i+1

u
i
u
k
b
I
i,k

b
I
i,k
= 4(RV P)
i,k
2 [(RV P)
i
+ (RV P)
k
]
donde: n es el nmero de elementos de alimentacin,
b
I
i,k
es el coeciente de iteracin
entre el elemento de alimentacin i y k, y (RV P)
i,k
es el RVP de una mezcla 50:50 de i y k.
El nmero de coecientes de iteracin requerido podra ser
n(n1)
2
.
C.3 Destilacin ASTM 169
C.2.2. Mtodo de mezcla indexada
Un mtodo emprico fcil de emplear desarrollado por Chevron REsearch Company es
el mtodo de mezcla indexada. En este alcance, se predice el RVP de la mezcla usando los
ndices de Presin de Vapor Reid de la mezcla (RVPBI) los cuales se mezclan linealmente.
Los RVPBIs estn dados por Gary y Handwerk y son de la siguiente forma:
RV PBI = (RV P)
1,25
(C.11)
(RV PBI)
blend
=
n
X
i=1
(RV PBI)
i
(C.12)
C.3. Destilacin ASTM
Las gasolinas, desde que ellas son mezclas de Hidrocarburos con diferentes puntos de
burbuja, evaporizacin sobre rangos de temperatura. Por ejemplo, el Nafta virgen ligero se
evapora al rededor de una temperatura de 30
o
C a 90
o
C. Las caractersticas de volatilidad
de la gasolina estn medidas por la destilacin ASTM D-86 el cual es un laboratorio es-
tandarizado de destilacin en batch la cual es llevada hacia afuera a la presin atmosfrica
sin una particin. Este da la cantidad (porciento volumen) destilado a una temperatura dada.
Varias temperaturas a lo largo de la curva de referencia se emplean como puntos de referen-
cia en la comparacin de las propiedades de volatilidad de la gasolina. Equivalentemente, las
propiedades de destilacin se pueden especicar como las temperaturas a porciento dado de
evaporizacin. Algunos de los mtodos para predecir los puntos de destilacin de la mezcla
son los siguientes.
C.3.1. Mtodo de Iteracin
El mtodo de iteracin, descrito para octano mezclado, se puede emplear para predecir
los puntos de destilacin ASTM como un porciento evaporado a una temperatura dada.
Otra vez, solamente se consideran las iteraciones de dos elementos entre los coecientes de
iteracin entre todos los pares de componentes los cuales estn determinados por cada punto
170 Modelos matemticos del proceso de mezclado de gasolina
en la curva de destilacin. Como en los casos de los octanos y el RVP, la determinacin de
los coecientes de iteracin requiere de la calidad de los componentes individuales as como
de las mezclas 50:50 y estos se calculas como de describi para en caso de los octanos.
Este mtodo se aplica solamente para puntos intermedios, no para puntos nales de la
mezcla de gasolina.
C.3.2. Modelos empricos
Frecuentemente se emplean mtodos empricos en la prediccin de lo puntos destilacin
ASTM de la mezcla debido a su fcil empleo. Stanley y Pingrey desarrollaron correlaciones
para predecir los puntos nales de las curvas de destilacin cuando se conocen solamente
las composiciones de la mezcla y los componentes de destilacin ASTM. Este mtodo no
proporciona estimados para los puntos intermedios en la curva de destilacin.
Dhulesia ha reportado algunos resultados usando modelos de la forma:
e =
n
1 e
(
T

1
)
2
o
100
T

=
TT
i
T
f
T
i
(C.13)
donde:
1
y
2
son constantes, e es el porciento de volumen evaporado, T
f
y T
i
son los
puntos en que hierve nal e inicial, respectivamente, de la mezcla.
No se puede predecir la exactitud de lo modelos empricos.
Bibliografa
[1] Jess No Campos Favela, Aplicacin de un sistema de control optimizante para mez-
clado de petrleo crudo, Guadalajara, 2003.
[2] Der-Min Chang, Chen-Ching Yu, Coordinated Control of Blending Systems, IEEE
Transactions on Control Systems Technology, Vol 6, No 4, 495-506, 1998.
[3] J. Fraser Forbes and Thomas E. Marlin, Model Accuracy for Economic Optimization
Controllers: The Bias Update Case, Industrial Engineering Chemistry Research, 1919-
1929, 1994.
[4] The Foxboro Company, I/A Series Application Solution on Crude Oil Blending, MA,
E. U. A., 1999.
[5] Javier Garca, Jos Ignacio Rodrges y Alfonso Brazles, Aprenda Matlab 5.3 como si
estuviera en primero, Universidad Politcnica de Madrid, 2001.
[6] Graham C. Goodwin and Kwai Sang Sin, Adaptive ltering prediction and control, Pren-
tice Hall, Englewood Clis, NJ07632, 1984.
[7] M. Guay, S. Kansal and J.F. Forbes, Industrial Engineering Chemistry Research, Vol
40, No 9, 2089-2101, 2001.
[8] Simon Haykin, Neuronal Networks, Macmillan Pub.Co., Englewood Clis, NJ 07632,
1999.
172 BIBLIOGRAFA
[9] Jos Ramn Hilera Gonzles y Vctor Jos Martnez Hernando, Redes Neuronales Arti-
ciales, Adison-Wesley Iberoamericana, E.U.A., 45-180, 1995.
[10] L. Ljung, Lennart, System Identication: theory for the user, Prentice Hall, Englewood
Clis, NJ07632, 1987.
[11] David G. Luenverger, Introduction to linear and nonlinear programing, 1990.
[12] Jos Alvarez Ramirez, Amrica Morales y Rodolfo Suares, Robustness of a Class of Bias
Update Controllers for Blendidg Systems, Industrial Engineering Chemistry Research,
4786-4793, 2002.
[13] Marco Antonio Moreno Armendariz, Control adaptable del sistema no-lineal TORA
usando redes neuronales dinmicas, Centro de INVestigacin y de ESTudios AVanzados
del IPN, Mxico D.F., 1999.
[14] Boris T. Polyak, Introduction to Optimization, Optimizatio Software, New York.
[15] Jos de Jess Rubio Avila, Control aplicado al proceso de separacin de hidrocarburos
(aceite, gas, agua), ESIME Zacatenco, Mxico D.F., 2002.
[16] Aseema Singh, Modeling and Model Updating in the Real-Time Optimization of Gasoline
Blending, University of Toronto, 15-34, 1997.
[17] A. Sangh, J. F. Forbes, P. J. Vermeer, S. S. Woo, Model-based real-time optimization
of automotive gasoline blending operations, Journal of Process Control 10, 43-58, 2000.
[18] J. M. Smith y H. C. Van Ness, Introduction to chemical engineering thermodynamics,
Third Edition, McGraw-Hill Book Company, 213-279.
[19] Eronini Umez, Dinmica de sistemas y control, Thomson Learning, Mxico, 613-619,
2001.
[20] John Wiley y Sons, Optimization, Theory and Applications, SS. Rao, New York, 1-125,
1978.
BIBLIOGRAFA 173
[21] Wei Wu, Adaptive-like control methodologies for a CSTR system with dynamic actuator
constraints, Journal of Process Control 13, 525-537, 2003.
[22] The MathWorks, Excel Link for use with Matlab, User s Guide, Version 1.1.2, 1-3 a
1-4, 2-3 a 2-4, 1999.
[23] The MathWorks, Matlab, The Languaje of Technical Computing, Creating Gracal User
Interfaces, 2000.
[24] Wen Yu, Nonlinear system identication using discrete-time recurrent neural net-
works with stable learning algorithms, Information Sciences: An International Journal,
Vol.158, No.1, 131-147, 2004.
[25] Wen Yu, Amrica Morales, Gasoline blending system modeling via static and dynamic
neural networks, International Journal of Modeling and Simulation, accepted for publi-
cation
[26] Wen Yu, Passivity Analysis for Dynamic Multilayer Neuro Identier, IEEE Trans. Cir-
cuits and Systems, Part I, Vol.50, No.1, 173-178, 2003.
[27] Wen Yu y Amrica Morales, O-line optimization of crude oil blending with neural
networks and bias update scheme, International Journal of Computational Engineering
Science, 2004, submittted.
[28] Wen Yu and America Morales, Multiple Model Neuro Adaptive Control with Application
to Blending, IASTED International Conference on Intelligent Systems and Control (ISC
2003), Salzburg, Austria, 96-102, 2003
[29] Yale Zhang, Dayadeep Monder, J. Fraser Forbes, Results analysis for trust constrained
real-time optimization, Journal of Process Control 11, 329-341, 2001.
[30] Yale Zhang, Dayadeep Monder, J. Fraser Forbes, Real-time optimization under para-
metric uncertainty a probability constrained aproach, Journal of Process Control 12,
376-389,2002.

You might also like