Professional Documents
Culture Documents
FACULTAD DE INGENIERIA
ESCUELA PROFESIONAL DE INGENIERIA INFORMÁTICA Y DE
SISTEMAS
=====================================================
DOCENTE:
ING. LUIS RAMIREZ MILLA
CURSO:
SIMULACION DE SISTEMAS
ALUMNOS:
ALMENDRAS ALVARADO RONALD
CODIGO:
0200203053
CICLO:
VIII
CHIMBOTE – PERU
2017
FACULTAD DE INGENIERIA
ESCUELA DE INFORMÁTICA Y DE SISTEMAS
INTRODUCCIÓN
De manera tradicional se ha afirmado que existen dos formas de ciencia: una basada en
la inducción y otra fundada en deducciones o, lo que es equivalente, en criterios y
principios hipotético-deductivos. La primera ha sido conocida como ciencia empírica y
su problema fundamental es el de la inducción; es decir, el de establecer cuáles, cómo
y cuántas observaciones (o descripciones) particulares son suficientes (y/o necesarias)
para elaborar generalizaciones. Esta es una clase de ciencia que trabaja a partir de
observaciones, descripciones, acumulación de evidencias, construcción de datos, y
demás, a partir de los cuales puede elaborar procesos de generalización o
universalización. Este tipo de ciencia coincide con los fundamentos de toda la
racionalidad occidental, a partir de Platón y Aristóteles, según la cual sólo es posible
hacer ciencia de lo universal. Por su parte, el segundo tipo de ciencia consiste en la
postulación de principios primeros o axiomas, y se concentra en el estudio de las
consecuencias –igualmente, de los alcances– de dichos principios. Esta clase de ciencia
tiene como problema fundamental la demostración de determinados fenómenos,
valores, aspectos, dicho en general; y esto se fundamenta en el rigor con el que se han
postulado los axiomas y los teoremas subsiguientes. Por derivación, esta clase de ciencia
incorpora y trabaja con lemas y otros planos semejantes. Cultural o históricamente, esta
clase de ciencia se inicia con la lógica de Aristóteles y se sistematiza por primera vez en
la geometría de Euclides. Toda la ciencia medieval, llamada theologia, opera de esta
manera. En el marco de la ciencia contemporánea estas dos clases de ciencia se pueden
ilustrar profusamente. En el primer caso, por ejemplo, desde el derecho que afirma que
las evidencias se construyen; las ciencias forenses (antropología forense, odontología
forense y demás) que sostienen algo semejante; o el periodismo y la comunicación social
que trabajan a partir del reconocimiento de que la noticia no existe, sino que se
construye (vía la crónica, la reportería y otras). De otra parte, en el segundo caso, desde
las matemáticas y la lógica hasta las ciencias y las disciplinas que incorporan parámetros
y metodologías basadas en hipótesis. (Vale la pena recordar siempre aquella idea clásica
del propio I. Newton de acuerdo con la cual la buena ciencia y en las palabras de Newton:
hipothese non fingo). Pues bien, por caminos, con motivaciones y con finalidades
diferentes y múltiples, recientemente ha emergido una tercera clase de ciencia, que ya
no trabaja con base en la inducción y en la deducción, sino de una manera radicalmente
distinta. Esta tercera manera es el modelamiento y la simulación, y la forma más
acabada de esta ciencia son las ciencias de la complejidad.
FACULTAD DE INGENIERIA
ESCUELA DE INFORMÁTICA Y DE SISTEMAS
1. MODELAMIENTO Y SIMULACIÓN
2. PROBLEMAS P Y N-P
P = N-P
P ≠ N-P
N-P ≥ P
P ∈ N-P
Los problemas P y N-P se articulan como problemas N-P difíciles (Hard N-P problems) y
como problemas N-P completos (N-P complete problems) y, por consiguiente, hacen
referencia a la tercera y a la cuarta de las relaciones mencionadas en el esquema
anterior. Pues bien, el tema consiste exactamente en el hecho de que ninguna de estas
relaciones ha podido ser confirmada o negada hasta la fecha. Una parte de las mejores
mentes de filósofos, matemáticos, lógicos y expertos en sistemas computacionales
trabajan en la resolución de estas relaciones. La idea básica al respecto es que no deben
separarse P y N-P, como si hubiera que abordar y acaso satisfacerse, con justificaciones
metodológicas, de tiempo, de recursos, pragmáticas u otras, con los problemas fáciles
que son efectivamente resolubles, y luego, acaso, eventualmente, pudiéramos o
debiéramos avanzar hacia los problemas difíciles. En la vida, como en la ciencia, la
tragedia estriba en el hecho de que siempre abordamos primero los problemas fáciles y
delegamos, postergamos o relegamos los problemas difí- ciles. El drama consiste en el
hecho de que los problemas difíciles al cabo se revelan como los verdaderamente
significativos desde varios puntos de vista.
Como quiera que sea, el trabajo en complejidad consiste en identificar ambas clases de
problemas y avanzar lo más rápidamente posible de los problemas P hacia los problemas
N-P (este tema exige otro texto consistente en el estudio de los problemas de
complejidad computacional, el cual está siendo preparado por nosotros en este
momento y podrá ser publicado más adelante). Exactamente en este sentido y dirección,
el modelamiento y la simulación se revelan como la mejor herramienta y, si se prefiere,
como “el” método cuando se trata de problemas, sistemas, fenómenos y
comportamientos complejos. Sin ambages: la metodología en complejidad atraviesa
transversalmente por el trabajo con problemas de complejidad algorítmica y de
complejidad computacional.
FACULTAD DE INGENIERIA
ESCUELA DE INFORMÁTICA Y DE SISTEMAS
lineal en uno no-lineal, así como tampoco simplemente a encontrar –acaso en haber
convertido un sistema determinista en uno no-lineal− un comportamiento complejo;
esto es, impredecible, que exhibe las propiedades y características suficientemente
reconocidas de los sistemas complejos (auto organización, interacciones entre partes
elementales que dan como resultado un todo que es más que la sumatoria de las partes,
emergencias y otras). Antes bien, la complejidad es ante todo un tipo de ciencia de
posibilidades y es ciencia para tiempos de crisis y de fenómenos que están en crisis, así:
• En tanto que la crisis existe y/o es inminente.
• O bien porque la crisis no tiene (aún) lugar pero podría llegar a suceder.
• E incluso aunque la crisis sea probable o posible y jamás llegue a tener lugar.
Las consecuencias éticas, políticas, científicas y filosóficas de esta triple consideración
no escapan a una mirada sensible. De esta suerte, las ciencias de la complejidad avanzan
por un dúplice camino, por así decirlo. De una parte, análogamente al espíritu de la
ciencia en general, avanzan en la resolución de problemas, o mejor, de conjuntos de
problemas, de espacios de soluciones. Es en este contexto que los problemas de
optimización y, en general, la heurística y las metas heurísticas desempeñan un papel
fundamental en complejidad. De otro lado, al mismo tiempo, dado el carácter radical
del trabajo en complejidad, el trabajo de los complejólogos consiste en la formulación o
concepción de nuevos problemas, para la cual la combinación de intuiciones (= pompas
de intuición), los experimentos mentales (= fantasía, imaginación) y el recurso del
modelamiento y la simulación resultan invaluables, es decir, fundamentales,
estratégicos si se prefiere. En efecto, es una especificidad de las ciencias de la
complejidad que no únicamente de forma prioritaria resuelven problemas, sino, además
y fundamentalmente, exploran espacios, abren horizontes y anticipan procesos,
fenómenos y dinámicas. Es exactamente en este sentido que el uso del modelamiento y
la simulación se revela esencial, ya que justamente las ciencias de la complejidad tratan
antes que con realidades –en el sentido empírico de la palabra− con posibilidades. Las
ciencias de la complejidad son ciencias de posibilidades y la realidad es, en rigor, tan
solo un modo de la posibilidad (Maldonado, 2009). De este modo, el modelamiento y la
simulación no simplemente cumplen un papel representativo o representacional, sino
heurístico en el sentido al mismo tiempo más fuerte y preciso del término. En otras
palabras, la heurística, en general, y las meta heurísticas, en especial, exploran modelos,
espacios de soluciones, dimensiones y cruces entre ellas. En fin, son el estudio de
comportamientos caracterizados por inestabilidad, incertidumbre, adaptación, no-
linealidad.
FACULTAD DE INGENIERIA
ESCUELA DE INFORMÁTICA Y DE SISTEMAS
4. ¿QUÉ ES UN MODELO?
La primera caracterización de un modelo suele ser descriptiva, por ejemplo, existen
modelos físicos, matemáticos, computacionales, económicos, epidemiológicos, políticos
y administrativos. Cada investigador en estas áreas puede identificar racional o
intuitivamente el tema. Sin embargo, en términos conceptuales, es bastante más
afortunado recordar que un modelo –teórico o conceptual− es sencillamente una
interpretación del mundo o de una región del mundo. Este modelo puede implicar o
basarse en elementos matemáticos, conceptuales u otros, pero consiste en una
interpretación sólida, con frecuencia sometida a pruebas, verificaciones, falsaciones o
refutaciones, o bien, igualmente, en una hipótesis consistente. El tema fuerte en el
estudio de los modelos tiene tres frentes:
a. Estudiar cómo surgen los modelos;
b. Establecer cómo se defienden y se mantienen;
c. Comprender por qué se echan abajo, mueren y se eliminan unos modelos
por otros (Maldonado, 2010).
Sin embargo, la contribución del modelamiento y la simulación radica en la puesta a
prueba de modelos –reales o potenciales− gracias precisamente al desarrollo de
programas centrados en problemas, comportamientos y sistemas que responden a leyes
de potencia, auto organización, sincronización y a redes libres de escala, en
correspondencia precisamente con las ciencias de la complejidad. Así, mientras que la
ciencia clásica formula modelos que son, en últimas, esencialmente esquemas fijos,
representaciones rígidas de sistemas o fenómenos determinados, las ciencias de la
complejidad elaboran modelos dinámicos que son el resultado justamente de la
simulación y el modelamiento. Esta idea puede y debe ser ilustrada en los siguientes
términos: La historia de la humanidad es el tránsito que se inicia con los dibujos y las
pinturas, continúa luego con la fotografía y llega finalmente a la película y el video. De
esta forma, hemos hecho el tránsito de una concepción y representación estática del
universo, el mundo y la sociedad a una comprensión y explicación dinámica de los
mismos. Retrospectivamente, desde luego cabe incorporar fotografías y fotogramas,
dibujos, bocetos y pinturas del mundo, pero todo ello constituye instantáneas de una
visión dinámica. Tal es exactamente la especificidad de la simulación y el modelamiento
respecto a los modelos. Esta observación se extiende, en toda la extensión de la palabra,
a los campos sintácticos y semánticos con los que explicamos y comprendemos la
naturaleza en general. En cualquier caso, el modelamiento y la simulación trabajan,
esencialmente, en tres dominios:
• Modelamiento y simulación de comportamientos, fenómenos y sistemas
• Modelamiento y simulación de modelos
• Modelamiento y simulación de problemas
En el primer caso, se trata de estudiar, con la ayuda del computador, aquellos
fenómenos, sistemas y comportamientos que responden a las teorías, los conceptos,
enfoques, modelos y métodos constitutivos de las ciencias de la complejidad. En otras
FACULTAD DE INGENIERIA
ESCUELA DE INFORMÁTICA Y DE SISTEMAS
rama de las matemáticas a finales de los años treinta y se mantuvo vigente hasta finales
de los años ochenta. A ella se deben buena parte de los métodos clásicos de
optimización, entre los que se encuentran las técnicas de programación matemática
(continua, entera, mixta), los modelos de satisfacción de restricciones, la teoría de colas
y los inicios de la optimización combinatoria. La inteligencia artificial, por su parte,
retomó y amplió los problemas de optimización combinatoria, inició el trabajo con
problemas de optimización dinámica y multi-objetivo e inauguró el estudio de métodos
no analíticos (heurísticos) de optimización como las redes neuronales, la búsqueda tabú
o el temple simulado. Las heurísticas y las metaheurísticas basadas en soluciones únicas
comenzaron a tomar fuerza en la resolución de problemas N-P. El auge de los modelos
de la inteligencia artificial (clásica) se mantuvo hasta finales de los años noventa. La vida
artificial es el plano más reciente para la resolución de los problemas complejos de
optimización y se concreta en la construcción de metaheurísticas (y no simplemente de
heurísticas) y, más recientemente, en el trabajo con hiperheurísticas. Una
metaheurística es una metodología (o un marco algorítmico) de alto nivel que posibilita
el diseño de heurísticas subyacentes para resolver problemas complejos de
optimización, mientras que las hiperheurísticas apuntan a la elección automática de
métodos heurísticos o metaheurísticos que resuelvan, cada vez, uno de los posibles
puntos de decisión o de solución que caracterizan a los problemas complejos (Cotta,
Sevaux y Sörensen, 2008). Las hiperheurísticas utilizan información limitada del
problema dado y no requieren un conocimiento explícito de las heurísticas y
metaheurísticas disponibles para su resolución. A diferencia de los métodos analíticos y
exactos tradicionales, las heurísticas y metaheurísticas no garantizan, en la mayoría de
las ocasiones, soluciones óptimas o cercanas a un óptimo, supuesto el número
astronómico de soluciones posibles característico de los problemas de complejidad
creciente. Mejor aún: el objetivo principal de las heurísticas y metaheurísticas es
producir soluciones de calidad aceptable en un tiempo razonable. Por tanto, en el
ámbito de la optimización bio-inspirada, los temas que se revelan como centrales son la
optimización dinámica (problemas que cambian su estructura y/o los datos del
problema, mientras la metaheurística intenta resolverlos), la optimización multi-criterio,
la optimización multi-objetivo evolutiva y la optimización robusta, principalmente.
Finalmente, y con base en los sistemas, la computación y la optimización bio-inspiradas,
a partir del año 2006, ha emergido un nuevo y radicalmente distinto tipo de ingeniería
llamado (en español) ingeniería de sistemas complejos (ISC), cabe anotar que su nombre
en inglés es bastante más afortunado: complex engineered systems (CES). La diferencia
(semántica y, sin embargo, fundamental) es que el término en español haría pensar en
una nueva clase de ingeniería, al lado, por ejemplo, de la ingeniería química, la ingeniería
de alimentos, la ingeniería administrativa o de transportes, cuando no como una clase
más, distinta, al lado de la ingeniería civil, de sistemas, o militar, por ejemplo. En
contraste, en inglés el foco no es la ingeniería, sino el tema, el problema mismo de que
se trata, a saber: cómo “ingenierar” los sistemas complejos. En otras palabras, en inglés
el centro lo ocupa el problema o el sistema de estudio, no la mirada que ve dicho sistema
o problema (= la ingeniería).
FACULTAD DE INGENIERIA
ESCUELA DE INFORMÁTICA Y DE SISTEMAS
6. METODOLOGIA SISTEMICA
Objetivo del tema: después de una introducción al pensamiento sistémico y antes de la
presentación formalizada de la Teoría General de Sistemas (presentación formalizada
de conceptos y relaciones entre los mismos, demasiado ardua de entrada) se pretende
dar una primera visión de la metodología sistémica general, que normalmente conduce
a la construcción de modelos ad-hoc para cada tipo de problema, para experimentar
sobre ellos y, como consecuencia, tomar decisiones. Se proponen, por tanto, los
siguientes objetivos de aprendizaje:
1. distinguir entre modelos mentales y modelos para computadora, modelos cualitativos
y modelos cuantitativos, modelos discretos y modelos continuos, etc.;
2. adquirir un conjunto de métodos para la construcción de modelos;
3. aplicar estos métodos a la construcción de algunos modelos de sistemas complejos
“sencillos”.
síntesis pueden ser mantenidos en su justa medida, por el momento. Es posible conectar
la Epistemología con la Teoría de Sistemas (Buckley, 1972). La contribución más
importante para la Epistemología que se deriva de esta conexión es la referencia al
control. En otras palabras, la Naturaleza es algo que, no solamente puede ser observado,
sino que puede ser transformado y controlado por el ser humano. Y, el conocimiento es
algo más que contemplación y entendimiento. Siguiendo esta idea, es posible decir que
un conocimiento es una representación fiable de una parte de la realidad. Y, llegados a
este punto, consideramos conveniente recordar los siguientes conceptos:
- Un sistema es un conjunto de elementos interrelacionados. (Von Bertalanffy,
1972).
- Analizar un sistema es identificar sus elementos y las interrelaciones entre los
mismos.
- Describir un sistema es presentar un modelo del mismo, es decir, hacer sus
elementos e interrelaciones visibles y comprensibles.
- Para un observador O, un objeto M, es un modelo de otro objeto A, en la medida
en que O puede obtener de M respuestas a cuestiones que se refieren a A.
(Minsky, véase Melése, 1968).
Así pues, el problema del conocimiento puede ser reducido a uno o más problemas de
modelización de sistemas. Puede haber diferentes clases de modelos:
- modelos verbales, que son las descripciones tradicionales, donde los elementos
son conceptos y las relaciones son conexiones lógicas; modelos gráficos, como por
ejemplo diagramas, dibujos, etc.;
- modelos físicos, como son las maquetas (modelos estáticos), o los simuladores de
vuelo para entrenamiento de pilotos (modelos dinámicos);
- modelos de estructura, donde se representan solamente aspectos como la
posición relativa o la dependencia causal;
- modelos de comportamiento, donde se representan las reacciones del sistema a
las influencias externas, teniendo en cuenta aspectos tales como
retroalimentación, control, etc.
- etc.
Modelizar un sistema comienza por identificar sus elementos y las relaciones entre ellos.
La modelización se dice "multifacética" o "perspectivista", (Zeigler, 1984) porque el
modelo que se construya de un sistema real depende del objetivo del modelizador. El
grado de detalle al que se llegue en la descripción también depende de este objetivo.
Así pues, una primera aproximación puede ser un modelo de tipo "caja negra" o "input-
output", donde solo se especifican las entradas y las salidas (los datos y los resultados).
Cuando se va incrementando el detalle en la descripción se va transformando esa caja
negra en "caja transparente" (Bunge, 197D: y se va ajustando más el modelo a la
realidad. No obstante un perfecto ajuste entre modelo y realidad solo es posible en
ciertos casos particulares pero no en general. Las "teorías generales" tienen una
probabilidad igual a cero, y el progreso en la ciencia consiste en incrementar el detalle
y reducir los errores (Popper, 1912). En general un modelo es aceptable cuando las
diferencias entre él y el sistema real no son aparentes (incluyendo el error
experimental), o cuando siendo aparentes no molestan. Cuando el objetivo del
modelizador es el puro conocimiento el proceso de ajuste del modelo a la realidad
puede no tener fin. El sistema real puede ser construido y/o descubierto elemento a
elemento y relación a relación de modo paralelo al modelo si así lo determina el objetivo
del modelizador (o colectivo investigador, obviamente), es decir, la modelización puede
ser una ayuda al descubrimiento, a la creatividad, al diseño o a la construcción de
sistemas reales.
En general el modelizador debe empezar por concretar: su objetivo y la parcela de la
realidad que desea considerar. El "nivel de resolución" o grado de detalle depende de
ese objetivo y es difícil de determinar a priori. El proceso de modelización es
esencialmente cíclico, es decir, que vuelve atrás para corregir resultados de etapas
anteriores como consecuencia de los resultados de etapas posteriores que conllevan
contrastes con la realidad. Esto es lo que tradicionalmente se describe como un proceso
de "observación-inducción-deducción-experimentación" con ciertas restricciones
(véase Wartofsky, 1968). El avance de este movimiento cíclico es, primero en el sentido
de un mejor ajuste del modelo a la realidad y después en el sentido de una mayor
desagregación, hasta lograr la satisfacción del modelizador. El punto de partida es
probable que no sea la "observación" porque el modelizador generalmente cuenta con
suficiente conocimiento del sistema como para construir su primer modelo o "teoría".
Este primer paso no es normalmente un paso lógico en el estricto sentido de la palabra
"lógico" (véase Lakatos, 197l). La intuición, la imaginación o un "principio inductivo"
FACULTAD DE INGENIERIA
ESCUELA DE INFORMÁTICA Y DE SISTEMAS
sistemas dinámicos con variables numéricas y/o literales, con o sin incertidumbre,
dimensionadas o no, y con relaciones funcionales dadas mediante ecuaciones y/o reglas
lógicas y/o tablas, con o sin incertidumbre. Los programas construidos por SIGEM
dialogan con el usuario, dándole indicaciones sobre cómo proceder, planteándole
preguntas y menús y ejecutando sus órdenes. Con respecto a la eficiencia de SIGEM
diremos que con un análisis previo del problema que se materialice en un gráfico de
conexiones entre variables o en un diagrama de Forrester y en una lista desordenada de
relaciones funcionales, todo ello escrito a mano en una o varias hojas de papel, en un
tiempo entre varios minutos y varias horas, con un ordenador personal, el modelo se
convierte en programa de ordenador listo para ser usado como un amigable sistema
experto que puede ayudar al usuario a tomar decisiones sobre el problema del que
entiende. Como el programa producido esta en lenguaje fuente (Visual Basic), puede
considerarse como un prototipo y puede ser modificado si se considera conveniente.
SIGEM está enteramente fundado sobre la Teoría General de Sistemas, con una
formalización novedosa que se describe en otros dos artículos de Caselles (1992b, y
1993a).
EJEMPLO 1:
OBJETIVOS.
1. Una empresa que comercializa aparatos eléctricos de gran potencia desea
optimizar el número de aparatos a guardar en su almacén.
RESTRICCIONES.
1. La demanda varia de un día a otro.
2. Todas las unidades solicitadas pero no disponibles se dejan en espera y se
satisfacen cuando llega una nueva remesa.
TIPOS DE DATOS.
1. El aparato que comercializa le cuesta 5000 € por unidad.
2. El costo de mantener un aparato en el almacén es del 20% de su valor al año.
3. El costo de procesamiento de un pedido de cualquier número de unidades es de
200 € por pedido.
4. Se dispone de un registro de unidades vendidas día a día y de tiempos de espera
desde que el cliente solicitó hasta que se le sirvió.
De tal registro se han obtenido las siguientes tablas:
Demanda Frecuencia Relativa (%) Tiempo de Espera (días) Frecuencia Relativa (%)
0 40 1 25
1 30 2 50
2 20 3 25
3 10
TIPOS DE RESULTADOS.
1. Modelo de Dinámica de Sistemas hipotético, a validar en la medida de lo posible
con los datos disponibles (No será posible hacerlo por el método de predicción
del pasado, dado que no existen datos de pedidos efectuados, ni de existencias
día a día, ni de demanda en espera. Se validará por opiniones de expertos, es
decir, “si se creen el modelo deberán creerse sus resultados”).
2. Simulaciones de la evolución del número de aparatos vendidos, en almacén y
coste de mantenimiento del inventario a lo largo del tiempo durante 30 días.
3. Número óptimo de aparatos a pedir a la fábrica cada vez.
4. Existencias en almacén que debe haber en el momento idóneo para hacer un
pedido a fábrica.
FACULTAD DE INGENIERIA
ESCUELA DE INFORMÁTICA Y DE SISTEMAS
EJEMPLO 2:
OBJETIVOS.
1. Determinar los flujos óptimos de agua para transvase entre las cuencas
hidrográficas de un país.
RESTRICCIONES.
1. Ámbito nacional y zonas por cuadrículas del mapa.
2. Existen dessaladoras y se pueden eliminar y/o construir otras.
3. Se clasificará el agua por destinos: Población, Agricultura, Industria y Turismo .
TIPOS DE DATOS.
1. Precipitaciones.
2. Agua que producen y pueden producir las dessaladoras actuales.
3. Caudales de los ríos.
4. Necesidades de la población, agricultura, industria y turismo.
RESULTADOS.
1. Trasvases. Flujos óptimos de agua entre cuencas
En esta fase se suelen utilizar: (a) los métodos de creatividad en grupos y (b) el blanqueo
de cajas negras: (c) en algún caso de modelización inductiva o mixta, el Análisis
Multivariante. Este último método nos permite, dado un conjunto de variables
numéricas con una serie de valores para cada una de ellas, determinar cuáles están
relacionadas y cuáles no tienen nada que ver la una con la otra a efectos prácticos. Estas
últimas pueden ser eliminadas aunque en un principio pareciera que debían ser tomadas
en consideración.
A continuación detallamos estos enfoques.
FACULTAD DE INGENIERIA
ESCUELA DE INFORMÁTICA Y DE SISTEMAS
Es función del secretario: tomar nota de lo que se va diciendo y de las conclusiones a las
que el grupo va llegando. El método tiene dos fases:
1. Una vez el moderador ha expuesto al grupo lo que se pretende conseguir,
permite a los miembros del mismo aportar ideas. Ideas que deberán ser
expuestas con una o muy pocas palabras y anotadas seguidamente. No está
permitido ningún tipo de discusión o dialogo. Ninguna idea se considera
descabellada en esta fase.
2. Cuando el grupo llega al punto de no aportar ya nada nuevo, el moderador insta
a sus miembros a dar razones en pro y e n c ontra de cada una de las ideas de la
l i s t a y e l secretario toma nota de estas razones de forma ordenada. Agotadas
las posibilidades de la primera idea se pasa a la segunda y sucesivas hasta
finalizar. En la recapitulación subsiguiente es cuando se logra un mayor o menor
grado de consenso sobre el resultado de la sesión.
El primer cuestionario presenta el problema y solicita ideas en formato muy breve (1-3
palabras). El segundo presenta una fusión y depuración de las respuestas del primero y
solicita nuevas ideas. El tercero presenta la fusión y depuración de las ideas del segundo
y solicita pros y contras de cada una de ellas. El cuarto funde y depura las respuestas del
tercero y solicita nuevos pros y contras. Para detalles sobre cómo elaborarlos
cuestionarios, consideraciones psicológicas, etc. véase la bibliografía especializada (por
ejemplo, Listone y Turoff, 1975). Las características más importantes del método son las
siguientes:
EJEMPLO:
Para el problema de las dessaladoras, a través de un brainstorming, se pidió al grupo en
la primera fase los “factores implicados en el problema”. En la segunda fase se trató de
depurar la lista obtenida y obtener de ella una lista de variables con su unidad de medida
(explícita o implícita). Conseguimos la siguiente lista:
Necesidades de la población (litros/habitante y día)
Población por zonas (matriz)
Precipitaciones por zonas (matriz)
Mermas (% de pérdidas por kilómetro) (zonas, matriz)
Superficie agraria (zonas, matriz)
Necesidades agua agraria (m3/habitante y año)
Política: votos (zonas, matriz)
Flujos entre cuencas o entre depósitos:
o Flujo que circula
o Casilla de salida
o Casilla de llegada
o Capacidad de la conducción.
Cuencas hidrográficas (matriz, número de cuenca en casillas)
Capacidad dessaladoras (matriz, capacidad en casilla)
Ubicación de los depósitos (matriz, capacidad en casilla)
Caudales ecológicos por cuencas (9 cuencas)
Rentabilidades de agricultura, industria y turismo (zonas, matriz)
Necesidades industria
Capacidad embalses
Capacidad conducciones
Acuíferos
Superficie de bosque y montes (zonas, matriz)
FACULTAD DE INGENIERIA
ESCUELA DE INFORMÁTICA Y DE SISTEMAS
EJEMPLO:
Para el problema de la globalización, que considera el mundo como una caja negra sin
relaciones con el entorno (tendrían que ser interplanetarias), tendíamos como primer
nivel de desagregación:
Índices de globalización.
Y, como segundo nivel de desagregación, cada uno de estos bloques daría lugar a un
nuevo gráfico. Por ejemplo el bloque demográfico se podría desagregar de la siguiente
manera:
FACULTAD DE INGENIERIA
ESCUELA DE INFORMÁTICA Y DE SISTEMAS
Nacimiento y Nacimiento y
Crecimiento Crecimiento
Hombres Mujeres
Y así sucesivamente.
llamamos variables de flujo (las tasas,"rates" de Forrester). Una vez que las
variables de estado han sido identificadas, y transportadas al campo del gráfico
encerradas en un recuadro, es fácil identificar en la lista las variables de flujo
relacionadas con cada una de ellas y transportarlas al grafo colocándolas en su
proximidad encerradas en un recuadro unido a un aspa, que es el icono
tradicional para este tipo de variables.
- El resto de las variables de la lista. Estas variables se transportan al grafo
encerradas en una elipse y serán variables auxiliares o variables de entrada. Las
variables de entrada, tanto si son constantes como variables exógenas o
variables de control conviene distinguirlas con una doble línea en su elipseo
símbolo de flujo (puede haber flujos que sean variables de entrada, es decir,
datos del problema).
- En ocasiones interesa considerar un nuevo tipo de variables llamadas “retrasos”
de las que trataremos más adelante. La descripción del problema, el sentido
común, u otros métodos de los que hablaremos más adelante, nos permitirán
colocar flechas entre los símbolos, que expresen: (a) movimiento de algo
comparable con un fluido (la población en un modelo demográfico, los
materiales en un modelo de inventario, etc.) y (b) conexiones de pura influencia
o causalidad, es decir, de información en general. Se suelen utilizar flechas
continuas en el caso (a) y flechas discontinuas en el caso (b). No obstante, en
ocasiones puede ser interesante utilizar flechas de más tipos (continuas gruesas
para equipos, continuas dobles para mano de obra, etc.).
Ejemplos:
FACULTAD DE INGENIERIA
ESCUELA DE INFORMÁTICA Y DE SISTEMAS
En relación con los métodos para detectar las conexiones entre elementos o variables
diremos que cuando se construyen modelos de tipo mental o modelos para
computadora de tipo deductivo, dependiendo de la complejidad del modelo y de los
medios disponibles, se puede utilizar el sentido común, la consulta a expertos, el
Brainstorminsg, el Delphi o similares. Cuando se construyen modelos para computadora
de tipo inductivo (a partir de datos reales) o mixto, con variables numéricas se pueden
utilizar m é todos llamados de "análisis causal" (*) que pueden encontrarse por ejemplo
en Bollen (1989).
FACULTAD DE INGENIERIA
ESCUELA DE INFORMÁTICA Y DE SISTEMAS
Tabla 1 Diagrama del Sistema ultraestable de Ashby (para sistemas con objetivos) (Aplicado al caso de una empresa)
X1 X2 ... Xn Y
3 -1.1 0.08 24.1
5 -0.4 0.10 26.4
8 0 0.16 29.3
11 2.7 0.21 29.8
15 3.1 0.29 33.1
Ejemplo:
en una zona con hormigueros, las hormigas pueden colonizar o
abandonar la zona. Hay atractivos de la zona que pueden tardar en
percibirse. Sobre el atractivo puede influir la lluvia, nuevas fuentes de
alimento, etc. Estúdiese el diagrama siguiente:
FACULTAD DE INGENIERIA
ESCUELA DE INFORMÁTICA Y DE SISTEMAS
h) Interpolación: cuando una función de varias variables dada por una tabla
de valores tiene que pasar por todos los puntos de la tabla, es decir, no
hay ruido ninguno en las medidas, no vale el juste, es necesaria la
interpolación. La interpolación más frecuente es la interpolación
polinómica. En ella, la función desconocida y = f(x1, x2, ... xn) es sustituida
por un polinomio de grado n-1. El polinomio de interpolación,
generalmente, no puede usarse para extrapolar, es decir, para valores de
las variables independientes que estén fuera del rango de valores usado
en la tabla original dado que fuera de rango los polinomios tienen formas
imprevisibles.
FACULTAD DE INGENIERIA
ESCUELA DE INFORMÁTICA Y DE SISTEMAS
Ejemplo:
FACULTAD DE INGENIERIA
ESCUELA DE INFORMÁTICA Y DE SISTEMAS
CONCLUSIONES
La emergencia de un nuevo tipo de ciencia, fundada ya no exclusivamente en la
inducción o en la deducción, implica con total seguridad no simplemente el surgimiento
de nuevos paradigmas, nuevos lenguajes, formas nuevas de organización del
conocimiento y de organización, en general, de la sociedad alrededor del conocimiento.
También implica sobre todo y de manera radical un nuevo tipo de racionalidad. Gracias
al descubrimiento de los sistemas dinámicos, esto es, de los sistemas, fenómenos y
comportamientos de complejidad creciente, el mundo en general, la naturaleza y
nosotros mismos jamás volveremos a ser los mismos. Pues bien, en todo este proceso,
el computador desempeña un papel protagónico. Numerosas han sido (y
presumiblemente lo serán aún) las discusiones entre matemáticos y estudiosos de
diversas ciencias acerca del trabajo puro o aplicado, según si se emplea o no y en qué
forma el computador. Pero, asimismo, y de manera aún más conspicua, los temas de
base que emergen irremisiblemente tienen que ver, en general, con los nuevos
problemas de la computación. ¿Qué es computar? Básicamente estriba en lo que
podemos pensar, lo que podemos saber o conocer, lo que podemos decir y los
problemas que podemos resolver. Lo verdaderamente maravilloso de los nuevos
paradigmas computacionales (Cooper, Löwe y Sorbi, 2008) consiste exactamente en
esto: nunca como ahora habían sido tan magníficas nuestras oportunidades de
desarrollo (humano, espiritual, cognitivo, etc.) y, al mismo tiempo, nunca habían sido
tan grandes los desafíos a los que nos enfrentamos. Con seguridad el éxito de superación
de estos desafíos radica en la comprensión acerca de la complejidad del mundo y de la
naturaleza. Con ella, entonces, el tema maravilloso es el del modelamiento y la
simulación de los procesos, las dinámicas y los fenómenos que implican por igual a la
vida: a la vida conocida tanto como a la vida por conocer, a la vida tal y como la
conocemos, tanto como a la vida tal-y-como-podría-ser (life-as-it-could-be).
Trabajamos, necesaria e inevitablemente, con la dimensión de lo posible.
FACULTAD DE INGENIERIA
ESCUELA DE INFORMÁTICA Y DE SISTEMAS
GLOSARIO
REFERENCIAS BIBLIOGRÁFICAS
ANDERSON, P. W., ARROW, K. J. y PINES, D. (eds.), The Economy as an Evolving
Complex System, Santa Fe Institute Studies in the Sciences of Complexity, Vol. V,
Westview Press, 1988.
ARORA, S. y BARAK B., Computational Complexity. A Modern Approach, Cambridge,
Cambridge University Press, 2009.
ARTHUR, W. B., DURLAUF, S. N. y LANE, D. A. (eds.), The Economy as an Evolving
Complex System II, Santa Fe Institute Studies in the Sciences of Complexity, Vol. XXVII,
Westview Press, 1997.
AXELROD, R., The Complexity of Cooperation. Agent-Based Models of Competition and
Collaboration, Princeton, NJ, Princeton University Press, 1997.
BARROW, J. D., Impossibility. The Limits of Science and the Science of Limits. New York:
Oxford University Press, 1998.
BLUME, L. E. y DURLAUF, S. N., The Economy as an Evolving Complex System III. Current
Perspectives and Future Directions, Santa Fe Institute Studies in the Sciences of
Complexity, Oxford, Oxford University Press, 2006.
CHAITIN, G., Metamaths. The Quest for Omega, London, Atlantic Books, 2007.
COOPER, S. B., LÖWE, B. y SORBI, A. (eds.), New Computational Paradigms. Changing
Conceptions of What Is Computable, New York, Springer-Verlag, 2008.
COTTA, C., SEVAUX, M. y SÖRENSEN, K. (eds.), Adaptive and Multilevel Metaheuristics,
Berlin, Springer-Verlag, 2008.
COWAN, G., PINES, D. y MELTZER, D., Complexity: Metaphors, Models, and Reality,
Santa Fe Institute Studies in the Sciences of Complexity, Westview Press, 1999.
DE CASTRO, L. N., Fundamentals of Natural Computing: An Overview, Physics of Life (4),
2007.
DE CASTRO, L. N. y VON ZUBEN, F., Recent Developments in Biologically Inspired
Computing, Hershey, PA, Idea Group Publishing, 2005.
ENGELBRECHT, A., Computational Intelligence: an Introduction, 2 ed., Chichester, John
Wiley & Sons, 2007.
FLOREANO, D. y MATTIUSSI, C., Bio-Inspired Artificial Intelligence: Theories, Methods,
and Technologies, Cambridge, MA, MIT Press, 2008.
GINTIS, H., Game Theory Evolving. A Problem-Centered Introduction to Modeling
Strategic Interaction, Princeton, NJ, Princeton University Press, 2000.
GOLDREICH, O., Computational Complexity. A Conceptual Approach, Cambridge,
Cambridge University Press, 2008.
FACULTAD DE INGENIERIA
ESCUELA DE INFORMÁTICA Y DE SISTEMAS