You are on page 1of 460

LIBRO DE ACTAS

V SIMPOSIO INTERNACIONAL de
SISTEMAS DE INFORMACIÓN E INGENIERÍA DE SOFTWARE EN LA SOCIEDAD DEL CONOCIMIENTO

30 de septiembre y 1 de octubre de 2010,


Santa Fe de Bogotá, Colombia

Editor: Luis Joyanes Aguilar


Asistentes del editor: Jayguer Vásquez Torres
John Delgado Barroso
Pablo García Gundín
Reservados los derechos para todos los países de lengua española. De conformidad
con lo dispuesto en el artículo 270 y siguientes del código penal vigente, podrán ser
castigados con penas de multa y privaci6n de libertad quienes reprodujeren o
plagiaren, en todo o en parte, una obra literaria, artística o científica fijada en
cualquier tipo de soporte sin la preceptiva autorización. Ninguna parte de esta
publicación, incluido el diseño de la cubierta, puede ser reproducida, almacenada o
trasmitida de ninguna forma, ni por ningún medio, sea éste electrónico, químico,
mecánico, e1ectroóptico, grabación, fotocopia o cualquier otro, sin la previa
autorización escrita por parte de la editorial. Diríjase a CEDRO (Centro Español de
Derechos Reprográficos), www.cedro.org, si necesita fotocopiar o escanear algún
fragmento de esta obra.

COPYRIGHT © 2010 LibroTex.


COPYRIGHT © 2010 Los Autores.
info@garceta.es
Proceedings V SIMPOSIO INTERNACIONAL de SISTEMAS DE
INFORMACIÓN E INGENIERÍA DE SOFTWARE EN LA SOCIEDAD DEL
CONOCIMIENTO.
Derechos reservados ©2010 respecto a la primera edición en español, por LOS
AUTORES
1ª Edición, 1ª Impresión
ISBN:
Depósito legal: Maquetación:
Los Editores
Coordinación del proyecto: @LIBROTEX
Editor: Luis Joyanes Aguilar.
Portada: Jayguer Vásquez.
Asistentes editoriales:
Jayguer Vásquez
John Delgado
Pablo Garcia.
Diseño, maquetación e impresión: Grupo GSIC.
IMPRESO EN ESPAÑA -PRINTED IN SPAIN
Nota sobre enlaces a páginas web ajenas: Este libro puede incluir referencias a sitios
web gestionados por terceros y ajenos a LibroTex, que se incluyen sólo con finalidad
informativa.
LibroTex, no asume ningún tipo de responsabilidad por los daños y perjuicios
derivados del uso de los datos personales que pueda hacer un tercero encargado del
mantenimiento de las páginas web ajenas a LibroTex., y del funcionamiento,
accesibilidad y mantenimiento de los sitios web no gestionados por LibroTex.,
directamente. Las referencias se proporcionan en el estado en que se encuentran

ii
Contenido

Parte I:
Tecnologías Informáticas y Gestión del Conocimiento en la Educación:
Congruencia Epistémica y Pertinencia Social. ........................................... 15
Currículo coherence model knowledge based a case for industrial
engineering. ................................................................................................. 37
La inteligencia emocional y la neurociencia elementos fundamentales de la
construcción integral del ciudadano. .......................................................... 49
Marco Normativo de Investigación Científica, Tics Desarrollo
Tecnológico y Procesos de Innovación, I+D+I en Colombia ................ 61
Prototipo metamodelo de integración de modelos de procesos de negocio.
..................................................................................................................... 75
Algoritmos Matemáticos para fusión de imágenes satelitales. ................... 93
Sistema Integrado de Información para el Régimen Subsidiado de Salud
en Colombia .............................................................................................. 105
Producto software para simular líneas de espera ...................................... 117
Diseño y Desarrollo de una Aplicación de Generación Automática de
Componentes Bajo la Especificación SCA............................................... 123
Metaproceso para el desarrollo de Software ............................................. 135
Análisis, Diseño y Desarrollo de un sistema de identificación dactilar
basado en Redes Neuronales Artificiales ................................................. 149
Educación Virtual: Entornos Colaborativos Interinstitucionales ............. 163
Complejidad de información en fuentes de datos RSS, un nuevo enfoque:
RSS2SOM ................................................................................................. 173
Tecnologías de información y terminología asociadas al área de desastres.
................................................................................................................... 181
Servicios de Geolocalización, el enfoque de las Redes Sociales ............. 191
Modelo de Gestión del Conocimiento en Docencia Universitaria: Caso
Universidad Distrital ................................................................................. 201
Evolución de los códigos de barras a redes wireless NGN ― RFID‖,
computación ágil, inteligente y móvil....................................................... 213
Cloud Computing en redes sociales de telefonía móvil ¿En dónde está el
límite entre las relaciones sociales tradicionales y virtuales? .................. 219
Ontología de la composición geométrica 3D para la web con el estándar
X3D. .......................................................................................................... 231
Implementación de Plataformas Virtuales basadas en Cloud Computing
................................................................................................................... 247
Cálculo del Esfuerzo en el Desarrollo de Proyectos Software a Partir de
Puntos de Función ..................................................................................... 257
Descripción del software para la configuración de un tranceiver. ........... 271
Conocimiento para toso: La inclusión social hacia la competitividad
educativa mediante un modelo de gobernabilidad basado en conocimientos
para la educación superior en Colombia por ciclos propedeuticos .......... 281
Modelo de Inteligencia de Negocio utilizando Datos Textuales No
Estructurados ............................................................................................. 303

PARTE II

Modelo de interoperabilidad para e_learning sobre malla computacional


utilizando SAKAI...................................................................................... 313
Diseño Asistido por Computador (CAD): Enseñanza en Ingeniería
Industrial ................................................................................................... 323
Factores a tener en cuenta antes de migrar a cloud computing. ............... 329
Interacción digital: El origen del camino ................................................. 341
BPM y la calidad del software. ................................................................. 349
Modelo de evaluación de software y desarrollo de herramienta CASE para
ingeniería de requisitos. ............................................................................ 365
Un modelo preliminar de gobierno de tecnologías de información para
universidades colombianas ....................................................................... 375
Modelo para la Industrialización de Software en el Triángulo del Café:Una
Apuesta Productiva de Región .................................................................. 383
Comunidades de práctica y Web 2.0, estratégias para la democratización
del conocimiento en la empresa. ............................................................... 393
Inclusión Digital: Más allá del acceso y el uso de TIC ............................ 401
Modelo de curso virtual WIMAX por medio de Web 2.0 para ingeniería.
................................................................................................................... 407
El proceso de testing y la implementación de la herramienta MANTIS
BUGTRACKER en el proceso ................................................................. 417
Aproximación de un modelo unificado para la integración de herramientas
de Gestión de Configuración de Software ................................................ 425
Modelo de aprendizaje organizacional para la gestión del conocimiento:
MAO-G ..................................................................................................... 433
Ecosistema de Conocimiento Regional para la Ciudad-Región de
Manizales y Caldas, Colombia ................................................................. 445
Tecnologias Web 2.0 integradas al modelo organizacional de creación de
conocimiento. ............................................................................................ 449

v
PRESIDENTE DEL COMITÉ DEL PROGRAMA:

Dr. Luis Joyanes Aguilar (Universidad Pontificia de Salamanca, España)

DIRECTOR GENERAL:

Dr. Victor-Hugo Medina García (Universidad Distrital Francisco José de Caldas, Bogotá, Colombia)

COMITÉ PERMANENTE DE PROGRAMA

Dr. Luis Joyanes Aguilar (Presidente). UPSA (España)


Dr. Victor Hugo Medina-García. U Distrital (Colombia)
Dr. Mateo Valero Cortés, BSC (España)
Dr. Manuel González Rodriguez. ULPGC (España)
Dr. Juan Manuel Cueva Lovelle. UOviedo (España)
Dr. Juan Manuel Lombardo Enriquez. Fundación Fidesol (España)
Dr. Vidal Alonso Secades. UPSA (España)
Dr. Alfonso Lopez Rivero. UPSA (España)
Dr. Nelson Pérez. UDistrital (Colombia)
Dr. Javier Parra Fuente. UPSA (España)
Dr. Oscar Sanjuan Martínez. UOviedo (España)
Dr. José Antonio Moreiro. UC3M (España)

COMITÉ DE ORGANIZACIÓN LOCAL (COLOMBIA - AMÉRICA LATINA Y CARIBE)

Dr. Víctor Hugo Medina García (Director). UDistrital (Colombia)


Dr. Nelson Pérez Castillo. UDistrital (Colombia)
Dr. Germán Méndez Giraldo. UDistrital (Colombia)
Dr. Jairo Torres Acosta. UDistrital (Colombia)
DEA. Ing. Giovanni Tarazona. UDistrital (Colombia)
DEA. Sandro Javier Bolaños Castro. UDistrital (Colombia)
DEA. Msc. Carlos Montenegro. UDistrital (Colombia)
Msc. Alfonso Pérez Gama. USan José (Colombia)

COMITÉ DE ORGANIZACIÓN LOCAL (ESPAÑA - EUROPA)

Dr. Luis Joyanes Aguilar (Presidente). UPSA (España)


Dr. Vidal Alonso Secades (Vicepresidente). UPSA (España)
Dr. Alfonso López Rivero. UPSA (España)
Dr. Javier Parra Fuente. UPSA (España)
Dr. Oscar Sanjuan Martínez. UOviedo (España)
Dr. Ruben González. UPSA (España)
Ing. DEA. Sergio Ríos Aguilar, UPSA (España)
Ing. DEA Daniel Zapico, UPSA (España)
Ing. DEA. Jayguer Vázquez Torres, (WebMaster), UPSA (España)
Ing. DEA. Antonio Román, UPSA (España)
Ing. DEA. Sandra Yanet, UPSA (España)
Ing. DEA. Pablo García Gundín, UPSA (España)
Ing. DEA. John Delgado, UPSA (España)
Prólogo
Cuando en 2001 iniciamos la andadura de SISOFT la Facultad de
Informática de la Universidad Pontificia de Salamancas (España) y la
Universidad Distrital Francisco José de Caldas de Bogotá (Colombia)
con el impulso de profesores e investigadores de ambas universidades,
a las que se unieron también otros investigadores de las universidades
de Oviedo y Las Palmas de Gran Canaria en España, posiblemente no
vislumbramos la gran revolución social y tecnológica que se estaba
fraguando con el comienzo de la nueva década del siglo XXI. Entonces
teníamos una informática o computación muy tradicional que salía del,
por suerte, “ fallido efecto 2000” y que avanzaba hacia una nueva
generación más interactiva, abierta y colaborativa.
En aquel entonces el término Web 2.0 no había salido a la luz
pública. Tim O´Reilly lanzó el término en 2004 y tal vez no llegó a
prever el enorme impacto que tendrían sus tecnologías y aplicaciones.
La supercomputación comenzaba a formar parte de nuestras vidas y
escasos centros de investigación se atrevían a sumergirse en, por aquel
entonces, el efecto disruptivo que estaba suponiendo en la ciencia y en
la investigación, en áreas tales como el genoma humano, la ciencia
geoespacial, la inteligencia artificial y los agentes inteligentes,… La
ingeniería de software se consolidaba como una ingeniería al estilo de
las tradicionales, industriales, caminos, obras públicas, electrónica, …
y los sistemas de información, con sus aplicaciones más novedosas,
CRM, ERP, SCM, … comenzaban a ser de uso masivo en las
organizaciones y empresas tanto grandes como medianas y pequeñas.
A la evolución de Sisoft se fueron uniendo sucesivamente otras
ciudades como sede, Lima en Perú, Santo Domingo en República
Dominicana y el último celebrado en Cartagena de Indias en
Colombia, todas ellas ciudades históricas y con una gran tradición

9
universitaria e investigadora. En concreto, la Pontificia Universidad
Católica de Perú, el Instituto Tecnológico de Las Américas (ITLA) y la
histórica Universidad de Cartagena en el Caribe colombiano. Al
camino de Sisoft se han ido uniendo otras instituciones europeas como
el prestigioso Barcelona Supercomputing Center (BSC) o Centro de
Supercomputación de Barcelona y en esta edición el Instituto de
investigación en Documentación “Agustin Millares” de la joven pero
ya muy prestigiosa a nivel internacional Universidad Carlos III de
Madrid, la Fundación de I+D de Software Libre de España, un
referente en la investigación y desarrollo de código abierto o software
libre y el Centro Iberoamericano de Ciencia, Tecnología y Sociedad
que con sede en la Facultad de Filosofía de la Universidad
Complutense de Madrid es un foco difusor de la cultura en América
Latina, Caribe, Brasil, España y Portugal. Así mismo es de destacar la
labor en el campo investigador de los Grupos de Investigación GISSIC
de la Universidad Pontificia de Salamanca y GICOGE de la
Universidad Distrital de Bogotá.
La edición de este año ha regresado a su sede inicial en Bogotá y
se ha configurado en dos grandes ejes: la emergente tecnología y
plataforma Computación en Nube (Cloud Computing) base de la nueva
informática que se está configurando para la actual década, y la
Supercomputación, ya una realidad palpable en la industria, la ciencia
y la sociedad. Dentro del Simposio Sisoft se inaugurará el Centro de
Computación de Alto Desempeño de la Universidad Distrital de
Bogotá. En el Simposio se analizarán y estudiarán los avances y
desarrollos en las tecnologías punteras hoy día: Web 2.0, Web
Semántica, Bioingeniería, Sistemas geoespaciales, Inteligencia de
Negocios, Gestión del Conocimiento 2.0, Social Media y otras áreas de
investigación en las que se conforma la nueva computación o
informática.
Sisoft se configura desde esta edición como un Centro de Ideas y
de Pensamiento en torno a la Sociedad del Conocimiento tanto desde el
punto de vista tecnológico como en los aspectos sociales, económicos y
de negocios que impactaran en la vida futura y en la forma de trabajar,
investigar y vivir. Nos preparamos para cumplir el 10º aniversario el
próximo año con un edición especial que pretende tener impacto en
todos los países de habla española y portuguesa, pero que pretende
extenderse a otros países de influencia latina como Italia, Portugal y

10
Grecia, y en la medida que nos sea posible actuar de puente con la
cultura tecnológica del resto de Europa y Gran Bretaña, además de
países iberoamericanos.
Confiamos que las aportaciones y conclusiones de esta edición de
Sisoft sean de gran interés para la comunidad universitaria y científica,
y nos sirva de puente para el VI Sisoft al que os convocamos desde este
momento y que celebraremos en el año 2011 coincidiendo con la
celebración de nuestro X Aniversario.
Gracias a los comités de programa, de organización y todos
cuantos han contribuido de una u otra forma al éxito del evento, y de
modo especial a conferenciantes y ponentes que con sus conferencias,
mesas redonda (paneles) y comunicaciones han hecho posible que este
libro de actas sea una realidad como reflejo del desarrollo del
Simposio en la ciudad de Bogotá.

En Bogotá (Colombia) y Madrid (España), septiembre de 2010


Luis Joyanes Aguilar
Presidente de Sisoft y Editor del Libro de Actas

11
PARTE I

Web 2.0
Sistema de Información y Comunicaciones.
Innovación tecnológica.
Inteligencia de negocios
Gestión del Conocimiento 2.0
Cloud Computing.
Sistema Geoposicionales.

13
14
Tecnologías Informáticas y Gestión del Conocimiento
en la Educación: Congruencia Epistémica y Pertinencia
Social.

Edgar Jacinto Rincón Rojas , Víctor Martín


1 2

1 Universidad Distrital Francisco José de Caldas,


2 Universidad Pontificia de Salamanca Campus de Madrid,
edgar.rincon.rojas@gmail.com;erincon@udistrital.edu.covictor.martin@upsam.net.

Resumen. El artículo que se presenta describe algunos elementos


conceptuales tenidos en cuenta dentro del proyecto de tesis doctoral que
inicialmente se denominó ―Modelo de gestión del conocimiento (G.C)
para el diseño e implementación de un ambiente virtual de aprendizaje
(A.V.A) en el ámbito de la educación superior‖; el cual posteriormente
y gracias a las pautas criticas aquí consignadas, se revaluó
categóricamente desde perspectivas epistemológicas, reflexivas,
conceptuales e incluso semánticas.La lectura que se desarrolla sobre la
Gestión del Conocimiento aborda elementos paradigmáticos que
permiten una clara delimitación de este discurso administrativo y
gerencial, precisamente al interior de su cuna: la organización. Esto
indicando que no necesariamente por ser de gran eficacia en este
contexto, podría ser aplicado acríticamente en la escena educativa.El
abordaje de los (A.V.A) se presenta a partir de los elementos
tecnológicos que sustentan su desarrollo, el ―software educativo‖ y la
red virtual internet, ofreciendo al lector una visión crítica frente la
articulación de estos elementos de base, con el contexto
pedagógico.Finalmente se elabora la abstracción final, la cual dirige a
una necesidad argumentada de replantear los términos en los cuales se
pretendía hablar de Gestión del Conocimiento y Ambientes Virtuales en
el ámbito de la Educación y el aprendizaje.

Palabras Clave: Gestión del Conocimiento, Tecnologías de la


Información y las Comunicaciones, Ambientes Virtuales de
Aprendizaje, Academia, Educación, Crítica y Transformación Social.

Abstract. The present article describes some conceptual elements taken


into account in the doctoral thesis which was initially named ―Model of
knowledge management (KM) for the design and implementation of a
virtual learning environment (VLE) in the field of higher education‖;
which later and thanks to the critical patterns reported here, was

15
revalued categorically epistemological perspectives, reflective,
conceptual and even semantics. Reading takes place on the Knowledge
Management deals with paradigmatic elements that allow a clear
delimitation of this administrative and managerial discourse, just inside
the crib: organization. This indicates that not necessarily be highly
effective in this context could be applied uncritically in the educational
scene.

The approach of (VLE) is presented from the technological elements


that support its development, ―educational software‖ and virtual
network internet, offering the reader a critical look at the articulation of
these basic elements, with the pedagogical context.Finally we made the
final abstraction, which leads to a reasoned need to rethink the terms in
which it was intended to talk about Knowledge Management and
Virtual Environments in the field of education and learning.

Keywords: Knowledge Management, Information Technology and


Communications, Virtual Learning Environments, Academy, Education,
Criticism and Social Transformation.Resumen.

1 Introducción

En el reciente devenir de las TICs en la educación, resulta bastante cuestionable el


bajo nivel de crítica que se suscita frente a distintos tópicos que se presentan como
incuestionables. Por ejemplo: El uso de TICs hace más participativo el proceso
educativo, las TICs democratizan la educación, la consulta en INTERNET incentiva
procesos de investigación, la formación en competencias operativas-tecnológicas hace
de la educación un ejercicio realmente congruente con las necesidades sociales. Más
que realidades objetivamente comprobadas, son ―pensamientos con el deseo‖ pero sin
preocupación por su validez o cómo realmente podrían lograrse.
Es bien sabido que en su ámbito de mayor afluencia, el organizacional, el uso de las
nuevas tecnologías informáticas y la aplicación de los discursos que de estas
subyacen, han redundado en considerables incrementos productivos y elevadas
ganancias económicas. Sin embargo resultaría osado y sobretodo pretencioso, utilizar
los mismos términos y prever los mismos resultados para procesos tan distintos a las
nuevas inclinaciones gerenciales, como lo son la interacción académica y la acción
educativa.
No obstante, tendencias actuales como la ―informatización de la Educación‖ y la
―gestión del conocimiento en el ámbito educativo‖ así lo han expuesto. Proponiendo
una academia, llámese escuela, colegio o universidad, entendida como un centro de
acopio en donde confluye y se capacita a la futura mano de obra especializada. El
promisorio ―capital humano‖ se pretende sea ―iniciado‖ mediante la educación, para
su inserción pronta, eficiente y eficaz al mecano productivo, el cual en la actualidad
gira en torno a la informatización de las organizaciones, por ende requiere

16
especialistas informáticos. Esto es: el ser humano, el estudiante, entendido como otro
recurso, otro activo más de la organización.
De esta manera se orienta en los albores del siglo XXI, una lectura instrumental de
la esfera educativa, en donde el fin último de esta se lapidaría en lograr una
intersección ideológica, estructural y funcional; con la dimensión productiva,
comercial y mercantil y la supuesta revolución informática que hoy determina su
esencia. Es en este punto en donde resulta osada y pretenciosa la visión tecnocrática
de la educación.
Con lo hasta ahora expuesto surge el objetivo del presente artículo. Cuando se
equiparan y se pretenden transponer acríticamente, los condicionados y
parcializadamente definidos métodos y estrategias de producción de capital; sobre las
indeterminadas e ilimitadas visiones propias del desarrollo del conocimiento
académico, subyace una grave crisis. Crisis de deshumanización de la educación.
Crisis de una academia a riesgo de sucumbir ante el adiestramiento y la capacitación
empresarial.
No se pretende con lo anterior elaborar un análisis destructivo acerca del
protagonismo global de la presunta revolución informática, representada mediante la
lógica organizacional de las TICs y su incursión en la educación, entre otros
escenarios. Se busca más bien, someter a cuestión profunda los supuestos que guían
discursos aún en estado de gestación como el de la ―gestión del conocimiento en la
educación‖ y las ―tecnologías informáticas implementadas en la educación‖ mediante
aplicaciones como los (A.V.A) .
Se pretende mediante este artículo analizar detenidamente algunos de los
argumentos, hasta ahora inescrutables, que han institucionalizado, con el beneplácito
de la comunidad académica, la articulación de las TICs, y de prácticas empresariales,
como la (G.C), en el ámbito educativo. Esto indicando que su validez en la escena
organizacional e industrial global, no necesariamente conlleva un acierto ni una
revolución en el ámbito educativo.

2 Gestión del Conocimiento: un Necesario Abordaje


Epistemológico

Apegándose a los planteamientos introductorios expuestos, se hace necesario


contextualizar algunos presupuestos teóricos y prácticos inherentes a la G.C. Estos
permiten una formalización de la hipótesis que sin más preámbulos se presenta: La
G.C es una elaboración discursiva hecha en y para las organizaciones, por tanto como
campo del saber hay que ubicarla en las teorías organizacionales [1]. En términos del
propósito de este artículo, las consecuencias de lo anterior son decisivas: la G.C no
podría aplicarse mecánica y acríticamente en otros ámbitos, más concretamente en el
educativo. Al respecto vale destacar que ya en otras ocasiones han fracasado por la
falta de reconceptualización y simple aplicación mecánica, otras elaboraciones del
pensamiento administrativo y organizacional al intentar ser llevadas a otros entornos.
Basta señalar como ejemplo lo que hoy se conoce como Taylorización de la
educación; el Taylorismo más rigurosamente conocido como ―la administración

17
científica‖ fue una teoría que contribuyó significativamente al desarrollo de las teorías
organizacionales; formalizó el pensamiento administrativo, le dio rigor metodológico
y en su momento histórico aportó criterios, conceptos y métodos para el desarrollo de
la sociedad industrial [2]. Cuando se llevó al sistema educativo y a las prácticas
pedagógicas, el fracaso fue ostensible; la lógica del quehacer académico no podía ser
pensada con elementos y métodos propios de la lógica de la industrialización. Al
respecto causa bastante desconcierto o mejor no es pertinente pensar que, la
estandarización de procesos, los tiempos y movimientos, la eficiencia y optimización
de costos, sean los principales criterios en el aprendizaje y la educación, no obstante,
demostraron validez en la industrialización. A continuación se presentan algunos
aspectos inherentes a la G.C y se destaca cómo cada uno de ellos tiene pertinencia en
lo organizacional, pero puede no tenerla en la educación.

2.1 Conocimiento Organizacional

Un primer supuesto a destacar es la idea de conocimiento que fundamenta y a la vez


surge de la G.C. El conocimiento pasa de los seres humanos (se comparte, se
socializa) a ser de la organización y de ahí debe convertirse en capital intelectual y un
activo intangible de la empresa; por lo tanto se traducirá en ganancias [3]. Escapa a
las posibilidades de este artículo evaluar la validez de dichos planteamientos, sin
embargo se dejan dos inquietudes para la reflexión: la idea de conocimiento no
humano (las empresas están conformadas por personas y otros componentes pero no
son una persona), es ajena a la epistemología y extraña a la educación y a la
pedagogía. Es legítimo, en cuanto al quehacer de las empresas como agentes de
riqueza y crecimiento económico, que aspiren a que sus recursos les produzcan
rentabilidad. Y aquí el conocimiento finalmente se entiende como recurso.
Analizando el planteamiento en la perspectiva de usar G.C en ambientes de
aprendizaje, es decir partir de esa idea de conocimiento en la educación, se detectan
contradicciones y limitaciones. En las organizaciones un determinado conocimiento es
válido cuando contribuye al logro de los objetivos, podría decirse más aun, a
fortalecer el desempeño en los factores claves de éxito que ha establecido la empresa
y por tanto constituyen su ventaja estratégica [4]. Si el conocimiento mejora la forma
de actuar de la organización, principalmente en áreas en las que aspira a ser
reconocida en el entorno (especialmente los clientes) es un conocimiento importante.
Y aquí se aplican los criterios de G.C, ese conocimiento no se puede quedar tácito en
la mente de uno u otro empleado, debe convertirse en algo explícito y parte del capital
intelectual; debe ser de la organización y accesible a sus miembros.
Conviene mencionar a Peter Senge y su teoría de las cinco disciplinas para la
gestión de organizaciones inteligentes [5]. Se destacan dos: la primera disciplina hace
referencia al dominio personal; en el contexto del cual se está hablando, significaría
conocimiento de las personas que forman parte de la organización; la cuarta
disciplina hace referencia al aprendizaje en equipo, es decir los saberes individuales
deben contribuir a la formación sinérgica de un saber colectivo de la organización que
a su vez mejore y haga más eficaz a la misma. Las disciplinas deben ser interactuantes

18
e interrelacionadas. Podría estarse o no de acuerdo, pero debe reconocerse que es un
planteamiento que puede aportar al rol educativo; en el caso empresarial ha
demostrado su validez y contribuido a crear una idea de lo que son y deben ser las
organizaciones en el mundo contemporáneo. Cuando el desarrollo social requiere,
más que saberes especializados y campos de la ciencia inconexos,
interdisciplinariedad y transdisciplinariedad para la solución creativa, innovadora,
participativa e incluyente de los problemas; no tiene sentido y se caería en el
dogmatismo, abordar una posición ―purista‖ y decir que desde la pedagogía pensar el
conocimiento en función de hacer mejoras a las empresas a través de elaboraciones
colectivas, es un desenfoque y deshumanización del hacer pedagógico. Los teóricos
mas humanizantes de la educación afirmarían que es un envilecer, empobrecimiento e
idea precaria del conocimiento.
A pesar de las anteriores consideraciones y aceptando que la educación debe prestar
atención a las contribuciones que le podría dar la G.C para enriquecer su propio
discurso, es evidente que ésta no es la idea de conocimiento en el aprendizaje.
Obviamente en la teoría pedagógica y dados sus distintos y en algunos casos
antagónicos modelos, no hay una definición única, consensuada y aceptada de
conocimiento y cuál es su relación o su participación en el proceso de aprendizaje.
Podría establecerse como algo generalizado que el conocimiento es para la formación
del que aprende (y aún del que enseña) y está orientado al sujeto. Véanse algunos
casos que sustentan lo anterior.
En el aprendizaje significativo de la propuesta constructivista, se construye
conocimiento en tanto cada estudiante articula el saber de la escuela con sus saberes
previos y esto le permite enriquecer, comprender y aun reconstruir sus propias
vivencias. Así, el conocimiento es una construcción permanente de cada individuo
para su propio crecimiento [6]. Debe destacarse que aquí lo principal es que
individualmente la persona de acuerdo con sus intereses, sus pre-saberes y sus
posibilidades cognitivas, desarrolle y crezca en su conocimiento; con estos criterios
los resultados no pueden ser iguales para el grupo. En las estrategias evaluativas del
proceso de aprendizaje no tiene pertinencia establecer logros, competencias u
objetivos que todo el grupo debe conseguir. Cada estudiante es un ser único e
irrepetible y se le evalúa el proceso según su propio desarrollo.
En el caso de la escuela nueva o activismo, el estudiante convierte la experiencia y
el contacto directo con los objetos en conocimiento. La función principal de la
escuela, más que el aprendizaje, es la misma vida real y objetiva, preparar al
estudiante para esa vida. En el futuro el hombre hará parte del mundo real; por ahora
el niño debe tener un micro mundo dónde capacitarse experiencialmente y estar
preparado para ese futuro. Ese micro mundo es la escuela y sus procesos de
aprendizaje [7].
Para la pedagogía tradicional, aquella de la ―letra con sangre entra‖ y centrada en la
transmisión, el conocimiento está constituido por un conjunto de saberes específicos
y valoraciones aceptadas socialmente. Está definido oficialmente el conjunto de
conocimientos que los ciudadanos deben aprender; la función de la escuela es
transmitirlos e imprimirlos en los cerebros de los estudiantes. El objetivo es que al
final del proceso sean ciudadanos ―educados‖ con valores y saberes iguales a los del
resto de la sociedad [8].

19
Puede observarse que a pesar de las diferencias entre las teorías pedagógicas
mencionadas, existen elementos comunes: la pedagogía estudia a la educación y en
ésta se dan procesos de aprendizaje para formar al estudiante. Es el conocimiento que
tendrá el ser humano el objetivo de la educación. Frente a esto se pueden dar varios
enfoques; algunos se diferenciarán por su posición frente al proceso mental y
cognitivo que implica conocer, la psicología del aprendizaje; otros por sus estrategias
metodológicas y didácticas; otros por la postura política e ideológica con la cual se
concibe el rol de la educación en la sociedad. No obstante, el marco de referencia es
el mismo: la formación del estudiante. Se puede inferir una generalización; en las
teorías pedagógicas y por tanto en la educación, el conocimiento es el objetivo en sí y
debe, a través de procesos de aprendizaje, estar en la mente del estudiante. Es esa la
razón de la educación.
En consecuencia y sin pretender ser descalificativo, queda establecido que el
concepto de conocimiento inherente a lo educativo tiene una racionalidad,
contextualización y propósito notoriamente diferente a la idea de conocimiento
organizacional que está en la base conceptual de la G.C; surge aquí el primer
elemento a destacar en la idea de la presentación de este artículo. La posibilidad
hipotética de modelos de G.C para el ambiente educativo, conlleva al siguiente
imperativo: reconceptualizar la idea de conocimiento que subyace actualmente a dicha
teoría.
Debe destacarse que se diferencia pedagogía, educación y en general el ámbito del
aprendizaje, de entidad educativa; esta última es una organización y el estudio que
debe hacerse para aplicar en ella un modelo G.C debe tener un enfoque y base teórica
distinta al que se emplea en este análisis. Las universidades o colegios en tanto
organizaciones que son, se gestionan, deben planearse empresarialmente, tienen áreas
administrativas, deben optimizar sus recursos, llevar registros financieros, hacer
mercadeo. Este quehacer debe estar articulado con la docencia y la investigación. Pero
el conocimiento que se genera o sobre el cual se trabaja en estas últimas y que es su
razón de ser, es distinto al conocimiento organizacional del área administrativa, el
cual a su vez puede entenderse cabalmente como afín al que se gestiona en los
modelos de G.C.

2.2 Ciencia y Conocimiento

Se resaltan algunos aspectos inherentes al concepto de conocimiento que forman parte


integral del discurso epistemológico, para contrastarlos con los conceptos de G.C y
continuar detectando directrices para evaluar la viabilidad de utilizar o crear modelos
de G.C en el aprendizaje.
Se está ante una teoría en la cual no hay definiciones últimas, ni verdades
universalmente aceptadas. En la teoría de la ciencia, que viene a ser una elaboración
de la filosofía desde los clásicos griegos, existen múltiples hipótesis y conceptos
divergentes y antagónicos como también búsqueda de consensos. Este tema es quizá
uno de los problemas conceptuales que más ha suscitado debates e interés en la
historia del pensamiento que no es otra cosa que la historia de la humanidad. No hace

20
parte de las posibilidades de este artículo siquiera hacer una mínima relación de
dichas teorías o posturas frente a una teoría de la ciencia; se busca establecer los
lineamientos generales señalados al iniciar el numeral.
Se dice que el conocimiento es científico si ha sido elaborado a través del método
científico [9]. El método (acerca del cual existen distintos criterios) se caracteriza en
general por la rigurosidad en la comprobación del saber que se está creando. Por
ejemplo formulando hipótesis y validándolas en un proceso racional, coherente y
sólidamente sustentado en una teoría y comprobado mediante ―praxis‖ a las que el
mismo saber científico ha dotado de rigurosidad. El resultado es conocimiento
pertinente ya no en una situación específica sino con un grado mayor de generalidad,
se crea una teoría. De lo anterior se destacan algunos aspectos: el conocimiento
científico es el resultado de procesos más complejos y rigurosos, tanto en la teoría
como en la práctica, que el proceso asociado a la G.C. En este último, pueden darse
casos en donde saberes obtenidos a través de la intuición o lo sensible, llevan a
exitosas prácticas de las empresas y deben convertirse en ventajas estratégicas y
capital intelectual.
Por ejemplo en el área de ventas cierto vendedor, a través de su experiencia, ha
encontrado la forma de crear ambientes de diálogo especialmente atractivos para los
clientes y su práctica lo ha convertido en el funcionario del área con mejores
resultados en los indicadores de gestión. Se da aquí un caso en el cual la organización
aspirará a que el conocimiento no se quede en la mente de un único funcionario sino
sea una práctica de común uso en la empresa; son las condiciones típicas a partir de
las cuales se aplican modelos de G.C. No interesa si tiene validez para generar una
teoría o si se le han practicado rigurosos métodos de comprobación, lo importante es
que se trata de conocimiento que empresarialmente está demostrando utilidad y se
convierte en capital intelectual.
No es entonces comparable el método de investigación científica con los modelos
de G.C. El objetivo de la ciencia es el conocimiento en sí mismo, crear conocimiento;
con esta premisa se da alto valor a la antropología del hombre como saber; razón
importante y vital de lo humano: el conocimiento [10]. En la tradición filosófica
griega puede plantearse en los siguientes términos: el principal desafío cognitivo del
ser humano es conocerse como ser, conocer el mundo que lo rodea y conocer para qué
el ser humano en el mundo.
En los aportes que históricamente se han hecho a la teoría de la ciencia han
aparecido diversos enfoques para hacer clasificaciones de la misma. En algunos se ha
hecho énfasis en separar el saber conceptual y el saber instrumental o que también se
conoce como el saber qué y el saber cómo. Es decir que en algunos campos el énfasis
es conocer el concepto, la teoría; mientras en otros, lo importante de conocer es
aplicar los métodos que surgen a partir de ese conocimiento [11].
En la teoría de la G.C hay una fuerte tendencia a pensar que el conocimiento
relevante para una empresa es aquel que conduce a las buenas prácticas; algo así como
entender que el conocimiento es información en acción, es tener habilidades [12].
Aunque en el conocimiento científico se presentan tendencias dadas a enfatizar en lo
aplicativo, en general para la ciencia el interés principal es la creación de nuevo
conocimiento, de nuevas teorías. En el conocimiento organizacional se pretende que
la empresa cuente con procesos, experiencias, habilidades, que le permitan mayor

21
calidad, imagen y rentabilidad.
Para ilustrar la diferencia entre conocimiento científico y organizacional se
menciona un ejemplo. Algunos ingenieros han pensado que la G.C es aplicable no
sólo en empresas sino en otros ámbitos, el caso es en la educación; citan como
ejemplo de aplicación el caso de un profesor universitario de reconocido prestigio y
trayectoria por sus habilidades pedagógico-didácticas. El profesor se encuentra
próximo a jubilarse y la Universidad no puede admitir que se vaya sin previamente
haber compartido con los profesores jóvenes su exitosa experiencia y hacer de ella
una práctica común. Según los ingenieros este es un caso en el cual sería totalmente
pertinente la aplicación de la G.C en la educación [13].
Esta es una descontextualización; el conocimiento del cual se está hablando no es
solamente una buena práctica organizacional que debe convertirse en conocimiento de
la empresa y el método ideal para ello es la G.C. Se está hablando de conocimiento
pedagógico, de conocimiento científico y el proceder para que sea socializado,
compartido y reconocido debe ser a través de los métodos de la investigación
científica.
La práctica exitosa del profesor próximo a jubilarse debe convertirse o estar
articulada en una teoría y comprobada y validada a través de los métodos científicos
de la pedagogía. A menos que ―en casa de herrero azadón de palo‖ y la Universidad
del ejemplo opte porque los procesos de enseñanza-aprendizaje no estén sustentados
en una teoría pedagógica y a cambio las prácticas educativas sean resultado de haber
compartido mediante sistemas de G.C, experiencias exitosas de casos particulares.
Con las tendencias mundiales y las exigencias de calidad y pertinencia que la sociedad
está haciendo al sistema educativo, tal hecho tendría poca presentación en los
procesos de acreditación tan comunes hoy día en la educación.
El ejemplo ubica la idea central del artículo, pero podría no ser de amplia
aceptación dado el relativo y escaso reconocimiento de la pedagogía como ciencia.
Para algunas personas seguramente lo importante de la profesión docente no es su
formación científica, es su praxis en la enseñanza y ésta bien puede ser el resultado de
compartir experiencias exitosas.
Para ilustrar con mayor claridad, se da el ejemplo en un área que, como científica,
tiene mayor reconocimiento y trayectoria: las ciencias de la salud. Siguiendo la idea
de los ingenieros, la hipotética situación podría ser la siguiente: en un hospital un
médico cardiólogo es reconocido por sus incontables éxitos en tratamientos con
pacientes. Al hospital como empresa no le interesa la fundamentación científica del
conocimiento del médico, le interesa que hay un prestigio reconocido, pero
desafortunadamente es conocimiento de un empleado. Interesado el hospital en que el
saber no sea individual decide utilizar un modelo de G.C para hacer de la práctica de
dicho médico, el conocimiento y la práctica colectiva de los cardiólogos de la
institución. Quizá funcione, pero quizá no y aquí se estaría no sólo ante cierto fracaso
de la práctica organizacional conocida como G.C; se estaría ante la pérdida de vidas
humanas. Cualquier persona vinculada a las ciencias de la salud entenderá que ante tal
situación (un éxito individual convertirlo en conocimiento colectivo) lo aplicable es
utilizar los métodos de investigación científica de dichas ciencias.
Como un comentario un poco aparte, pero que ilustra la posibilidad de que el caso
anterior sea real, recuérdese la situación de las empresas de salud en Colombia (EPS)

22
Los médicos, desde su óptica de las ciencias de la salud, quisieran poder establecer su
relación con los pacientes según su formación científica: calidad en tiempo y
consultas, exámenes de laboratorio, remisión a especialistas y todo lo necesario para
su objetivo: la calidad de vida y salud del paciente. Las EPS desde su óptica gerencial,
de optimización de recursos y rentabilidad, establecen normas para las consultas:
tiempo máximo, 15 minutos; remitir a especialistas únicamente en casos
completamente extremos; ordenar menor número de exámenes de laboratorio,
preferiblemente ninguno; formulaciones de medicamentos teniendo como criterio
principal el costo mínimo. Y las normas no se quedan en escritos. A los profesionales
que mejor las cumplan se les dan bonificaciones, viajes y toda clase de incentivos.
Quienes no cumplan (y se manejan límites) no siguen siendo contratados [14].
En resumen, no es lo mismo, ni atienden a la misma racionalidad; el conocimiento
científico y el organizacional, corresponden a enfoques, metodologías,
fundamentaciones teóricas e intereses divergentes ¿Podrían o deberían buscarse
convergencias? En apariencia desde la G.C no; en los planteamientos teóricos
subyacentes a dichos modelos se hace referencia tangencial a la teoría del
conocimiento pero se hace explícito que allí no es relevante el qué del conocimiento,
sino la posibilidad de utilizar procesos y tecnologías para convertirlo en capital
intelectual.

2.3 ¿Gestión del Conocimiento?

En la teoría organizacional son de uso común los términos administración, gestión y


gerencia. Buena parte del esfuerzo se dirige a caracterizar cómo se deben ejercer
dichas funciones. Por ejemplo una de las teorías clásicas de la organización, la
doctrina administrativa del Ingeniero francés Henry Fayol, parte del referente de la
empresa pero se centra en proponer cómo ejercer la administración de la misma [15].
Este sesgo, desde los albores de la teoría de las organizaciones, ha hecho que los
esfuerzos teóricos por comprender las empresas, aunque éstas implican más que ser
administradas, se concentren en este aspecto de lo empresarial. Se escucha hablar de
facultades de Administración de Empresas; no es común escuchar ofertas educativas
acerca de estudios generales de la organización. Esto ha llevado a que en el
imaginario contemporáneo los términos (administración, gestión…) se circunscriban a
lo económico y empresarial.
Los términos administración y gestión no tienen, en esta área del saber, una
diferencia conceptual categóricamente establecida, de hecho varias empresas en sus
prácticas los identifican como sinónimos. Algunos autores le han dado a la gestión
cierta connotación más holística que a la administración; la primera tiene una visión
general y prospectiva, mientras la segunda se refiere al ahora, al accionar diario. En
G.C no se incluyen esas diferencias y se asume que básicamente es lo mismo.
La gestión hace referencia a la organización y planeación de la actividad de la
empresa en términos del logro de los objetivos y haciendo uso eficiente de los
recursos. El hecho de los recursos ser limitados es un problema crítico para la
supervivencia de la organización y ha implicado que el uso eficiente, racional y en lo
posible a menor costo de ellos, sea un desafío de primer orden para la gestión. Debido

23
a ello se han desarrollado teorías más específicas: Gestión financiera, Gestión de
Recursos Humanos, Gestión de la producción y ahora Gestión del Conocimiento. Lo
común es que hacen parte de la gestión en términos organizacionales y dan especial
énfasis a la optimización y eficiencia en el manejo del recurso que les corresponde.
Como el término se ha venido generalizando y aplicando en diversas esferas se han
presentado discusiones acerca de la conveniencia y pertinencia de utilizarlo en ciertos
campos. Por ejemplo se ha hablado de gestión cultural; quienes entienden la idea de
cultura en dimensiones que trascienden lo organizacional han evidenciado lo
inadecuado de la idea; ¿Se puede gestionar la creación artística? Es obvio que no. Se
ha llegado entonces al consenso, el concepto no hace referencia a los procesos de
creación cultural sino al manejo de los recursos de las organizaciones que se dedican a
la cultura y el logro de sus objetivos.
Especialmente polémico y sensible ha sido el término gestión del Recurso Humano.
En la teoría organizacional clásica fue normal ver a los trabajadores como uno más de
los recursos de la empresa; equiparable, en cuanto a la necesidad de ser gestionados,
con las finanzas o la maquinaria. En la evolución de dicha teoría se ha ido pasando de
la metáfora de la empresa como una máquina, a la metáfora de la empresa como
cultura o aún como organismo vivo [16]. En consecuencia se ha ido diluyendo la idea
de entender al ser humano como recurso que se debe gestionar; desde la ciencia
humana es un despropósito. La idea se ha ―suavizado‖ y se habla por ejemplo de
gestión del talento humano; no se gestiona la persona sino las capacidades que le
aporta a la organización.
Estos antecedentes para establecer que polemizar acerca de la pertinencia de
utilizar el término gestión, según el contexto, no es algo nuevo. Dependiendo del área
del conocimiento en el cual se esté utilizando cierto término, adquiere rigor
paradigmático. Evidentemente no es similar el concepto de hombre en ciencias
humanas al que se tiene en ciencias administrativas. En el caso de ―gestión‖ del
conocimiento es significativamente cuestionable.
No está en la intencionalidad de este artículo cuestionar la validez de gestionar el
conocimiento y la conceptualización y práctica que ha implicado para los modelo de
G.C organizacional. Si en esta teoría se admite que el conocimiento es un recurso y
que su importancia radica en el hecho de generar riqueza y capital intelectual, parece
válida la idea.
En lo educativo es más cuestionable. Si la educación es la formación del estudiante
y se realiza mediante procesos pedagógico-didácticos en los cuales el conocimiento es
parte vital tanto de la formación como del proceso, no es aplicable la idea de
―gestionar‖ el conocimiento. Aquí no es un recurso; su complejidad, su rigurosidad
conceptual y metodológica, su condición humana, no pueden ser sobre simplificadas
al nivel de elemento que se gestiona, se mide, se optimiza, se transfiere y se convierte
en capital. Antes de hablarse de G.C se hablaba de gestión educativa; anteriormente se
hizo referencia al tema, en este caso no se trata de gestionar el conocimiento en los
procesos de enseñanza y/o aprendizaje. Se aplica para gestionar la entidad educativa.
Tampoco tiene validez hablar de ―gestión‖ del conocimiento en la ciencia; la
epistemología a lo largo de siglos ha propuesto y crecido en elaboraciones milenarias
acerca de métodos para la investigación científica y por tanto elaboración del
conocimiento. Como en el caso de la educación, también se habla de gestión,

24
particularmente gestión de la investigación. Esta hace referencia a los aspectos
administrativos y financieros de apoyo a los proyectos de investigación o a la creación
de condiciones organizativas (grupos, semilleros) para favorecer la realización de
actividades investigativas. Lo que no es congruente es incluir el tipo de racionalidad
de la gerencia y la gestión en los métodos ya propios del quehacer investigativo.

2.4 Dato, Información y Conocimiento

Otro elemento que se propone en cuanto a diferencia de contextos, entre lo


organizacional y lo educativo, del concepto de conocimiento, es cómo se crea o de
dónde surge. En la G.C la premisa de uso más frecuente es que hay una
jerarquización cualitativa entre dato, información y conocimiento. La información es
más que el dato pero se obtiene a partir de él. Y a su vez la información es la materia
prima para que aplicando criterios elaborados se obtenga conocimiento. No es
explícito cuál componente interviene o cómo se hace algo adicional para obtener
conocimiento. El presupuesto primordial es el esquema: del dato a la información y de
ésta al conocimiento [17].
Algunos teóricos insinúan que se trata de algo actitudinal: el conocimiento es
información en acción. Otros lo entienden como habilidad gerencial: hay
conocimiento cuando se utiliza adecuadamente la información para la toma de
decisiones [18]. Pero lo sustantivo es que el elemento posibilitador del conocimiento
es la información. Incluso entre quienes desarrollan sistemas de gestión de
conocimiento no se delimita el asunto. Es frecuente escuchar que por parecer más
evolucionados, algunos técnicos a sus sistemas de gestión documental o de gestión de
información, los elevan a la categoría de gestión del conocimiento únicamente
cambiándoles el nombre. Esta práctica ha sido un snob y común en la comunidad de
las TIC, por ejemplo cuando empezó a popularizarse la tecnología de las bases de
datos como un enfoque cualitativamente superior a los tradicionales archivos, algunos
informáticos no se preocuparon por realmente introducir los cambios; a sus
organizaciones de archivos les cambiaron simplemente de nombre y ya con eso los
hacían aparecer como bases de datos
En los modelos pedagógicos también se utiliza la categorización (dato -
información- conocimiento), de hecho la teoría cognitiva utiliza como un elemento de
su propuesta de aprendizaje la teoría del procesamiento de información. Pero en
general en la pedagogía contemporánea no se entiende el conocimiento únicamente
como resultado de dicho procesamiento. Salvo en el modelo tradicional; allí la
educación es transmisión de informaciones (generalmente dispersas y
descontextualizadas) de uno que enseña a otro que aprende. Pero nótese que la crisis
de ese modelo se ha constituido en el principal desafío incluso a la misma existencia
de las instituciones educativas. Si los colegios o las universidades siguen pensando
que eso es educar no tienen razón de existir, se puede hacer en los libros y ahora con
acceso más amplio y dinámico con las TIC. Hay consenso, la educación y el
conocimiento deben ser objeto de otras elaboraciones. Para los cognitivistas el
componente informacional es apenas una entrada al proceso cerebral de distintos
niveles de abstracción y conceptualización que permite elaborar conocimiento . En el

25
caso del constructivismo el rol de la información es pasivo, importa más la
significación que el estudiante haga en su propia vivencia, esto permite construir
conocimiento. Para la escuela nueva el conocimiento es acción y experiencia, contacto
directo con la realidad.
No es posible, con las limitaciones del artículo, analizar exhaustivamente las
distintas posturas que en la teoría pedagógica existen acerca del rol de la información
como fuente de conocimiento, pero especialmente ahora que se pretende superar la
crisis y precariedad que el transmisionismo causó a la idea de conocimiento en la
educación, no es aceptable que los datos y la información sean el principal
componente del conocimiento en la práctica educativa. No se puede mencionar un
solo factor (dada la diversidad de teorías), pero se reconocen con mayor importancia
que lo informacional en el conocimiento educativo: la estructura mental cognitiva y
que evoluciona con la edad según la teoría de Piaget [19]; el proceso de estímulo –
respuesta – refuerzo, del conductismo ; la idea del aprendizaje significativo en
Ausubel [20]; la zona de desarrollo próximo ideada por Vigotski.
Se destaca que desde otras áreas e incluso desde el planteamiento organizacional,
surgen crecientes cuestionamientos acerca del rol tan protagónico de la información
en el conocimiento y aún en la sociedad. Se está empleando el término infocentrismo
[21] para hacer referencia al sobredimensionamiento, el cual ha permitido concluir
equivocadamente que si lo fundamental es la información, pues las tecnologías que
permiten su manejo más eficiente deben ser los factores de primer orden en el
conocimiento y ¿por qué no? en la educación.

3 Las TICs en la Educación

Conviene trazar una clara distinción entre lo que se entiende por tecnologías
educativas y el tema a tratar: tecnologías de la información y las comunicaciones
aplicadas a la educación. Si bien a simple vista podrían verse como fenómenos
estrechamente ligados, para efectos de una comprensión rigurosa, se hace necesario
diferenciarlos claramente.
Las tecnologías educativas se entienden como el inventario de aplicaciones
prácticas que a lo largo de la historia, desde Comenio o los sofistas griegos, se han
implementado en el ámbito de la educación, tomando como referente los hallazgos de
las distintas ciencias relacionadas con la pedagogía. Es en últimas, la praxis
pedagógica de los resultados teóricos de campos del conocimiento como la
Psicología, la Medicina, la Sociología, la Antropología o la Ingeniería entre muchas
más. Asumir su estudio, su comprensión y su reflexión, implicaría el desarrollo de
una iniciativa mucho más abarcadora y ambiciosa, por esta razón se considera
fundamental iniciar con esta claridad.
Por otro lado, se entienden las TICs inicialmente de una manera más bien genérica,
como aquellas tecnologías que permiten transmitir, procesar y difundir información de
manera instantánea. Fenómeno cuya ocurrencia desde la década de los 80, comenzó a
desarticular las antiguas cadenas industriales de montaje de las organizaciones, para
convertirse en el sustrato informático innovador sobre el cual en la actualidad

26
funcionan las mismas. Su aplicación en la educación mediante constructos como
(A.V.A) corresponde al objeto central que de aquí en adelante ocupará la atención del
autor.
Al hablar de una escaza historia de las TICs en el ámbito educativo , se pretende
recalcar que hasta el momento son el ordenador, a través del software educativo, y la
red virtual internet, las únicas herramientas a las que se puede asociar el hipotético
impacto revolucionario que ha traído consigo la ―ola cibernética‖, en las dinámicas
pedagógicas. O por lo menos en las de ocurrencia masiva, en las que insinúan una
educación democrática.
Es a partir de estas herramientas que ha surgido la posibilidad de pensar en (A.V.A)
como ―el espacio físico donde las nuevas tecnologías tales como los sistemas
satelitales, el Internet, los multimedia y la televisión interactiva entre otros, se han
potencializado rebasando al entorno escolar tradicional que favorece al conocimiento
y a la apropiación de contenidos, experiencias y procesos pedagógico-
comunicacionales‖ [22].
El análisis diferenciado de Internet y Software educativo como esencia de los
(A.V.A), será el eje posterior de análisis.

3.1 Neoliberalismo - Ordenadores - Software Educativo: Transposición


Acrítica de Términos

Desde la propuesta de Begoña Gross (2008) [23], los programas computacionales que
adquieren la connotación de ―educativos‖ deben estar articulados en un proceso
formal de aprendizaje; no es posible acudir a la liviandad propia de muchas
coyunturas o situaciones que sin tener un atisbo de sentido pedagógico se denominan
por sí mismas ―educativas‖.
Tal es el caso de las ―modas tecnológicas‖, en donde por incidencia directa de
acuerdos macropolíticos y transcomerciales y tímidamente por necesidades educativas
explícitas, problemáticas pedagógicas identificadas o sustentos curriculares
congruentes; se saturan de computadores a las instituciones. Esto bajo el amparo de
imperativos económicos globales. Luego de esto se denominan innovaciones
―educativas‖ o políticas públicas ―educativas‖.
Las ―necesarias políticas públicas educativas neoliberales‖ o las ―nuevas estrategias
educativas para el desarrollo en Latinoamérica‖, planteadas por los gurús de la
globalización en ―auténticos manifiestos para la reforma económica‖ [24], proponen
que el énfasis en las competencias operativas frente a las nuevas tecnologías
informáticas, ha de ensalzar la esencia del acto educativo y de la planeación
curricular.
El futuro ―capital humano‖ de las organizaciones: los estudiantes, ―tienen que hacer
uso adecuado de las nuevas tecnologías‖. Su sustento reposa en que son estas el
sustrato mediador de la productividad en el siglo XXI y por ende la educación debe
acoplarlos a su estructura. Ante esto cabe preguntarse ¿Es el fin último de la
educación la preparación de mano de obra calificada?, ¿No se estará confundiendo
capacitación, adiestramiento, tecnificación; con educación?.
En este punto valdría la pena invitar a Sarramona (2006) para ilustrar y advertir a

27
los tecnócratas neoliberales sobre el filosófico e irrenunciable significado crítico y
transformador de la educación y sobre todo para motivar al lector hacia el interrogante
sobre el rol y el protagonismo del computador frente a una educación entendida como:
―Un proceso esencialmente dinámico entre dos o más personas que proporciona las
herramientas y ayudas para alcanzar las metas del hombre, partiendo de la aceptación
consciente del sujeto. Que pretende la formación del individuo como persona libre,
que busca la inserción activa y consciente del individuo en el medio social, que
significa un proceso permanente e inacabado a lo largo de toda la vida humana, que el
estado resultante, aunque no definitivo, supone una situación duradera y distinta del
estado original del hombre‖. [25]
En lo anteriormente descrito se podría ubicar en un lugar secundario a todas las
acciones dirigidas a la enseñanza instructiva de procedimientos productivos y a la
apropiación de estos por parte del estudiante. Sarramona en su definición sobre
educación da prelación a la formación de seres humanos con anhelos y deseos, metas
libres y activas, no necesariamente acuñadas con el éxito productivo o la eficiencia y
la eficacia laboral que se espera del ―capital humano‖. Sujetos con disposición de
experimentar la vivencia del mundo en toda su magnitud, no exclusivamente dentro
de los linderos de la organización. Hombres con capacidad de escenificar un papel
protagónico en el ámbito social, alejándose progresivamente del rol operativo obrero
y avistando cada vez con más cercanía el papel de entes creadores y transformadores.
Personas con pleno entendimiento de un reto formativo interminable, inconstante y
variable. Sarramona sobre todo alienta una visión transformadora y revolucionaria
hacia la liberación del hombre, a la luz del acto pedagógico, la cual no se puede leer
ni escribir en los términos de la tecnocratización.
No obstante, hay que reconocer que en el campo de las tecnologías educativas se ha
logrado llevar a la praxis lo planteado por Gross en cuanto dotar de congruencia
pedagógica ciertas aplicaciones computacionales implementadas en algunos procesos
educativos. Esto ha dado lugar a lo que se conoce como ―software educativo‖. Esta
nueva categoría, siguiendo los parámetros fijados por Gros (2008), se ha considerado
como ―diseños informáticos específicos a través de los cuales se adquieran unos
conocimientos, una habilidad, unos procedimientos, en definitiva para que un
estudiante aprenda‖
El software educativo presenta directa e irrenunciablemente como gran innovación
al interior de las aulas, la inclusión del ordenador, en un rol protagónico en los
procesos enseñanza– aprendizaje, lo cual puede desembocar en una acción de tipo
educativo dependiendo del uso y direccionamiento adecuado por parte del docente.
Esto sin pretender que se magnifique la virtualidad ofrecida por el uso del
computador, hasta el punto de reducir el ambiente de aprendizaje a las interacciones
mediadas por los instrumentos tecnológicos.
No se ha de olvidar que la presencia del ordenador no sólo en las escuelas sino en
todos los ámbitos sociales, se constituye en el fenómeno tecnológico guiado
mercantilmente que ha definido las nuevas tendencias políticas, culturales y sociales
de la contemporaneidad, al mediar instrumentalmente la última gran revolución
industrial, aquel giro paradigmático que emerge de las nuevas tecnologías de la
información y las comunicaciones.
Esto conlleva a pensar que la presencia del ordenador en los escenarios educativos

28
obedece principalmente a una corriente global de orden económico que pretende la
implantación universal de ciertas prácticas del mercado, como la masificación de las
TICs básicamente, pero con repercusiones culturales, sociales y psicológicas.
De acuerdo a lo anterior, la plataforma comercial del software educativo
implementada en los (A.V.A) intenta incursionar en las necesidades educativas
tratando las diferentes materias, de formas ya milenariamente exploradas a partir de la
interacción humana docente-estudiante. A partir de cuestionarios, presentando una
información determinada a los estudiantes o a través de la simulación de fenómenos,
ofreciendo un entorno de trabajo poco sensible a las circunstancias de los alumnos
desde sus diferencias individuales y mucho menos provisto de posibilidades de
interacción. Sin embargo, desde el modelo que guía la tendencia económica neoliberal
que impulsa esta implementación tecnológica en la educación, se contemplan las
siguientes características que más se asemejan a metas ideales aún no alcanzadas en su
totalidad:

- Permite la interactividad de los maestros con los estudiantes, retroalimentándolos y


evaluando lo aprendido.
- Facilita las representaciones animadas.
- Incide en el desarrollo de las habilidades a través de la ejercitación.
- Permite simular procesos complejos.
- Reduce el tiempo de que se dispone para impartir gran cantidad de conocimientos
facilitando un trabajo diferenciado.
- Facilita el trabajo independiente y a la vez un tratamiento individual de las
diferencias.
- Permite al usuario (estudiante) introducirse en las técnicas más avanzadas.

Se puede apreciar que al igual que ocurre con muchos otros constructos propios de
la etapa actual que atraviesa la humanidad, guiada por la incidencia de la
globalización, el neoliberalismo y la masificación vertiginosa de TICs, las
características del software educativo se plantean más con el deseo y el afán
desmedido de autovalidación a toda costa, que con la razón y la información
proveniente de los hechos.
La interacción docente - estudiante, por el contrario a lo descrito, no se nutre ni se
acentúa a partir del uso del software educativo. El modelo transmisionista, implícito
en esta aplicación pedagógica, insinúa la irrelevancia de la presencia constante del
maestro en procesos educativos que se centran en la inserción lineal de cúmulos de
información en las mentes de los educandos, lo cual se logra fácilmente mediante el
uso de las tecnologías descritas. Las relaciones educativas de tipo crítico y que se
fundamentan en los procesos reflexivos del estudiante, no se puede construir en la
interacción con un aparato; éste no está en capacidad de accionar un ejercicio
dialéctico que someta a prueba de rigurosidad argumentativa y a escenario de
transformación conceptual el discurso del estudiante, ya que no puede hablar por sí
mismo desde su experiencia, ideales y sistema de pensamiento, tal y como hace un
maestro.
Por otra parte, las habilidades que desarrolla este tipo de material en los estudiantes
están limitadas a la manipulación tecnológica, lo cual se constituye como un serio

29
quebranto a los principios de individualidad, heterogeneidad y diferencia de
pensamiento. La estandarización y formación de las capacidades de los estudiantes de
acuerdo a las competencias evidenciadas al momento de hacer uso de los aparatos
tecnológicos no se puede confundir con la acción creadora, crítica y transformadora
que significa la educación y subsecuentemente la construcción de conocimiento. Tal
vez en una parte de los contenidos curriculares sea pertinente la evaluación de estas
competencias operativas, pero se ha de recordar: ésto no constituye la esencia de la
obra creadora que es la educación.
En cuanto a la reducción del tiempo destinado al desarrollo de tareas escolares que
significa el uso del software educativo, cabe mencionar que si la escuela fuera una
empresa o una organización destinada a optimizar recursos en pos de ganancias
tangibles, sería de gran ayuda. Afortunadamente aún el modelo económico
empresarial predominante no se ha logrado posar totalmente en la educación como lo
ha hecho en otros contextos como las artes o el costumbrismo típico regional entre
otros, imprimiendo su sello mercantil en toda acción humana. Aún la escuela no es un
escenario en donde confluyen los más veloces, los más aventajados y los mas
―competentes‖ devorando a los que no manifiestan estas disposiciones genéticas y
ambientales, aún no llega el momento en el que al estudiante se le limite o condicione
el tiempo para conocer, como a un empleado industrial se limita el tiempo de
alimentarse. El factor optimización y ahorro del tiempo no juega un papel protagónico
en la construcción ontológica que significa el conocimiento; por el contrario es la
dedicación significativa y en ocasiones exagerada, lo que desemboca en las grandes
creaciones del conocimiento crítico y transformador [26].
El uso del software por parte del docente y del estudiante, según los economistas
neoliberales que parecen tener fuero y potestades ilimitadas en todos los campos del
conocimiento, también proporciona numerosas ventajas, las cuales se someten a
análisis; entre ellas están:

Enriquece el campo de la pedagogía al incorporar la tecnología de punta que


revoluciona los métodos de enseñanza-aprendizaje, lo cual es algo poco verosimil,
pues si bien esta aplicación se constituye en parte de un método alternativo en la
enseñanza y tal vez enriquece las herramientas de las cuales dispone el maestro al
interior del aula, no se puede tildar como un hecho revolucionario; como lo afirma
Samir Amin (2002) [27] en aguda crítica al ―incuestionable‖ planteamiento de la
supuesta aldea global: ―la distinción entre los instrumentos y el uso que se haga de
ellos sigue siendo esencial. A pesar de las ingenuas creencias de Marshall McLuhan,
la historia no se desenvuelve al vaivén del progreso tecnológico‖.
El uso de software educativo en la escuela aún no se puede relacionar con un
incremento sustancial en la calidad de vida, particularmente en el ámbito pedagógico,
de las sociedades; tampoco con coyunturas que equilibren la balanza social que día a
día aumenta la desigualdad y la miseria en los países subdesarrollados y en vías de
desarrollo; por el contrario el uso de esta aplicación ubica en un lugar más aventajado
a las potencias del conocimiento y por ende de la economía, en las cuales el acceso a
las nuevas tecnologías, entre otros elementos de supervivencia, no es un lujo, es un
deber del mercado.
Constituye una nueva, atractiva y rica fuente de conocimientos. Sin embargo esta

30
novedad sólo opera en la fase de circulación del conocimiento en el ámbito
académico, pues irrebatiblemente es el sujeto de ciencia quien ―carga‖ o provee el
contenido de cada software educativo, éste no se actualiza o reevalúa sus contenidos
autónomamente. Siempre estará condicionado a la actualización y complementación
que el mismo ser humano tenga en su voluntad añadirle; adicionalmente, al igual que
siempre, estará supeditado a una serie de variables exógenas como las fuentes de
energía o el status aventajado tecnológicamente de determinada comunidad.
Se puede adaptar el software a las características y necesidades del grupo teniendo en
cuenta el diagnóstico en el proceso de enseñanza-aprendizaje. Lo cual supone un
estado estático e inerte intelectualmente de los grupos académicos, en el lapso de
tiempo comprendido entre el diagnóstico de necesidades académicas de determinada
comunidad y el momento de la puesta en circulación del software planeado a partir de
dicho diagnóstico, el cual puede modificarse considerablemente en proporción a las
variables exógenas arriba mencionadas.
Permite elevar la calidad del proceso docente-educativo. Lo cual está
condicionado ampliamente, al igual que toda la estructura computacional, por la
postura y dimensión ética que el ser humano, en este caso el maestro, esté en
disposición de escenificar. En muchas oportunidades se ha hecho evidente que el uso
de software en la escuela permite ―flexibilizar‖ la carga laboral del docente
permitiéndole así destinar más tiempo disponible a actividades no necesariamente
académicas, también personales, extralaborales e incluso administrativas; siendo esto
último muy deseable en la concepción neoliberal de la escuela como empresa.
Permite planear y controlar las actividades del docente de forma individual o
colectiva, lo cual no es ninguna novedad o consecuencia exclusiva del uso de
software, es uno de los pilares de la acción del educador.
Muestra la interdisciplinariedad de las asignaturas, lo cual, conservando las
proporciones -no es lo único que se necesita para ilustrar el carácter multi e
interdisciplinar de la educación-, se constituye en un aporte al representar la
asociación conceptual y la transversalidad necesaria en el abordaje complejo de los
fenómenos propios de la ciencia.
Marca las posibilidades para una nueva aula más participativa y democrática;
cuestión que es relativa e inclusive en muchas ocasiones opuesta, ya que en los países
subdesarrollados y en vías de desarrollo, el uso de software educativo,
antagónicamente a lo enunciado, lo que logra es aumentar la desigualdad y el
desequilibrio social. Cuando la tecnología es un lujo o un bien suntuoso, tal y como
sucede en países como Colombia, se limita su uso y alcance a las clases más
favorecidas, lo que pone en aguda situación de desventaja a quienes no tienen
igualdad de acceso a estos medios facilitados por la ciencia pero sobre todo por la
capacidad adquisitiva. Es lo que comúnmente se denomina ―la brecha digital.‖

3.2 Internet: la Red de Redes

La Internet es la mayor red de ordenadores del planeta. No es básicamente una red,


son centenares de miles de redes locales y de área amplia interconectadas entre sí,
que permiten compartir información, recursos y servicios. Inicialmente se pensó

31
como un proyecto militar en Norteamérica cuyo diseño y ejecución se delegó a la
Agencia de Investigación de Proyectos Avanzados (ARPA) del Departamento de
Defensa de los Estados Unidos a finales de los años sesenta. [28]
El objetivo principal de la red era configurarse como un sistema práctico,
sistemático y seguro de comunicaciones que siguiera funcionando en caso de que,
durante un conflicto bélico, fueran destruidos los canales de comunicación, amenaza
que ya históricamente había significado el debilitamiento de potencias militares muy
similares a los Estados Unidos como el utópico ―Tercer Reich‖que en la Alemania de
la primera mitad del siglo XX lideró el bien conocido Adolfo Hittler. El diseño de la
red bélica sería interconectado, de tal manera que si un canal de comunicación se caía,
en un bombardeo por ejemplo, los otros pudieran suplirlo. La información viajaría
digitalizada y dividida en remotas unidades bien camufladas en las que figuraría la
referencia del conjunto de datos. Al llegar a destino, las remotas unidades serían
comprobadas y organizadas para "decodificar" la totalidad del contenido.
Curiosa génesis para una aplicación que en su evolución actual es el escenario de
múltiples intercambios de datos e información, desde compras en línea hasta sexo
virtual.
El resultado fue ARPANET, una red extendida, sin un canal o centro estratégico -
descentralizada- y un conjunto de pasos sistemáticos que permitirían una
comunicación confiable utilizando gran variedad de medios poco confidenciales -
redes telefónicas y conmutadas, satélites, líneas privadas, enlaces de microondas.
En la década de los 80 se integran a la ARPANET la CSNET –la red del Computer
Science Network- y MILNET -la red militar de los EE.UU.-. Este momento, junto con
la posterior integración de NSFNET - la red de la National Science Fundation - que
contenía a los cinco más importantes centros de desarrollo computacional de los
Estados Unidos; se considera como el nacimiento de la verdadera internet o red de
redes. A este hilo vertebral comenzaron a unirse universidades y centros de
investigación que ya no dependían exclusivamente de la milicia y se incrementó
pandemicamente el número de usuarios. En 1995, la asociación nacional de ciencia
Norteamericana abandono la mediación entre sus usuarios y el acceso a la red y
comenzó la denominada "privatización" de internet, la universalización comercial y el
fenómeno mediático que hoy todo ciudadano del mundo occidentalizado conoce: la
Internet.
Se pretende que descritas las anteriores perspectivas históricas se logre aparte de
complementar los referentes conceptuales necesarios para la comprensión crítica de
las tecnologías informáticas aplicadas a la educación; acentuar la postura del autor en
lo referente a la posibilidad del uso de la red informática internet en el ámbito
educativo. La red de redes podría articularse en la educación, siempre y cuando exista
un profundo ejercicio multidisciplinar que convoque a la pedagogía y las demás
ciencias asociadas a un análisis exhaustivo, a la luz del conocimiento crítico-
reflexivo, de las infinitas posibilidades, no necesariamente educativas, que ofrece la
internet y sobre todo de sus constructos particulares susceptibles de incluir dentro de
las estrategias pedagógicas al interior del aula.
No es posible que una iniciativa de origen bélico, planeada para la guerra y la
hecatombe pueda integrarse mecánica y acríticamente a los procesos educativos. Se
insiste en que en una interacción de índole instructiva o de capacitación laboral podría

32
no ser de gran utilidad una compleja selectividad de los materiales a utilizar, pero en
la visión de la educación hacia la formación crítica transformadora ¿―funcionará‖ de
la misma manera?.
Un ejemplo de integración pertinente y de adecuación de las condiciones
tecnológicas provistas en la actualidad con las necesidades sociales de las
comunidades, que claramente se ejemplifica a través del uso de la Internet en (A.V.A),
se puede identificar en los programas de formación a distancia (e-learning) que cada
vez se hacen más accesibles y eficaces atendiendo a las potencialidades comunicativas
que ofrece la red. Esto sin duda alguna es un gran beneficio para aquellas iniciativas
instructivas que persiguen la apropiación de contenidos y el manejo de conceptos por
parte del estudiante, ejecutivo u operario. Sin embargo no cobija la posibilidad de
interacción reflexiva o debate constructivo frente a tales contenidos. No apunta a una
educación de orden reflexivo ni mucho menos revolucionario.
Tampoco hay que obviar que las formas comunicativas –multimedia e hipermedia-,
existentes anteriormente a la aparición del computador y las redes informáticas, se
facilitan y promueven sustancialmente gracias al uso de la ―red de redes‖ y del
software educativo. Esto se podría puntuar como un gran aporte de orden instrumental
para las estrategias docentes implementadas al interior del aula y fuera de esta.
La pregunta que aquí subyace es ¿tendrá la educación que sopesar la
impenetrabilidad y la soberanía indestructible de una iniciativa militar perfecta que se
salió de control por el carácter universal que adquirió; la cual aparte de las bondades
descritas en la cotidianidad, enfrenta a los maestros en el ámbito de la complejidad del
conocimiento, con el absoluto facilitarismo y la inerte iniciativa en materia de
esfuerzo e investigación-acción que implica en el estudiante la utilización de esta?
Como se planteó inicialmente el mayor atractivo de las redes informáticas como
internet es la inmediatez en cuanto consecución, teorización y praxis de cierta
información que su uso conlleva, enunciada empresarialmente en términos
organizacionales como optimización de tiempo, recursos y procesos. Pero ¿es esto lo
que se requiere en los procesos de pensamiento crítico, de la academia?. Tal vez
Copérnico, Voltaire, Einstein, Freud, Marx o Fleming entre muchos más podrían dar
una respuesta optativa al anterior interrogante.
Afortunadamente en sus sepulcros no pueden digerir mentalmente los
planteamientos de los tecnócratas de la educación y su ―global‖ acogida. Atendiendo a
la gran materialización de la ―Mcdonalización‖ [29] a la que ha sido sometido el
conocimiento científico a la luz de la lógica neoliberal, probablemente se lamentarían
de haber dedicado una vida al arte de conocer, para entregar este pilar de la
humanidad a herederos como los tecnócratas educativos, ―caballeros de la mesa
global‖. Estos particulares personajes en antagonismo sustancial a la labor del sabio,
buscan como a la piedra filosofal los alquimistas, minimizar recursos como tiempo,
esfuerzos docentes e infraestructura educativa en aras de optimizar la gestión de la
empresa que para la visión neoliberal significa el conocimiento científico, la academia
y en general toda iniciativa y acción humana.

33
4 Conclusiones y Trabajos Futuros

En cuanto la práctica organizacional de ―Gestión del Conocimiento‖ se plantea, a


partir de la reflexión suscitada, que debe continuar siendo un discurso netamente
empresarial, el cual en casos muy particulares podría llegar a articularse con las
necesidades y objetivos de la educación, sin que esto signifique un protagonismo
ostensible del mismo, en las dinámicas de la academia. Es necesario comenzar a trazar
límites radicales entre las necesidades productivas de las organizaciones y la visión
social, crítica y transformadora que debe guiar los procesos educativos, elementos
que, por razones obvias, difieren desde su esencia hasta su forma y contenido.
Las TICs, si bien han permitido ciertos beneficios en escenarios como las
organizaciones, llámense empresas locales o transnacionales globalizadas, e incluso
en contextos tan complejos como el de la política castrense; aún no han demostrado
sustancialmente su pertinencia, validez y sobretodo funcionalidad al interior de la
escena educativa. Lo que hoy se denomina en muchos gremios académicos como
―revolución educativa‖ venida de las herramientas informáticas, no pasa de ser una
trasposición acrítica y aventurada de elementos tecnológicos. Tal vez con el paso del
tiempo y a partir de abordajes realmente complejos en materia de educación, estos
podrían constituirse como mediadores de una pedagogía acorde con las necesidades
no solo organizacionales, sino también psicológicas y sociales, para las cuales esta
llamada la educación crítica transformadora.
No es posible negar la incidencia de estas herramientas tecnológicas en aspectos
relacionados con cobertura poblacional y fácil acceso a procesos formativos por parte
del ciudadano del común. Sin embargo la pregunta que aquí subyace es ¿Tendrá la
educación que adaptarse a los criterios mercantiles de masificación y banalización del
producto que en la sociedad neoliberal significa la educación?
A partir de lo anterior se expresa la iniciativa de articular conocimiento y TICs en
la educación superior, ya no en los términos de la gestión y los ambientes virtuales de
aprendizaje. Ahora se hace alusión a una categoría mucho más pertinente, congruente
y acuñada por el mismo autor, la cual se desarrolla a cabalidad en el contenido de la
tesis doctoral: ―Procesos Educativos Formales Apoyados en Tecnologías
Informáticas‖ (PEFAT).

Referencias

1. Davenport, Th. (2001) Conocimiento en Acción: Cómo las Organizaciones Manejan


lo que Saben. Buenos Aires. Ed. Pearson Educación.
2. Gonzales, Pablo. (2005). "La Taylorización de la Universidad y la Doble
Mercantilización del Estudiante Proto-trabajador". [consulta: 25 de septiembre de
2008]. Disponible en Web: http://firgoa.usc.es>
3. Viedma, José María. (1999). "La Gestión del Conocimiento y del Capital
Intelectual". [consulta: 15 de septiembre de 2008]. Disponible en Web: http://www.e-
lecting.com/uploads
4. Codina, Alexis. (2004) "Los Factores Críticos de Exito y las Areas de Resultado
Clave".[consulta: 20 de agosto de 2008]. Disponible en Web:

34
http://degerencia.com/articulo
5. Senge, Peter. (1994). La Quinta Disciplina. Buenos Aires. Ed. Granica.
6. Rodriguez, María Luz. (2004). "La Teoría del Aprendizaje Significativo." [consulta:
25 de agosto de 2008]. Disponible en Web: http://cmc./hmc.us/papers
7. De Zubiria, Julián. (2008). De la Escuela Nueva al Constructivismo: un Análisis
Crítico. Bogotá. Editorial Cooperativa Magisterio.
8. Durkheim, Emile. (1991) Educación y Sociología. México. Ed. Colofon.
9. Popper, Karl. (1994) Desarrollo del Conocimiento Científico. Buenos Aires. Ed.
Paidós.
10. Berthier, Antonio. (2005). "El Pensamiento Sociológico de Jürgen Habermas".
[Consulta: 15 de julio de 2008]. Disponible en Web:
http://conocimientoysociedad.com/habermas
11. Foucault, Michel. (1996) La arqueología del saber. México. Ed. Siglo XXI.
12. Ongallo, Carlos. (2005). "La Gestión del Conocimiento y la Normalización de sus
Buenas Prácticas". Revista económica de Castilla-La Mancha. N°7. p 183-208
13. Vicario, Claudia. (2002). "Gestión de Conocimiento, Desafío de la Educación".
[consulta: 14 de septiembre de 2008]. Disponible en Web:
http://www.somece.org.mx/memorias
14. Munar, Mabel. (2002) "Acreditación de las EPS y el Sistema de Calidad de Salud en
Colombia y su Relación Beneficio-Costo desde el Punto de Vista de los Usuarios".
[consulta: 10 de noviembre de 2008]. Disponible en Web:
http://monografias.com/trabajos
15. Dávila, Carlos. (2001). Teorías Organizacionales y Administración. Bogotá. Ed.
McGraw Hill. Capitulo3
16. Ganhao, María Teresa. (1997). "Las Metáforas Organizacionales" p. 183-189
[consulta: 23 de septiembre de 2008]. Disponible en Web:
<http://ddd.uab.es/pub/papers>
17. Lopez, Daniel. (2004). "Del Conocimiento Tácito al Dato Explícito". [consulta: 10
de octubre de 2008]. Disponible en Web: http://www.redcientifica.com/doc
18. Roque, Silvia. (2001). La Inteligencia de Negocios. [consulta: 25 de octubre de
2008]. Disponible en Web: http://www.gestiopolis.com/recursos/documentos
19. Bendersky, Betina (2004). La Teoría Genética de Piaget. Buenos Aires. Errepar.
20. Suarez, Cristóbal. (2004). ―La Zona de Desarrollo Próximo, Categoría Pedagógica
para el Análisis de la Interacción en Contextos de Virtualidad‖. Revista de medios y
educación. N°24 p 5-10
21. Brown, John. (2001). La Vida Social de la Información. Buenos Aires. Ed. Prentice
Hall.
22. Cabero, J. (2007). Nuevas Tecnologías Aplicadas a la Educación. Madrid. Mc Graw
Hill.
23. Gros, Begoña (2008). Aprendizajes, Conexiones y Artefactos. Barcelona. Ed Gedisa.
24. Chomsky, N. (2006). Ambiciones Imperiales. Barcelona. Península.
25. Sarramona, J. (2006). Debate sobre la Educación: Dos Posiciones Enfrentadas. (1ª
Ed). Barcelona. Ibérica.
26. Barbero, J. M. (2002). Ciudadanía, Democracia y Diálogos Sociales en América
Latina. Conferencia en ocasión a la apertura del programa de Maestría en Educación.
Universidad Distrital Francisco José de Caldas. Bogotá.
27. Amin, Samir. (2002). El Capitalismo en la Era de la Globalización.
Barcelona. Paidos Ibérica
28. Dreyfus, H. (2003). Acerca de Internet. Barcelona: UOC.
29. De Moraes, Denis. Cultura Mediática y Poder Mundial. Bogotá: Norma

35
36
Currículo coherence model knowledge based a case for
industrial engineering.

Alfonso PÉREZ-GAMA1, Guillermo HOYOS-GOMEZ2, Nancy RIVERA-


GUERRERO3 Byron PEREZ-GUTIERREZ4
1Life Senior IEEE Member- Dean Engineering Faculty; Fundación de Educación
Superior San Jose - BOGOTA COLOMBIA
2 Principal - Fundación de Educacion Superior San
Jose - BOGOTA COLOMBIA
3 Industrial Engineering Head - Fundación de Educacion Superior San Jose -
BOGOTA COLOMBIA
4IEEEMember, Universidad Militar Nueva Granada- BOGOTA COLOMBIA
1japerezg@ieee.org 2rectoria@fessanjose.edu.co; 3 rivnan@fessanjose.edu.co; 4
byron.perez@ieee.org
Abstract— These initiatives are centered in R & D activities in the
FESSANJOSE applying Information and ICT architectures to face the digital
growth of the university data. Also a Knowledge based system model to face
the new methodological strategy on Higher Education in Colombia is
presented: the propaedeutic cycles.: first with a set of analytical and
mathematical tools that allow quantification of management and curricular
knowledge: FESSJ-PROP © model, which is a structural system for analyzing
and structuring cohesion and consistency between these cycles. Among the
purposes and scope of the linear model of consistency in curricular knowledge
are the de-complexified understanding of the methodological strategy for
propaedeutical cycles and college resource optimization. We illustrate its
application in the area of INDUSTRIAL ENGINEERING to the propaedeutical
cycles: Technical Professional in Sustainable Production Process) and
Technology in MANAGEMENT of LOGISTICS of PRODUCTION.
Curricular coherence matrix is an analytical tool of the large academic
information as a linear mathematical structure, enabling the justification of
curriculum and making sense as a whole organized and complex. Academic
coherence and consistency refers to logical-cognitive relations between the
parts of the architecture of an educational system. It is both an instrument of
analysis as a linear mathematical structure it provides, enabling the justification
of a curriculum industrial engineering by propaedeutical cycles and weaves the
coherence and consistency in internal and external.

Keywords- Propaedeutic cycles, media and Higher education, model, matrix of


curricular coherence, student‘s model, expertise, knowledge management,
intelligent knowledge based system, information and Communications
Technology - ICT.

37
1. 1 BRIEF BACKGROUND

Industrial Engineering in Colombia first program was organized by the Industrial


University of Santander more than one half century ago. Nowadays there are close to
200 programs of this specialty. Afterwards Technology programs were established at
the Francisco Jose de Caldas District University of Bogotá. FESSANJOSE started the
Professional Technician in Industrial Engineering, 20 years ago. Nowadays this
program has grown to Technology and Professional inside the Propaedeutical Strategy
in Engineering.
This paper displays the application of our model FESSJ-PROP© (Institutional
Initiative of a Model for Higher Education in cycles propaedeutic) to this effect in the
case of the industrial engineering. Recently the MEN (Ministry of National Education,
Colombia) has recognized our model as a case of success included in the Bank of
Significant Experiences in higher education in Colombia.

2. Rationale: Knowledge as a Model Constructor

The system model of higher education for propaedeutical cycles has been called
FESSJ-PROP© is a complex curricular architecture for analysis and implementation
in all institutions of higher education. The architecture is built the COHERENT
CURRICULUM and cohesion of the three propaedeutic cycles, TECHNICAL
PROFESSIONAL, TECHNOLOGY and ENGINEERING. The model is based on
three dialogic components: the structural component or curricular coherence matrix
sub-model, the knowledge management system for flexibility and the intelligent and
preliminary component of STUDENT and LECTURER PRODUCTIVITY.
The testing and validation of the model, initially supported the rational use of
mathematical tools and computer and then in the degree of approximation (quality of
data) of the measurement system, the same rationale for the theoretical frameworks of
study, contrasting with the actual implementation of curricular coherence matrix
during the visit of assurance of the quality requirements of academic peers to
FESSANJOSE in Bogota (March and April 2009) in all tested programs. This study
revealed the possibility of the model and predictive power with the development of a
computer construct called iCOACH© (Intelligent knowledge-based systems for
individual student and lecturer productivity), working prototype, which is operating at
the level of experiential learning. (Experiential learning) iCOACH is a knowledge-
based intelligent system as a component that ensures the coupling propaedeutic cycles
of higher education but mainly as a tool for individual student productivity. This
realization led us finally the engineering design iCOACH and FESSJ-PROP with a
Professional Development.
The objectives include:

• To manage allowing morphological analysis skills curriculum in Higher


Education.
• To clean and eliminate inconsistencies and make feasible the optimization of
the curriculum-

38
• To improve the prospective scope of PEI-TICs.
• To quantify the production of the university in terms of knowledge
development in the student (culture of competence) per cycle propaedeutic.
• To quantify the contribution of each subject cognitive propaedeutic cycle.
• To re-model the expertise areas in each cycle and the Know-How.
• To prioritize and classify the areas of competence.
• To contribute to develop a curriculum free of errors and ambiguities.
• To build the input-output matrix as the basis of structural analysis and
optimization.
Among the purposes and scope of the linear model of consistency in curricular
knowledge are: The understanding de-complexified methodological strategy in cycles
propaedeutic and also the optimization of university resources.
The curricular coherence matrix is both an instrument of analysis as a linear
mathematical structure, enabling the justification of curriculum and making sense as a
whole organized and complex. Curricular coherence refers to the logical relations
between the cognitive parts of the architecture of an educational system
The internal coherence: is the strategic alignment between a study plan
(curriculum) with its objectives, justification, given the mission and vision and
properly articulated with PEI-ICT (Institutional Education and ICT Strategic Plans).
The external coherence refers to the alignment of the educational style of
FESSANJOSE to the professional profiles and intellectual capital which demand the
industry, the government, science, and technology in a global society. The model
based on educational processes according to the industrial curriculum study plan,
where an assignment (including classes, workshops, tutorials, laboratories etc.) is
associated to an expertise unit. The matrix method is of morphological type to obtain a
system contradictions free without the unwanted entropy. The coherence also implies
harmony, and articulation between teaching and apprenticeship, alignment, and
synchronization.
The system diagram of the model is expressed in the Figure 1

KNOWLEDGE SUPPLY
Competences DEMANDING

EXPERTISE CULTIVATED

KNOWLEDGE
MANAGEMENT

SUBJECT COGNITIVE CONTRIBUTION

Fig 1. Knowledge System of the Curriculun Coherence Matrix

The Coherence additionally implies:


• Characteristic: Holistic and integral view i.e. the entire complexity of the
curricular system transcends knowledge in all its conceptual administrative,
methodological, educational, normative dimensions.
• Academy management is coherent with the PEI-TICs when the difference

39
between the achieved in face to the wanted is null, curricular coherence.
• The PEI-TICs is the expression of the proper philosophical comprehension
of the educational task and it acts as definition of identity, exercising the university
autonomy, recognized by the Constitution and Law.

3 Matrix Hyperspace Generation for Analysis


We identified several matrices during the investigation. These were grouped into two
classes: the longitudinal and transverse matrix. Firstly regarding columns: the
longitudinal one in time of the study plan (academic semesters); secondly the cross
one grouped by curriculum subjects according to their applicability; additionally each
cell of each matrix can be expressed as fuzzy values. The groups are:
(1) Basic Fundamentals,
(2) Scientific and technical fundamentals,
(3) Professional Basic,
(4) Socio-humanistic and business,
(5) Professional components,
(6) Experimentation Scientific/Technical and
(7) Advanced Topics, and thirdly regarding the structure: the input/output for
optimization and structural analysis purposes.
3.1 Basic Coherence Matrix
In general this matrix A is of MxN for knowledge management, is of the fuzzy
type Buckley [13] where:
M rows represent the levels of the competence expertise of the curricular
organization.
N columns represent the assignment subjects (knowledge offering) as functional
and unitary areas educational processes involving classes, workshops, tutorials,
laboratories ,etc of knowledge of the plan.
Each coefficient (cell), is of the binary type, e.g can be ai,j = { yes, not}
It is Yes or 1, if exists direct implication between the expertise area and each
assignment of the cycle study plan. It is 0 otherwise: values fuzzy dashboard in the
basic matrix.
Applying the desfuzzification method and weighted by academic credit of each
subject, by the relation (1) we obtain:

a
i
i, j nj  d j        

Where nj is the corresponding subject academic credits, dj is the cognitive


contribution of the ja subject for each propedaeutic cycle (columns).
Similarly
a
j
i, j n j  bi        

Where bi is the ia production expressed as cultivated expertise for each


competence unit (rows). For each cycle see below the corresponding values obtained.

40
3.2 Fuzzy Matriz
On the other hand, each coefficient (cell) representing the cohesion and coherence of
each assignment with the competence, can have other qualitative values / fuzzy logics,
i.e.:
Ai,j = (null, middle, high) represented by colors in the matrix: [blank, red, blue],
as displayed in equation 3.
This type of Matrix can be of two classes: the longitudinal in time (i.e. by academic
semesters of the study plan and the transversal knowledge, where the curriculum
knowledge of the subject is grouped as mentioned above.
3.3 Input / Output Matrix
In this matrix each cell is expressed in equation 1 as a technical coefficient of the
input fraction by production unit.

d
a~i , j  j       
bi

Where each element ai,j is the ratio of cognitive inputs by unit of cultivated
competence production. With this matrix it can be performed the optimization
analysis, adding quality objectives, capacity restrictions as costs, academic objectives,
scholars population, lecturers, university resources and many others related.
The Coherence Matrix for the FESSANJOSE INDUSTRIAL ENGINEERING, the
first two propaedeutic cycles is shown in Figure 2. It should be noted for each row of
expertise establishing equivalence with the Latin America TUNING Competences,
published by the Policy MEN Document (yellow).

Fig 2. Industrial Engineering Coherence Matriz

Weight of Competence: The next column, in blue, possible to assign weights or


weighting of each unit of expertise to respond to the academic style of an institution,

41
or due to the demands of the industries. In the case of FESSANJOSE, was left with
unit values.
With the above matrix, referred to in economics interindustry of the technical
coefficients, which initially was called in Wassily Leontief Matrix, it can be perform
the analysis of academic governability, finance sustainability, educational
competitiveness and optimize university institutions, with the addition of multiple
objective functions, capacity constraints, unit costs for academic credit, the target
student population, limited college resources and many other related. In several
previous works we did this analysis for the Colombian cases.

3.4 Quantitation of Curricular Knowledge Curriculum

Another chart shows the metric for how well the industrial courses and subjects within
each cycle propaedeutic features are integrated to provide specific expertise of the
skills deployed in the cross-coherence curricular matrix consistency: from the
quantified matrix can be obtain for each cycle the industry productions, namely in
terms of industrial expertise cultivated by the engineering educational process.

3.5 Industrial Engineering Skills by Cycles, Expertise and Know-How

In the diagram you can see how they develop skills throughout student academic life.
It is noted that development of basic skills is permanent Salthouse [1] or continous
backed by numerous studies in which skill or expertise has a behavior of someone
who continually learns, throughout his life: a Normal Distribution as shown in Figure
3
Weight of Competence: The next column, in blue, possible to assign weights or
weighting of each unit of expertise to respond to the academic style of an institution,
or due to the demands of the industries. In the case of FESSANJOSE, was left with
unit values.
With the above matrix, referred to in economics interindustry of the technical
coefficients, which initially was called in Wassily Leontief Matrix, it can be perform
the analysis of academic governability, finance sustainability, educational
competitiveness and optimize university institutions, with the addition of multiple
objective functions, capacity constraints, unit costs for academic credit, the target
student population, limited college resources and many other related. In several
previous works we did this analysis for the Colombian cases.

42
Fig 3. Skills Student Continuity

This may be associated with the occupational skills of the three cycles preliminary
in Industrial Engineering.
The industrial professional expertise requires the definition of specialized skills or
outstanding tasks i.e SUPERIOR PERFORMANCE or represented in a domain that
are described as KNOW HOW. The cognitive processes associated with learning
mechanisms are of more complex.
EXPERTISE approach involves the development of skills as a dynamic continuum
and is associated with learning processes throughout life that are affected by change
and social practices, industry behavior, science and technology. As a result, the
structure of competence is variable in itself, change usually associated with a
requirement of living space in which it is used.
The Industrial Engineering curriculum design based in propaedeutical cycles and
also in EXPERTISE have cognitive and structural features distinctive, the first of
which is an academic structure articulated, sequential, complementary and flexible,
whose cornerstone is the development of professional and occupational engineering
skills. This assumption allows defining:
The Feedback Sub-matrix corresponding to the cycle objective, which can be
quantified knowledge articulation processes subsequent courses to strengthen the
competencies implied.
The Feedforward Sub-matrix, to quantify the knowledge articulation of the
processes of the current cycle and feeding skills training for senior cycle (upper). The
Figure 4 these sub-matrices are displayed.

Fig 4 Feedback and Feedforward

There are many possibilities for analysis, to meet the socio-economics demands in
terms of such competences.
 Are they balanced?

43
 Is there any bias?
 What if a new competence is included due to the industry demand?
 What is the effect of restructuring a subject or a course or a subset of them in
missionary terms?
 How is the University answer in front to new demands given by additional
regulations?
 How is the finance sustainability given the raise in education costs

4 Inputs Skills / Expertise in In dustrial Engineering


For each of the cycles shows the quantification of the lecturing services, extension,
research, mentoring, support, laboratories, experiment, practice and other which is
acquired or is receptioned by every competence in the cognitive process of each
student.
In these plots, the row number refers to the number of credits each course feeding
the competence offered in this cycle: Professional Technician in Sustainable
Production Process.
Each value allows us to visualize the relative importance of a subject. If zero or very
low one, tells us that is isolated or de-contextualized and deserves a critical review.
The model of the first cycle of the FESSANJOSE provides five semesters, has been
successful in the national context, obtaining several years in the top ECAES
(professional examinations of official national wide). The technology cycle visualize
the design possibilities and advantages of this cycle. Applying the formulas (1) and (2)
we obtain the corresponding values for competences cultivated for each propaedeutic
cycle and the valued added of the courses. See Figures 5, 6, 7 and 8

CULTIVATED EXPERTISE 83 43
1. T o describe the stages of the life cycle of sustainable production processes 78 88
from the study, analysis and design, product, to delivery to the customer with
Professional Technician in Sustainable Production Process

satisfaction of the requirements and business needs and market.


2.Foundations for developing an awareness that allows problematize and
96 114
analyze the difficulties of production processes and thus enable the
implementation of viable solutions through knowledge of the art and science, to
the production of goods and services aimed at sustainable development.
3. T o have social and communication skills through the development of 90 112
intelligence, enabling it to interact with every person in the technical
environment, cultural and labor.
4. Possessing a broad vision with respect to the variables that must be taken
86 96
into account to organize operations and implementing processes
MAINT ENANCE PLANS. Likewise understand the operating environment and
productive, providing you with real knowledge and applicable in the Colombian
industry,
5. T o use giving it strength
knowledge in the
of basic labor market.
sciences and engineering elements necessary for
80 92
understanding a problem situation at work: T o proposes solutions to unforeseen
events and needs identified.

6. Develop entrepreneurship skills, business development of production of 100 92


goods and services and understanding of the markets for industrial products.

7. T o describe the methodologies QUALIT Y modern industrial processes and 80 90


production, giving satisfaction to the needs of the company, with the
preservation of the environment and market needs.

8. T o describe the methods of modern sustainable development processes 78 88


towards the optimization of resources and distribution in plant giving
satisfaction to the needs of the company and the market.

9. Understanding how to do research and other cognitive elements to internalize,


96 118
absorb and generate knowledge.

44
Fig 5. Industrial Engineering Professional Technician Expertise Values

Fig 6 Industrial Engineering Professional Technicians Subjects Contribution

Technology in MANAGEMENT of LOGISTICS of PRODUCTION

Sixth Semester Seventh Semester Eighth Semester


ADMON TALENTO HUMANO
CONTROL DE INVENTARIOS

CONTROL DE LA CALIDAD
PROGRAMACION LINEAL

Economía Para Ingenieros

GESTION DE LA CALIDAD

GESTION DE MERCADOS
INGENIERIA ECONOMICA

EXPERTISE CULTIVADO
GESTION PRODUCCION
SALUD OCUPACIONAL

LOGISTICA INDUSTRIAL

EVAL. PROY INDUSTR Y


GESTION AMBIENTAL
PRODUCCION LIMPIA

INVESTIGACION DE

PRAC. EMPRESA
Diseño de Planta

Proyecto Grado
OPERACIONES

ECODISEÑO

ELECTIVA III
ELECTIVA II

LOGISTICA

3 3 2 2 2 3 2 2 3 2 2 2 2 2 2 2 2 2 2 2 2 43

78 78 40 44 40 45 24 44 87 46 46 40 44 36 56 42 32 42 6 44 56

Fig 7 Industrial Engineering Technology Subject Contribution


TP T

CULTIVATED EXPERTISE 83 43
1. Develop thinking to deal with the complexity of the current company,
63 121
encourages awareness, sense of ethics, analysis of organizational
problems, implementing solutions to their profession. Industrial diagnose
and propose solutions to identified needs.

2. T o examine and reflect on the most important areas of activities of 51 119


human talent to identify techniques of recruitment, selection, staff costs,
incentives, motivation and human behavior within a plant.
Technology in MANAGEMENT of LOGISTICS of PRODUCTION

3. T o design and build production operations associated with efficient 55 131


supply chain management, storage, and good relationships with suppliers
of raw materials to meet customer expectations.

4. T o understand how research and other elements to internalize, 53 119


appropriate, and generate knowledge, with innovation and creativity.

5. T o identify and understand the automatic industrial production, electrical 53 119


machinery and electronic models to improve process efficiency by
avoiding downtime due to a bad alignment of electrical installations.

6. T o develop strategies to improve the management of the company, using 53 119


financial tools, which applied to create value in organizations by making
them more competitive in a global environment.

7. Analyze and design from his training in logistics management, 53 119


strategies to optimize the flow of resources in the supply chain. Its
management is included.
8. Develop and manage strategies for planning and logistical control in the
53 123
company's functional areas including the creation and optimization of
logistic systems with strategic perspective. T he organizational design and
plant layout is included-

9. Appraisal, Analysis and design of quality systems in companies, 54 122


including quality assurance and audit

10. T o develop strategies and implement technologies for the development 44 110
of industrial processes as efficiently and preserving the environment.

45
Fig 8 Technology Expertise Values

5 CONCLUSIONS
 This study has indicated the Leontief Model resituation towards a social
sector as Education, from the economy to the academic world of knowledge
of an institution of higher education in Colombia.
 The Coherence Matrix is a kind of macroscopic of great quantity of
curriculum information and competences, allowing the corresponding
knowledge management. We have shown an implementation for Industrial
Engineering at the FESSANJOSE.
 This initiative sets up a way toward the architectural of information of IES
(Higher Education Institution) on account of Colombia Education Law 1188
which is explicit about the curriculum complexity.
 The model seeks to be an institutional learning instrument in the community
and handles knowledge, thereby from these experiences is expected that IES
go beyond of the simple management of the ICTs.
 It is seen that is entirely feasible an ethos for research and knowledge in the
technical and technology institutions. Likewise it is also seen that this policy
based on propaedeutic cycles far from being an utopia really enables the
democratic way to knowledge as proclaimed in the World Summits on
Information Society: Geneva and Tunisia.

6 FUTURE WORK
 As part of the Convocation of the European Community, FESSANJOSE is
being presented and the mentioned convocation requires the formation of
partnerships and strategic alliances to produce knowledge and the product
marketing. In this sense we have initiated discussions with the Pontifical
University of Salamanca in Spain with Professor LUIS JOYANES
AGUILAR.
 To develop the Professional Software with international standards to
strengthen the matrix analysis of curricular coherence, so widespread and
friendly management, involves Study Plans Management for each cycle,
Competency Management, Content Management, Multimedia and Digital
Reality Virtual and the extended.
 Develop the maturity model for the formation of Lecturer-Authors for
Content Generation and Verification of knowledge for Student Learning.
 To develop the corresponding Leontief Dynamic Matrix for curricular
coherence analysis including Academic Governability and economic
sustainability.
ACKNOWLEDGEMENTS
To ―FUNDACION DE EDUCACIÓN SUPERIOR DE SAN JOSE‖, to Lecturers and Officers,
especially to SAN JOSE EIDOS RESEARCH TEAM including Carlos Pareja, Alexis Mena,
Giovanni Rozo, Leyini Parra and Miguel R. Ortegón Gutierrez, to all of them a debt of
gratitude.

46
References
1. Salthouse Timothy A.: EXPERTISE AS THE CIRCUMVENTION OF HUMAN
PROCESSING LIMITATIONS; in Toward a General Theory of Expertise Prospects and
Limits. Edited by K. Anders Ericsson and Jacqui Smith – Published 1991-
2. Ministerio de Educación Nacional Banco de Experiencias Significativas: FUNDACION
DE EDUCACION SUPERIOR SAN JOSE: Modelo Analitico de Coherencia Curricular
de los Ciclos Propedéuticos con Articulación desde la Educación Básica a la Educación
Superior. www.colombiaaprende.edu.co.
3. Perez Gama Alfonso, Guillermo Hoyos Gómez, Leyini Parra Espitia, Miguel R. Ortegón
G, Giovanni Rozo Pardo, Byron Alfonso Perez Gutiérrez: EDUCATION SOFTWARE
ARCHITECTURE: FACING STUDENT DESERTION IN COLOMBIA HIGHER
EDUCATION WITH AN INTELLIGENT KNOWLEDGE BASED COACHING
SYSTEM: in ANDESCON 2010 IEEE; Bogotá Colombia
4. [4] Perez Gama Alfonso, Guillermo Hoyos Gomez, Alexis Mena Mena: ANALYTICAL
MODEL OF PROPAEDEUTIC CYCLES FOR HIGHER EDUCATION IN
COLOMBIA; 40 Reunión ISTEC (October 27/28- 2009) Ibero-American Conference on
Trends in Engineering Education and Collaboration, University of New Mexico
Albuquerque, NM - USA. Memorias ISBN 978-0-9842912-1-2-
6. Perez Gama Alfonso, Guillermo Hoyos Gomez, Ing. Mena Mena; Byron Alfonso Pérez
Gutiérrez.; A KNOWLEDGE BASED ANALYTICAL MODEL OF PROPAEDEUTIC
CYCLES FOR HIGHER EDUCATION IN COLOMBIA; The IEEE /ACM
INTERNATIONAL CONFERENCE ON ENGINEERING EDUCATION -; ICEED
2009, Kuala Lumpur, Malaysia. IEEE Catalog Number: CFP0968H ISBN: 978-1-4244-
4844-9 Library of Congress: 2009905648.
7. Perez Gama Alfonso, Guillermo Hoyos Gomez, Alexis Mena Mena, Byron Alfonso Pérez
Gutiérrez: A KNOWLEDGE BASED ANALYTICAL MODEL OF PROPAEDEUTIC
CYCLES: LINKING MEDIA EDUCATION TO HIGHER EDUCATION IN
COLOMBIA; IEEE EDUCON 2010 Conferencia Mundial de Educación Madrid España
Abril 2010. Conference Book ISBN 978-84-96737-70-9. CD ROM IEEE CATALOG
CFP10 EDU-CDR ISBN 978-1-4244-6569-9.
10. Ministerio de Educacion Nacional: MARCO DE REFERENCIA PARA POLÍTICA
PÚBLICA SOBRE EDUCACIÓN SUPERIOR POR CICLOS Y POR
COMPETENCIAS MEN: www.mineducacion.gov.co.
11. [11] Joosung J Lee et al: Business and Management Competences of Engineers; IEEE
EDUCON 2010 Conferencia Mundial de Educación Madrid España Abril 2010.
Conference Book ISBN 978-84-96737-70-9. CD ROM IEEE CATALOG CFP10 EDU-
CDR ISBN 978-1-4244-6569-9.
12. Hoffman Michael HW et al: Knowledge, Skills and Competences: Descriptors for
Engineering Education; IEEE EDUCON 2010 Conferencia Mundial de Educación-
Madrid España Abril 2010. Conference Book ISBN 978-84-96737-70-9. CD ROM IEEE
CATALOG CFP10 EDU-CDR ISBN 978-1-4244-6569-9.
13. Buckley J.J. (1992). Solving fuzzy equations in economics and finance Fuzzy Sets and
Systems 48. North-Holland , pp. 289-296 15th International Conference on Input Output
Techniques. Renmin University of China Beijing 2005.

47
La inteligencia emocional y la neurociencia elementos
fundamentales de la construcción integral del ciudadano.

Alvaro Sanmiguel Mosquera1, Sonia Sanmiguel Mosquera2


1
Dpto. de Ciencias Basicas, Universidad Libre de Colombia,
Cra 57 23 a 70 Bogotá, Colombia
2
Facultad de Ingenieria Industrial, Universidad Libre de Colombia
, Cra 57 23 a 70 Bogotá, Colombia
1
alsalmo@yahoo.es, 2 sonisanm @yahoo.com

Resumen. Las emociones están involucradas en la cotidianidad, en una


relación permanente con el entorno familiar, escolar, laboral y en todo
tipo de interrelaciones que penetran a nuestra vida y la modifican en la
parte afectiva y emocional. Todo, este proceso nos da una integridad
sinérgica, en donde el cerebro se va adaptando a cada nueva
experiencia. Este papper ofrece abiertamente una mejor forma de
explorar en como la neurociencia influye en la construcción del
ciudadano.

Palabras Clave: Aptitudes Personales, Autoconocimiento,


Autoregulación, Motivación, Aptitudes Sociales, Empatía, Habilidades
Sociales.

Abstract. All we know that emotions are involved in our daily life
experience, mainly in our family, at school, at work, and all kind of
relationships that gets in our lives and modify the affective part, all this
process give us a total integrity. Forming and educating citizens all of it
even handed, without mispricing aspects that also should be form as
academic, emotional, psychological, ecological and the whole
discernment-comprehensive mind development. This paper openly
offers a better way to learn how to construct yourselves by giving
concepts and exploring brain behavior.

Keywords: Personal skills, self-knowledge, self-regulation, motivation,


Aptitude skills, empathy, social skills

49
3. Introducción

La construcción de una sociedad con mayor empatía le permite al ser humano un


conocimiento de su yo y a la vez entender los deseos, las angustias y los sufrimientos
de sus semejantes, permitiendo un trato con consideración respeto y dignidad
De las prestaciones universales como la justicia, la seguridad ciudadana, la salud, la
recreación, la movilidad, el cuidado del adulto mayor es hoy el sistema educativo el
que atraviesa por una de las peores crisis sin responder a una sociedad basada en el
conocimiento.
La educación siempre ha puesto el énfasis en lo cognitivo, es decir se ha limitado
solamente a la transmisión del conocimiento dejando a un lado la educación de las
emociones, las cuales desempeñan un papel fundamental en lo que se puede
denominar una educación integral como son los procesos cognitivos y el desarrollo de
la personalidad.
Las emociones participan en todas las actividades de nuestra vida, en la familia,
en la escuela, en el trabajo, en nuestras relaciones sociales introduciendo la parte
afectiva en nuestra vida y dándonos una total integridad encaminada a la educación de
ciudadanos ecuánimes, compasivos, sabios considerados, con descernimiento,
dialogantes e dialógicos es decir formándonos académicamente emocionalmente
socialmente y ecológicamente.
La empatía y la gestión de nuestras emociones son fundamentales en el mundo
del trabajo.
Una educación integral protege al niño, al joven y al adulto de la intolerancia, de
las drogas y a la vez mejora su rendimiento académico.

4. Sociedad y Complejidad.

El sistema educativo actual construye el futuro con base en el pasado bajo los
principios Newtonianos y Cartesianos, nuestro pensamiento está determinado por el
determinismo el simplismo desconociendo el azar y la complejidad de un mundo que
se va construyendo segundo a segundo
El sistema educativo es el llamado a liderar las grandes transformaciones y la
adaptación a los cambios generados por los procesos evolutivos y no quedarse
encorsetado en el siglo quince, estas transformaciones radicales deben comenzar por
una reforma de la profesión docente. Profesión que debe ser multidisciplinaria y de
una alta complejidad más que cualquier otra, la misión del sistema educativo debe
proyectar la educación de las emociones, la inteligencia emocional, la inteligencia
social y la inteligencia ecológica.
Estas inteligencias se conocían desde hace mucho tiempo pero lo nuevo es que hoy
sabemos que se pueden enseñar, una mente que sepa gestionar las emociones es una
mente más tranquila, más atenta, más creativa e innovadora y a la vez más saludable,
como también generando una vida más feliz o con el menor número de perturbaciones
ya que la felicidad es el motor de la evolución y uno de los fines de todos los seres
humanos y porque no decirlo de los animales.
Pero la sociedad en que hoy vivimos más interdependientes somete a nuestras

50
mentes a un bombardeo permanente de información generándonos más dudas,
mayores grados de indeterminismos y a la vez mayores angustias.

4.1 Stress y Educación

El stress ocasionado por esta situación inyecta a nuestro sistema nervioso altas dosis
de cortisol y a la vez volviendo más activas las emociones negativas como el miedo, la
angustia y actitudes egocéntricas, la familia, las comunidades también reciben estos
impactos los cuales contribuyen a su descomposición incrementando la violencia, la
inseguridad, y una sociedad cada vez más infeliz.
Una educación emocional nos va a permitir educar las emociones positivas,
potenciarlas, apaciguar nuestras mentes y espíritus y gestionar las emociones
negativas de tal forma que no afecte nuestra salud mental y física. [1]
Una mente educada emocionalmente es mucho más receptiva a los procesos de
aprendizaje y a la construcción de conocimiento.

2.2 Aprendizaje Integral

Se debe entender como aprendizaje la construcción de nuevo conocimiento, un ser


humano puede aprender pero para generar nuevo conocimiento deben estar presentes
las emociones, porque son estas las que le dan una significación al conocimiento
basado en la empatía. [2]
Hoy para acceder a un trabajo permanecer en él o ser despedido, el énfasis no se da
en la preparación experiencia o sagacidad, hoy se tiene en cuenta como nos
comportamos con nosotros mismos o como nos relacionamos con los demás pues
estas son condiciones que pueden garantizar en gran medida el éxito o el fracaso en la
vida social. Estas son las características fundamentales que van a determinar si somos
actos para desempeñar un empleo o trabajo, las cuales están mediadas por la
iniciativa, la empatía, la adaptabilidad y la persuasión, todas ellas actitudes humanas
que tienden a la excelencia laboral y al liderazgo. Son estos los parámetros con los
cuales las empresas están evaluando a sus trabajadores.
El desarrollo y cultivo de estas actitudes suelen ser hoy en día esenciales para
lograr el éxito en nuestra profesión y nuestra felicidad como personas.
Una organización como la escuela, la universidad, la empresa o comunidad que
fomente estas actitudes será más eficiente, productiva, empática y feliz lográndose
altos niveles de inteligencia producto de la empatía que alimenta un excelente clima
laboral y se trabajamos por cuenta propia también estamos llamados a potenciar estas
actitudes que van a contribuir a ser más exitosos y a la vez ser más saludables.

4.2 Integración sinergica laboral

Si la empresa en que usted trabaja es una gran organización, quizá en este mismo
momento lo estén evaluando en función de esas actitudes aunque usted no lo sepa. Si
va a solicitar un empleo es probable que lo examine a través de esta óptica.
Si la empresa en que usted trabaja es una gran organización, quizá en este mismo

51
momento lo estén evaluando en función de esas actitudes aunque usted no lo sepa. Si
va a solicitar un empleo es probable que se le examine a través de esta óptica.

No se trata de una moda pasajera de la panacea gerencial del momento. Los datos que
inducen a tomarla en serio se basan en estudios hechos sobre millares de personas que
trabajan en actividades de todo tipo. La investigación destila con insucitada precisión
que cualidades identifican a un sol en el trabajo. Y demuestran que actitudes humanas
constituyen la mayor parte de los ingredientes que llevan a la excelencia laboral y muy
especialmente al liderazgo.
Si usted es miembro de gestión, es fundamental que su organización fomente esas
actitudes que permiten un excelente clima laboral para una mayor eficiencia y
productividad. Maximizando la inteligencia del grupo la integración sinérgica de los
mejores talentos de cada uno y si trabaja por cuenta propia estas actitudes le
permitirán lograr un desempeño óptimo, actitudes que desafortunadamente no se han
enseñado nunca en la escuela o en la universidad. Así, nuestro éxito va a depender en
mayor o menor medida de nuestro nivel de dominio de estas actitudes. Por varias
décadas se habla de las personalidades, del carácter de actitudes positivas. Hoy el
talento humano se conoce por el IE ―Inteligencia Emocional‖ que es una contribución
importante para la gestión efectiva y por la aplicabilidad de normatividad para ala
optimización de resultados. [3]
Con el estudio de la neurociencia tenemos un conocimiento más exacto de este
talento humano, que permite generar y fomentar habilidades desde el carácter, la
personalidad, las habilidades suaves y actitudes Estas actitudes generan un concepto
nuevo del empleo el cual ha sido remplazado por el de actitudes portátiles condición
esencial para hacernos buenos candidatos para obtener y conservar un empleo. [4]
Obedece a procesos evolutivos del ser humano y al desarrollo científico de la
neurociencia las investigaciones llevadas a cabo, asi lo confirma mostrándonos cuales
son las actitudes emocionales que conducen a la excelencia y por ende al liderazgo
laboral y social.
Todo ser humano hoy se le debe enseñar a aprender y cultivar dichas actitudes, las
cuales le son esenciales para lograr el éxito y la felicidad.

4.3 2.4 Salud y Mente

Es importante señalar que la salud y la educación están íntimamente relacionadas, ya


que una mente estable emocionalmente genera un organismo equilibrado, más
receptivo, más compasivo, ecuánime y con un mayor grado de discernimiento.
Hoy tenemos un conocimiento más exacto de estas actitudes con base en los
desarrollos científicos de la neurociencia, a estas actitudes se les conoce como la
inteligencia emocional y su carencia ha acarreado altos costos en la vida social,
comercial, afectiva y laboral.
La inteligencia emocional se puede considerar como el desarrollo dialógico de las
emociones frente al cociente intelectual que fue considerado por muchos años como el
determinante y la garantía de éxito en nuestra vida. El cual ocupa hoy un segundo

52
lugar frente a la inteligencia emocional y ha dejado de ser el determinante que
fundamente el éxito en nuestra vida social y laboral.

4.4 Empatía

La inteligencia emocional se fundamenta en el desarrollo de la empatía entendiendo la


empatía como el conocimiento de un mismo y a la vez el conocimiento de nuestros
semejantes, tanto en su parte positiva como en sus aspectos negativos pero si caer en
algunos errores como:

 La inteligencia emocional no significa ser simpático en algunos momentos es


necesario enfrentar a alguien para serle ver su error o su molesta actitud, así
sea una causa de inconformidad.
 La inteligencia emocional no consiste en dar rienda suelta a todos los
sentimientos, más bien por el contrario en un manejo ecuánime de
expresarlos en forma efectiva y compasiva que permita a las personas que
trabajan juntas unificarse hacia una meta común.
 Es importante aclarar que no existe diferencia de género frente a la
inteligencia emocional, cada uno tiene un perfil personal de puntos fuertes y
débiles en estas actitudes, algunos pueden ser sumamente empáticos pero
carecer de alguna capacidad necesaria para manejar sus propios nervios;
otros pueden captar el cambio más sutil en su propio yo y no obstante ser
socialmente ineptos.

En las investigaciones efectuadas sobre millares de personas de ambos sexos se


descubrió que las mujeres tienen mayor conciencia de sus emociones y demuestran
más empatía, y por ende son más aptas para las relaciones interpersonales, mientras
que los hombres son más optimistas y seguros adaptándose con mayor facilidad y
teniendo un mejor manejo del stress. [5]
Pero son mucho más las similitudes que las diferencias encontrándose algunos
hombres más simpáticos como las más sensibles de las mujeres, mientras hay mujeres
tan capaces de soportar el stress como el hombre más flexible, es decir que
estadísticamente en función de la inteligencia emocional total no se encuentra
diferencia entre los sexos. [6]
La inteligencia emocional no está determinada por la lotería genética, tampoco se
desarrolla en la infancia a diferencia del consiente intelectual que después de la
adolescencia cambia muy poco.
La inteligencia emocional parece ser aprendida en gran parte en la infancia y
continúa desarrollándose en la medida que avanza por la vida aprendiendo de nuestras
experiencias, nuestras actitudes y en que se encuentra en permanente cambio. Algunos
estudios demuestran que la inteligencia emocional mejora a la gente cada vez más en
sus aptitudes en la medida que adquieren un mejor manejo para sus destrezas y sus
emociones e impulsos, afinando y motivando sus habilidades empáticas y sociales.
Este crecimiento de la inteligencia emocional se denomina como madurez

53
4.5 Actitudes

De acuerdo Goleman, Daniel en su libro de Inteligencia emocional, cada vez son más
los empleadores que se quejan por la falta de habilidades sociales de los nuevos
contratados, son demasiado los jóvenes que no pueden aceptar una crítica cuando se
les hace un comentario constructivo sobre lo que están haciendo, se ponen a la
defensiva o se muestran hostiles reaccionando como si fuera un ataque personal. Este
problema no solamente lo presentan los jóvenes sino también algunos ejecutivos
curtidos, muchos de ellos formados en la década de los 60 y 70 en donde la manera de
progresar estaba determinada por una buena escuela de excelente preparación
cognitiva pero de muy baja empatía, pero de excelentes actitudes técnicas especificas
las cuales son ahora menos importantes que las capacidades subyacentes de aprender
en el puesto tales como:
 Saber escuchar y comunicarse oralmente.
 Adaptabilidad y respuesta creativa ante los obstáculos y reveses.
 Dominio personal, confianza en uno mismo, motivación para trabajar en pos
de un objetivo, deseo de desarrollar la carrera y enorgullecerse de lo
alcanzado.
 Efectividad grupal e interpersonal, espíritu de colaboración y de equipo,
habilidad para negociar desacuerdos.
 Efectividad en la organización, deseo de contribuir, potencial para el
liderazgo.
 Eficiencia en la lectura, escritura y matemática.

5. Pericia técnica y experencial

La inteligencia practica combinada con la pericia técnica y experencial habían sido


consideradas como determinantes de la calidad de nuestro desempeño en la vida
cotidiana.
La pericia es una actitud básica, hay que tenerla para obtener le empleo y ejecutar
el trabajo, pero es la manera de hacerlo (las otras aptitudes que se aportan a la pericia)
lo que determina el desempeño es la capacidad de traducir la pericia en algo
comerciable, en algo destacable, sino de poco nos vale.
Los supervisores de trabajadores técnicos o profesionales necesitan cierto grado
de pericia en su especialidad; sin un conocimiento razonable de lo que la gente está
haciendo sería casi imposible desempañarse en ese puesto, pero esa pericia es un
requisito esencial, las habilidades que distinguen a los supervisores sobresalientes en
los campos técnicos no son las técnicas, antes bien se relacionan con el manejo de la
gente, de modo que hasta cierto punto la experiencia y la pericia tienen su importancia
como el cociente intelectual, pero cuando se trata de la excelencia es la inteligencia
emocional la determinante.
Las facultades de la inteligencia emocional son sinérgicas con las cognitivas, los
trabajadores excelentes poseen las dos, cuanto más complejo es el trabajo más
importante es la inteligencia emocional, aunque solo sea porque la deficiencia de estas
facultades puedan dificultar la aplicación de la pericia técnica y el intelecto que se

54
tenga. Siendo estas las actitudes que se necesitan para triunfar pero también
necesitamos aptitudes emocionales para aprovechar a fondo el talento, sino obtenemos
todo el potencial de la gente es por ineptitud emocional. [7]

5.1 Academia y Desempeño

Cada vez son más los empleadores que de los rasgos deseados por las empresas
solamente el último es académico los otros tienen que ver con la inteligencia
emocional, siendo la comunicación, las relaciones interpersonales y la iniciativa las
más deseadas por los empresarios como también la empatía, la posibilidad de ver las
cosas en perspectiva, la afinidad y la cooperación.
Los exámenes de ingreso a las universidades ponen el énfasis en el cociente
intelectual, es asombroso el poco peso que este tiene en el éxito laboral y en la vida.
Cuando las puntuaciones de las pruebas de inteligencia de una persona se comparan
con el desempeño de una persona en su carrera el cálculo más generoso atribuye al
cociente intelectual una incidencia del 25%, no obstante un análisis cuidadoso permite
pensar que sería más adecuado reducir esta cifra a no más de un 10% o 4%, esto
significa que el consiente intelectual por si solo deja sin explicación en el mejor de los
casos, un 75% del éxito laboral en el peor, un 96% ; en otras palabras no permite
determinar quién va a triunfar y quien fracasara. [8]
Muchas veces estos exámenes de ingreso tienen una correlación de 0 o negativa
con el posterior éxito profesional, paradójicamente, el consiente intelectual tiene
menos efectividad para pronosticar el éxito para aquellas personas con inteligencia
suficiente para manejarse en los campos de mayor inteligencia cognitiva, el valor de la
inteligencia emocional como instrumento del éxito se hace más poderoso cuando más
alto son las barreras de inteligencia para ingresar.
En aquellas carreras como medicina e ingenierías en donde la selección profesional
se concentra exclusivamente en aptitudes intelectuales la inteligencia emocional tiene
más peso que el cociente intelectual en cuanto a determinar quien surgirá como
líder.[9]

5.2 Aptitudes

La gran división en aptitudes reside entre la mente y el corazón o más técnicamente


entre la cognición y la emoción, algunas aptitudes son puramente cognitivas tales
como el razonamiento analítico o la pericia técnica. .[10]
Otras combinan el pensamiento y el sentimiento; son las que denominamos
aptitudes emocionales, todas las aptitudes emocionales involucran algún grado de
habilidades en el renio del sentimiento, junto con los elementos cognitivos que estén
en juego. Estos presentan un agudo contraste con las aptitudes puramente cognitivas,
que una computadora debidamente programada pueda ejecutar también como una
persona ejemplo una voz digitalizada puede leer las noticias del día pero su tono
embarado de su voz computarizada jamás podrá lograr el afecto y el sentimiento que
transmite la emoción de un ser humano, algo que ni la cognición humana por si sola ni

55
la computadora puede hacer al menos por ahora, pues nunca podrá darle a sus
palabras una potencia emocional pasión ni la posibilidad de interesar al televidente y
mucho menos influir sobre ellos, pues todo va ha depender de su capacidad emocional
para tener realmente un impacto significativo, pues por más fuerte poderosos y
convincente que sea el argumento no solamente le habla a la mente sino también al
corazón. Esta ajustada orquestación de pensamiento y sentimiento es posible gracias a
lo que equivale a una supercarretera dentro del cerebro, un manojo de neuronas que
conecta los lóbulos prefrontales detrás de la mente al centro de decisiones ejecutivas
del cerebro con una zona profunda del cerebro que alberga nuestras emociones.
Cualquier daño causado a estas conexiones cruciales torna emocionalmente inepta a
una persona, aunque sus facultades puramente intelectuales sigan intactas en otras
palabras esa persona aun obtendría una buena puntuación en los test de coeficiente
intelectual y otras medicines de capacidad cognitiva. Pero en el trabajo en la vida
social y emocional fracasaría en las artes emocionales que tornan tan efectivas a las
personas de éxito.
Por lo tanto la división ante las aptitudes puramente cognitivas y las que dependen
también de la inteligencia emocional reflejan una división paralela en el cerebro
humano.
Una actitud emocional es una capacitad aprendida basada en la inteligencia
emocional que originan un desempeño emocional sobresaliente que tiende a lograr
que otros respondan de manera deseada. En el fondo de esta aptitud hay dos
facultades la empatía que incluye la captación de los sentimientos ajenos y la
habilidad social que permiten manejar con habilidad esos sentimientos.
La inteligencia emocional determina nuestro potencial para aprender las
habilidades pre cognitivas que se basan en sus cinco elementos conocimiento de uno
mismo, motivación, autorregulación, empatía y destrezas para las relaciones. La
aptitud emocional muestra que porción de ese potencial hemos traducido a las
facultades que aplicamos a nuestro conocimiento y al trabajo por ejemplo ser hábiles
para servir a los clientes es una aptitud emocional basada en la empatía de igual modo
la confiabilidad es una aptitud que se basa en la autorregulación o en la capacitada de
manejar bien los impulsos y las emociones. Tanto el servicio a los clientes como la
confiabilidad son aptitudes por las que una persona puede destacarse en el trabajo.
Una elevada inteligencia emocional por si sola no garantiza que alguien haya
aprendido las aptitudes emocionales que interesan para el trabajo o su educación;
significa solo que tiene un excelente potencial para adquirirlas. Una persona puedes
ser sumamente empática, per ejemplo pero no haber adquirido las habilidades basadas
en la empatía que se traducen en la posibilidad de brindar un excelente servicio al
cliente y un alto grado de afectividad al conocimiento, ser un docente de primer nivel
o lograr que un grupo caracterizado por la diversidad se trabaje en equipo. Sería como
si alguien tuviera un registro perfecto y tomara lecciones de canto para convertirse en
un magnifico cantante de ópera. Sin las lesiones habría carrera en la música a pesar de
su potencial. [11]

56
5.3 Aptitud Emocional

Las aptitudes emocionales se arraciman en grupos cada uno basado en una facultad de
inteligencia emocional subyacente, esas facultades de inteligencia emocional
subyacente son vitales para que alguien adquiera efectivamente las aptitudes
necesarias para triunfar en el lugar de trabajo o en su vida académica. [12]
Si es deficiente en habilidades sociales será inepto en cuanto a persuadir e inspirar
a otros, dirigir equipos o catalizar el cambio. Si tiene poco conocimiento de si mismo
ignorara sus propias debilidades y carecerá de seguridad que brinda el tener
conciencia de sus propias fuerzas.
No será posible que alguien posea toda una serie de aptitudes emocionales pero
para tener un desempeño destacado solo se requiere que seamos duchos en un número
dado de estas aptitudes (al menos seis) y que esos puntos fuertes se extiendan a las
otras zonas de la inteligencia emocional.
Es decir hay muchos caminos que nos pueden llevar a la excelencia, estas
facultades de la inteligencia emocional son:
 Independiente, cada una efectúa una contribución inigualable al desempeño
laboral o académico.
 Interdependiente, cada una requiere hasta cierto punto de otra determinada
con muchas interacciones fuertes.
 Jerarquía plana, una facultad de la inteligencia emocional sirve de base a otra
e interactúan mutuamente, el autoconocimiento es crucial para la
autorregulación y la empatía; la autorregulación y el autoconocimiento
contribuyen a la motivación. Estas facultades operan en las habilidades
sociales.
 Necesarias, pero no suficientes poseer una facultad de inteligencia emocional
subyacente no garantiza que alguien escriba las actitudes asociadas tales
como la colaboración o el liderazgo. Factores tales como el clima de una
organización o el interés de una persona por su trabajo determinaran también
que la actitud se manifiesto o no.
 Genérica, la lista general es aplicable hasta cierto punto, a todos los trabajos,
sin embargo, en trabajos diferentes se requieren aptitudes diferentes.

Las firmas de alta tecnología siempre mantienen a la mano a estos brillantes


resolvedores de problemas, para que rescaten a los proyectos que corren peligro de
descarrilarsen, son tan valiosos que en las listas de informe anual figuran junto a los
funcionarios de las corporaciones y lo que los diferencia no es su potencial cerebral,
puesto que en estas compañías casi todos son muy inteligentes, sino su aptitud
emocional, su capacidad de escuchar, de influir, de colaborar y motivar a la gente para
que trabajen en un buen acuerdo.
Algunas personas pudieron haber llegado a la cima de una corporación pese a su
falencia de inteligencia emocional pero en la medida de que las relaciones y el trabajo
se tornan más complejas y colaborativo las compañías que trabajan bajo la
inteligencia emocional tienen mejores ventajas competitivas, en el nuevo mundo de
relaciones sociales, personales y laborales en donde se ha venido acentuando la

57
flexibilidad los equipos y una fuerte orientación hacia el servicio y el cliente, esta
crucial serie de aptitudes emocionales se van tornando cada vez más esenciales para la
excelencia y relaciones sociales en este mundo. [13]

6. Neuronas espejo

Las neuronas espejo son los órganos fundamentales en nuestra empatía y el


aprendizaje. Desde como aprendemos a hablar a conducir, desde cómo se nos
revuelve el interior cuando vemos el sufrimiento de otra persona siempre están detrás
las neuronas espejo. Este ha sido uno de los grandes descubrimiento de las últimas dos
décadas. Lo que nos permitiría llegar a considerarlas como la red invisible que une a
todos los seres humanos y sus precesores permitiendo la conexión entre las mentes y
la trasmisión de conocimiento y cultura mediante el aprendizaje.
Las neuronas espejo son el fundamento de la empatía, son las que nos permiten
intuir lo que esta cavilando el cerebro de quien tenemos al frente, situación que nos da
una ventaja comparativa, nos demoramos cincuenta mil años para saber porque
mecanismo podemos intuir lo que otro está pensando, lo que otro va hacer y lo que
otro está sintiendo, y esto gracias a las neuronas espejos.
Cuando observamos a otra persona se nos activa las neuronas espejo que tiene
como fundamento intuir lo que va hacer, lo que está sintiendo, o lo que posiblemente
está pensando, se sabía que el cerebro se divide en varios compartimentos unos para el
control motor otro para la visión, otro para escuchar y otro para pensar.
Pero hoy sabernos que cuando alguien agarra un objeto se activa en su cerebro y en el
nuestro una neurona semejante y a esto se debe el nombre de neurona espejo. Porque
para el observador es como si estuviera contemplando su propia acción en un espejo.
Así nos volvemos espejos de los demás mediante este mecanismo especular tan
sencillo, porque cada acción que hacemos ya sea el tomar un libro o un bolígrafo,
existe siempre una intención subyacente un estado mental tras esa acción así nos
convertimos en espejos de los demás y se nos permite acceder a su mente y al estado
mental que los condujo a actuar.
Las neuronas espejo son fundamentales en los procesos de aprendizaje y adquisición
de conocimiento ya que son estas las que nos permiten la generación y aprensión de
conocimiento y la interacción con nuestros semejantes y con el medio. [14]

7. Conclusiones

La sociedad tiene un hacer por alcanzar protagonismo en la toma de conciencia, en


generar una cultura de cooperación, de unidad, de convivencia, por que se han
modificado los papeles, naciendo una revolución para mejorar la calidad de vida, con
culturas más que compartidas comprendidas, posibilitando estrategias en valores,
integrando culturas y razas, con una educación intercultural, con sociedades
multiculturales ante la influencia temprana de la neurociencia en el desarrollo de la
inteligencia social, ecológica y emocional del individuo, siendo esta de mayor eficacia
si es aplicada en la infancia , teniendo como objetivo principal una convivencia

58
pacífica, contribuyendo a formar el marco de la globalización de la comunidad en el
nuevo entorno de cultura compartida a través una mayor participación en el desarrollo
integral del ciudadano de Colombia e ir más allá para abrir puertas a los nuevos
planteamientos de un ciudadano integral con marco extraterritorial.
Generar espacios organizacionales en donde se fomente la influencia de la
neurociencia en ambientes laborales en nuestro país, con tendencias hacia crear una
cultura organizacional, en donde nos posibilite un nuevo horizonte económico,
teniendo presente que no son las maquinas, las que nos van a ayudar, sino que el valor
fundamental se encuentra en nuestro capital humano, para solucionar los problemas
económicos, sociales, y de migración para no incrementar mas la pobreza de nuestro
país
La importancia que tienen los medios de comunicación y más aun en estos tiempos
multimediales con un lenguaje visual o grafico, en los que estos interfieren
plenamente en el pensamiento y actúan en diferente medida, en la sensación, la
intuición y el sentimiento, es por esto tan importante la aplicación de la neurociencia
en los medios de comunicación para la transferencia del conocimiento y en compartir
experiencias, para promover una sociedad más tecnológica pero más humana, con una
mayor inversión en desarrollo educativo, es lo único que nos podría ayudar a salir de
la problemática actual de violencia, intolerancia, inseguridad.
La importancia de la inteligencia emocional en los procesos educativos, en los
desarrollos sociales como la paz y convivencia entre los pueblos haciendo necesario y
fundamental una educación basada en la inteligencia emocional como único camino a
la paz y al bienestar y la felicidad de los colombianos.

References
1. Fernández Villegas, Miguel : Como agua entre los dedos. (eds)Aljibe 100—120. España
(2010).
2. Vivas Mireya, Gallego Domingo, Gonzalez Belkis pp.142 20—40 (2007)
3. Yañez Carlo M: Sistema de Gestión de calidad en base a la Norma ISO 9001.
http://www.internacionaleventos.com/Articulos/ArticuloISO.pdf Carlo M.Yañez. Accedido
el 05 de Septiembre de 2010
4. Evans Dylan : Emocion la ciencia del sentimiento. (eds) Editorial Taurus. pp 200 130—160
(2002)
5. Mora Francisco : El cerebro sintiente pp 224 180-190 Barcelona (2000)
6. Grande del Brio, Ramon : Las bases Ecológicas del comportamiento humano pp 212 35—
80 Valencia (2008).
7. Ledoux, Joseph : El cerebro emocional (eds) Planeta pp 440 325—337 Barcelona (1999)
8.Codina Alexis: Inteligencia emocional para el trabajo gerencial.
http://www.degerencia.com/articulo/inteligencia_emocional_para_el_trabajo_gerencial
Accedido el 20 de Agosto de 2010
9. Goleman, Daniel. Inteligencia emocional en la Empresa. (eds) Vergara 250—340
10. http://www.slideshare.net/jcfdezmx6/inteligencia-emocional-1626264 Diferencia entre el
coeficiente intelectual y emocional Enrique Benjamin Franklin
11. Purves, Dale: Neurociencia. (eds.) Medica Panamericana 2006. 912 pp. 148--158.
12. Goleman, D. (2008). La inteligencia emocional. Por qué es más importante que el cociente
intelectual. Uruguay. Editorial Zeta.

59
13.Rodriguez Dario, Majluf Nureya Nicolas, Abarca Majluf,: El nuevo mundo de las relaciones
laborales http://www.uc.cl/laucmiraachile/pdf/19_nuevo_%20mundo_laboral.pdf. Accedido
el 3 de Septiembre de 2010
14. Iacoboni,Marco : Las neuronas Espejo. 270, 195--197 (2009)

60
Marco Normativo de Investigación Científica, Tics
Desarrollo Tecnológico y Procesos de Innovación, I+D+I
en Colombia

Giovanny M. Tarazona 1, Víctor H. Medina 2, Jose I. Palacios 3

1
Dea Ingeniería Informática UPSAM Docente Universidad Distrital
Bogotá D.C., Colombia
2
Dr. Ingeniería Informática UPSAM, Docente Universidad Distrital
Bogotá D.C., Colombia
3
Dea. En Dirección y Administración de Empresas Universidad Pablo de Olavide
Sevilla España, Docente Universidad Distrital
Bogotá D.C., Colombia

1
gtarazona@udistrital.edu.co, 2vmedina@udistrital.edu.co
3
jpalacios@udistrital.edu.co

Abstract. Colombia is sanctioned in the Law of Science Technology and


Innovation amending Act 29 of 1990 and the 1341 Act, "which is
defined by principles and concepts of Information Society and
organizing Technologies Information and Communication Technology
(ICT), establishing the National Agency for Spectrum and other
purposes "by opening a planning horizon for the country in relation to
technological development based on scientific research and innovation
processes, with clear commitments State for the promotion and
investment in science and technology with goals, targets and strategies
defined, within which scientific and technological training for human
resource is the game that encourages research in the country, as a
culture according to the call knowledge society, where the vision
focuses not only on the topics of telecommunications, but geared to the
Information Technology and Communications, which implies a more
comprehensive and integrated concept of development. This article
presents the essential elements of the new regulatory framework that
would enable research and development in Colombia and the mediation
of ICT in such purpose.

Resumen. Durante el 2009 se sanciono en Colombia la Ley de Ciencia,


Tecnología e Innovación que modifica la ley 29 de 1990 y la Ley 1341,
"Por la cual se definen principios y conceptos sobre la Sociedad de la
Información y la organización de las Tecnologías de la Información y
las Comunicaciones (TIC), se crea la Agencia Nacional de Espectro y se
dictan otras disposiciones" abriendo un horizonte de planeación para el

61
país en relación al Desarrollo Tecnológico con base en la Investigación
Científica y los Procesos de Innovación, con claros compromisos del
Estado para el fomento y la inversión en ciencia y tecnología, con
objetivos, metas y estrategias definidas, dentro de las cuales la
formación científica y tecnológica para el recurso humano es la partida
que incentiva la investigación en el país, como cultura acorde a la
llamada sociedad del conocimiento, donde la visión enfoca no sólo a las
temáticas de las telecomunicaciones, sino orientada a las Tecnologías de
la Información y las Comunicaciones, lo que implica un concepto más
amplio e integrado de desarrollo. Este artículo presenta los elementos
esenciales del nuevo marco normativo que posibilitara la investigación
y el desarrollo en Colombia y la mediación de las TIC en tal propósito.

Palabras Clave: Desarrollo tecnológico, investigación científica,


innovación.

1 Introducción

La transformación de Colciencias de un organismo de dirección y coordinación del


Sistema Nacional de Ciencia y Tecnología a un Departamento Administrativo de
Ciencia, Tecnología e Innovación establecido en la ley 1286 de 2009, define no solo
una nueva estructura organizacional sino una serie de funciones especificas que
permiten como objeto fundamental utilizar la investigación para dar valor agregado a
los productos y servicios del país y facilitar la creación de una nueva industria
nacional recurriendo a la tecnológica como eje fundamental, que permita un
crecimiento sostenido de la economía con estabilidad laboral y mayor seguridad social
dado que además de invertir en ciencia, tecnología e innovación se tiene que ofrecer
empleo seguro y bien remunerado.

2 Marco Normativo

La Ley sobre Ciencia, Tecnología e Innovación fue creada con el fin de establecer
unos parámetros legales genera el ambiente de consolidar una cultura investigativa
que sustente el desarrollo social, económico, político y cultural en Colombia.
Ley 29 de1990 inicia generado con pocos artículos, lo cual se puede justificar
porque es la primera Ley de esta índole que se establece. Con el pasar de los años esta
Ley viene a ser modificada y sustituida por la Ley 1286 de 2009, la cual es más
específica y robusta respecto a la anterior, donde mantiene el compromiso del
gobierno y de entidades privadas, y además plantea los objetivos a cumplir en caso de
implementarla.

62
Tabla 1. Comparativo estructura de las leyes de ciencia y tecnología (ley 1990 - ley 1286 2009).

LEY 29 de 1990 LEY 2009


Art. 1: Promoción y Capitulo 1: Capitulo 4:
Orientación. DISPOSICIONES FINANCIAMIENTO
Art. 2: Desarrollo de GENERALES Art. 22: Fondo nacional
condiciones favorables Art. 1: Objetivo general. Art. 23: Régimen
para el desarrollo. Art. 2: Objetivos contractual y
Art. 3: Presupuesto. específicos. presupuestal.
Art. 4: Vigencia Fiscal Art. 3: Base de Art. 24: Recursos del
Art. 5: medios consolidación de políticas. fondo.
conducentes a la Art. 4: Principios y Art. 25: Rendición de
transferencia de la criterios. cuentas y seguimiento.
tecnología. Capitulo 2: Art. 26: De los recursos.
Art. 6: Ventajas de COLCIENCIAS Art. 27: Aporte de
Orden Fiscal. Art. 5: Transformación. entidades territoriales.
Art. 7: Apropiaciones Art. 6: Objetivos generales. Art. 28: Proyectos
presupuestarias Art. 7: Funciones. regionales de inversión.
Art. 8: Autorización a Art. 8: Estructura orgánica. A29: Operaciones
Colciencias. Art. 9: Bienes, derechos y autorizadas al fondo.
Art. 9: Contribución del obligaciones. Art. 30: Publicidad de
exterior. Art. 10: Continuidad de trasparencia.
Art. 10: Espacios de relación. Art. 31: Consejo nacional
divulgación. Art. 11: Presupuesto. de beneficios tributarios.
Art. 11: Pautas Para el Art. 12: Consejo asesor. Art. 32: Sistema de
Estado. Art. 13: Funciones del información.
Art. 12: Regirá desde la consejo asesor. Capitulo 5:
fecha de su Art. 14: Participación. DISPOSICIONES
promulgación. Art. 15: Régimen de VARIAS
transición. Art. 33: Actividades,
Capitulo 3: contratos y convenios.
INSTITUCIONALIDAD Art. 34: Ámbito social.
Art. 16: Sistema nacional. Art. 35: Vigencia y
Art. 17: Objetivos del derogatorias.
sistema nacional.
Art. 18: Actividades.
Art. 19: Coordinación.
Art. 20: Componentes del
sistema.
Art. 21: Marco de
inversión.

Se puede observar, en proporción, que la densidad de la nueva Ley es mayor con


base a cantidad y especificaciones de la ley, para que cumpla con más objetivos y
restricciones, y sea una norma más verídica y obligatoria, por sus pautas, tanto para el

63
estado como para las demás entidades. Al tener esta Ley nuevas más específica,
establece roles en diferentes entidades del gobierno, a quienes les asigna unos
objetivos a cumplir a cabalidad, y de los cuales depende el desarrollo de la ciencia y
tecnología, y el cumplimiento de la misma ley. Ahora bien, no solo es un problema de
más normatividad, sino de mecanismos que buscan institucionalizar y generar
apropiación de los procesos de Innovación y Desarrollo en las políticas estatales de
Colombia. Tal como se aprecia, la Ley 1286, define no solo una estructura
organizacional de Colciencias, sino también define otros mecanismos de
funcionamiento, que garantiza el cumplimiento de la misma.
Con base a lo dicho por Jaime Restrepo Cuartas [1], autor de la iniciativa
legislativa ―la nueva ley eleva a Colciencias a la categoría de un departamento
administrativo de orden nacional. Aumenta los recursos para investigación al uno por
ciento del Producto Interno Bruto, PIB, cuando estábamos en el 0.19 por ciento.
Busca la regionalización de la ciencia, en los departamentos de menor desarrollo y
apoya la unión con el sector productivo. Crea los consejos regionales de tecnología,
autoriza a los gobiernos locales y regionales a crear instancias que manejen el tema; y
todos los departamentos tendrán representación en el Consejo Nacional‖
Se muestra el crecimiento de la importancia de la Ciencia, de la tecnología y de la
innovación, no solo en los departamentos del país más desarrollados, sino también en
aquellas regiones y poblaciones rurales, que tiene la oportunidad de demostrar su
conocimiento en este ámbito.
En términos de Pérez [2] la nueva Ley orienta la educación superior, dando
importancia a la educación por excelencia que direcciona procesos de investigación,
donde desde la enseñanza se estimula la investigación, la generación de conocimiento
y el acceso a las tecnologías de la Información, como medio de integración de saberes.
Igualmente, para este autor, se observa un incremento en el número de profesionales
que contribuyen a la generación de conocimientos, lo que permite que tanto
académicos como empresarios accedan a nuevas ―rutinas tecnológicas‖.
La nueva ley cambiará el modelo productivo colombiano, pues se generan más
recursos para la investigación, fortalecerá el proceso de regionalización de la ciencia y
dará solución a los constantes problemas que existen en la relación entre el sector
empresarial y científico del país. “Esta ley busca darle un valor agregado a todos los
productos y servicios en el país y crear una nueva industria nacional de base
tecnológica, que posibilite el desarrollo productivo a largo plazo y ofrezca empleos
más estables a los colombianos”. [3]

2.1 Ley 1341 De 2009

Con la expedición de la Ley 1341, "Por la cual se definen principios y conceptos


sobre la Sociedad de la Información y la organización de las Tecnologías de la
Información y las Comunicaciones (TIC), se crea la Agencia Nacional de Espectro y
se dictan otras disposiciones", se modifica la estructura en la prestación de los
servicios de telecomunicaciones del país, migrando del esquema normativo inspirado
en la clasificación de los servicios de la UIT que se plasmó en la ley 72 de 1989 y el
decreto ley 1900 de 1990, a un modelo de título habilitante convergente, que incluye

64
la prestación de todos los servicios de telecomunicaciones indistintamente. Este
cambio normativo, el más importante en el sector en los últimos 20 años, recoge los
principios de política que ya había plasmado el entonces Ministerio de
Comunicaciones en el decreto 2870 de 2007.
Uno de los puntos más importantes, es la visión enfocada no sólo a las temáticas de
las telecomunicaciones, sino orientada a las Tecnologías de la Información y las
Comunicaciones, lo que de suyo implica un concepto más amplio e integrado. Durante
más de diez años, el sector discutió y esperó una ley que entendiera los fenómenos
convergentes que estaban transformando el sector de las telecomunicaciones, y que de
alguna manera no permitían una claridad en las reglas del juego para todos los
operadores.
Esta Ley 1341 de 2009 tiene un significado muy importante, pues después de 10
años de debates sectoriales se materializa esta iniciativa, en una ley que no sólo abarca
el sector de las telecomunicaciones, sino que lo integra como uno solo en el sector de
las Tecnologías de la Información y las Telecomunicaciones, generando así un marco
normativo convergente y con condiciones equilibradas para todos los operadores. De
tal forma, que se garantiza el derecho a la comunicación, la información y el acceso a
las TIC en un marco de inclusión social, con diferentes proyectos [4].
Desde el Ministerio de TIC, deberá desarrollarse la reglamentación que permita el
cumplimiento de los fines de incorporación de todos los colombianos, a la sociedad de
la información, mandato supremo de la ley.

2.2 Principios orientadores

La investigación, el fomento, la promoción y el desarrollo de las Tecnologías de la


Información y las Comunicaciones son una política de Estado que involucra a todos
los sectores y niveles de la administración pública y de la sociedad, para contribuir al
desarrollo educativo, cultural, económico, social y político e incrementar la
productividad, la competitividad, el respeto a los Derechos Humanos inherentes y la
inclusión social:

Prioridad al acceso y uso de las Tecnologías de la Información y las Comunicaciones.


Libre competencia.
Uso eficiente de la infraestructura y de los recursos escasos.
Protección de los derechos de los usuarios.
Promoción de la Inversión.
Neutralidad Tecnológica.
El derecho a la comunicación, la información y la educación y los servicios básicos de
las TIC.
Masificación del Gobierno en Línea.

Creación de la Agencia Nacional de Espectro

La Agencia Nacional del Espectro estará representada, dirigida y administrada por un

65
Director General, quien será nombrado por el Ministro de Tecnologías de la
Información y las Comunicaciones, por un período de cuatro (4) años, reelegible por
una vez. El Gobierno Nacional a través del Ministerio de Tecnologías de la
Información y las Comunicaciones reglamentará la materia.

Resumen de las funciones del Director de la Agencia Nacional de Espectro

Administrar en forma eficaz y eficiente los recursos financieros, tomar decisiones


establecidas en la ley, inherentes a sus funciones.
Ejecutar el presupuesto, nombrar y remover funcionarios de acuerdo con la
normatividad vigente.
Prepara el manual de funciones y requisitos de los empleados de la planta de personal
y velar por su cumplimiento.
Fijar las políticas y procedimientos para la atención de peticiones, consultas, quejas,
reclamos, sugerencias y recepción de información que los ciudadanos formulen en
relación con la misión y desempeño de la Agencia.
Asesorar y acompañar al Ministerio de Tecnologías de la Información y las
Comunicaciones en las negociaciones internacionales, cuando se requiera.

3 Oportunidades y retos del nuevo marco normativo

3.1 Oportunidades

El interés que se muestra por parte del gobierno nacional por apoyar la actividad
investigativa en ciencia y tecnología, como una vía para generar competitividad en la
industria colombiana. Al implementar un nuevo mecanismo de financiación basado en
recursos provenientes del Fondo Nacional de Regalías, es posible crear un mayor
nivel de desarrollo en las regiones, y disminuir en cierta manera la inequidad que en la
actualidad se vive en relación con la repartición de los recursos públicos.La propuesta
de hacer que el desarrollo del conocimiento no sea exclusivo de los entes académicos
del país sino también del sector productivo nacional. La generación del nexo entre la
academia, el Estado y la empresa debería resultar muy productiva, tal y como ocurre
en países industrializados. Su cumplimiento conllevaría a la competitividad de la
industria que en últimas lleva al mejoramiento de la calidad de vida de la sociedad y
estos réditos son bien distribuidos y no quedan en pocas manos. La creación de
unidades regionales de investigación científica e innovación permite que en realidad
exista un lineamiento de desarrollo regional y descentralización, lo cual se ha
discutido durante mucho tiempo pero no se ha materializado en acciones
concretas.Una mayor sinergia entre los entes relacionados con la labor de impulsar el
desarrollo de la ciencia y la tecnología, pues al darle a COLCIENCIAS el carácter de
Departamento Administrativo, y permitir que asista a los CONPES, existe una mayor
interlocución con instituciones de sector político así como educativo. Esta

66
participación más activa permite que se le dé una mayor relevancia a las actividades
relacionadas con el impulso de la ciencia y la tecnología, además que se puede influir
en la orientación que tengan las políticas gubernamentales.
La creación del Consejo Nacional de Beneficios Tributarios en Ciencia, Tecnología e
Innovación se convierte en un mecanismo importante para estimular la inversión en
tecnología al interior de las empresas e instituciones educativas.

3.2 Retos

La nueva Ley de Ciencia y Tecnología soporta toda una estructura que puede ser
totalmente ineficaz sino es apoyada con los recursos necesarios para implementar la
infraestructura adecuada para lograr todo lo propuesto, o si no se cumple a cabalidad
con ello. Esto afectaría negativamente al país por las expectativas generadas con su
creación, que de por sí era urgente fuese efectuada.
Con la nueva potestad que se le otorga a las Asambleas departamentales y Concejos
municipales para ordenar la creación de unidades regionales de investigación
científica e innovación, existe el riesgo de que se levanten barreras contra ello pues
los recursos para su realización deben provenir de sus fondos regionales de fomento.
A menos que el Gobierno entregue una mayor cantidad de partidas por este concepto,
los departamentos y municipios pueden encontrarse con limitaciones para cumplir con
la creación de dichas instituciones.
La concepción de los empresarios colombianos de ver a la investigación, desarrollo e
innovación como un gasto, o una inversión con rendimientos mínimos, y no como un
mecanismo para la elaboración de productos y prestación de servicios con valor
agregado, que únicamente se logra a través de la generación de conocimiento. Lo
anterior se convierte en una limitante a la ley, que contempla al sector empresarial
como uno de los pilares fundamentales para el desarrollo del modelo productivo
sostenible que se busca establecer en el país.
Se encuentra una deficiencia en el alcance que tiene la nueva Ley y es que no existe
una posición clara en términos de la destinación que se haga del PIB a Ciencia y
Tecnología, lo cual no se comenta en el texto aprobado por el Congreso.
Consideramos que esta situación puede generar dificultades en el largo plazo, pues se
convertiría en una política del gobierno de turno, y no de Estado, como debería ser.

4 Sostenibilidad del Desarrollo Socio-Económico Apoyado por


las tics

En la actualidad, se reconoce el impacto de las TIC en la competitividad, su potencial


para apoyar su inserción en la economía globalizada e impulsar el desarrollo
económico y social de los países. Estos beneficios sólo pueden convertirse en
resultados concretos a medida que la sociedad se apropie de estas tecnologías y las
haga parte de su desempeño cotidiano. Es decir, con comunidades o usuarios o

67
beneficiarios preparados que utilicen las TIC, se puede lograr una verdadera
transformación económica y social. [5]
Un dominio amplio de estas tecnologías en el sector público y privado es una
condición necesaria para reducir la pobreza, elevar la competitividad y alcanzar el tan
ansiado desarrollo sostenido de los países. De ahí que es necesario adoptar una serie
de acciones y estrategias que permitan la expansión y adecuación del uso de las TIC
en los diferentes sectores de la comunidad y en particular la vinculación de las
personas quienes generaran nuevas formas de desarrollo. [6]
Muchos gobiernos de países desarrollados y emergentes han tratado de avanzar
durante los últimos años hacia un modelo de desarrollo que se ha denominado la
Sociedad del Conocimiento (SC) en concordancia con la Cumbre Mundial de la
Sociedad de la Información (http://www.itu.int/wsis/index-es.html) que involucra y
fortalece los sectores productivos, económico y social. Para ello, se han desplegado
diferentes planes y estrategias para impulsarlo.
Los países que han adoptado planes estratégicos de TIC han avanzado más
rápidamente en los ejes de acción establecidos como prioritarios. Ejemplo de ello son
la Unión Europea (Plan Avanza2) [7] y países como Finlandia, Corea, Singapur,
Estados Unidos, Canadá y en Latinoamérica [6] y Chile entre otros. Todos ellos han
implementado progresivamente planes de TIC exitosos que les han asegurado los
primeros lugares no solamente en los indicadores de preparación para el modelo de la
Sociedad de la Información y del Conocimiento (SIC), sino también en aquellos que
miden la competitividad.

4.1 Ejes de acción

Para lograr una mejor apropiación de TIC en la sociedad e involucrar a Colombia en


dicho marco, se requiere actuar en distintos campos que de acuerdo a las debilidades
detectadas en los indicadores internacionales en temas específicos de preparación, uso
y aprovechamiento de las TIC, se ha generado un modelo compuesto por ocho ejes
definidos en el Plan de TIC 2008 – 2019 [8], de los cuales cuatro son ejes
transversales (comunidad; gobierno en línea; investigación, desarrollo e innovación; y
marco normativo, regulatorio e incentivos) y cuatro ejes verticales (educación, salud,
justicia y competitividad empresarial).
Los ejes transversales contienen acciones que influyen en todos los sectores. Los
ejes verticales enmarcan las acciones de uso y apropiación de TIC en sectores
específicos considerados críticos.

4.2 Modelo institucional para el Plan de TIC

Hay que desarrollar mecanismos para que se pueda ejercer una coordinación
interinstitucional entre las distintas entidades del Gobierno que deben participar en él,
al igual que con el sector privado, la academia, los centros de investigación y la
sociedad civil.
Para ello se requiere un modelo institucional que asegure esa permanencia y

68
coordinación. Este modelo debe además tener un fuerte componente de participación
y responsabilidades regionales, tanto en el manejo de los programas y proyectos como
en los recursos que se destinen a ellos; y que desarrolle sus actividades en completa
alineación con el Sistema Nacional de Competitividad, coordinado por la Alta
Consejería para la Competitividad. Ejemplo de ello, es el programa PlanEsTIC del
Ministerio de Educación, el cual busca fortalecer el uso TIC en los procesos
educativos de las instituciones de Educación Superior
(http://comunidadplanestic.uniandes.edu.co/), caso similar ser observa con los
proyectos de la Corporación Colombia Digital (http://colombiadigital.net/) proyectos
orientados al sector educativo, productivo y gubernamental.

4.3 Programas y proyectos

Dentro de los principales programas y proyectos que se propone ejecutar el Plan


Nacional de TIC [8], se analiza en cada uno de ellos: objetivo, antecedentes, alcance,
estrategia de implementación, grupo que impacta, entidad(es) responsables, metas,
indicadores, presupuesto y financiación, estos son:

Eje Comunidad: Banco de Proyectos.


Acuerdo Público Privado por la Conectividad Digital. Pacto social digital.
Creación de una cultura nacional de uso de TIC.
Proyecto seguridad informática para el sector privado.
Eje de Gobierno en Línea
Servicios de Gobierno en Línea.
Intranet Gubernamental.

Eje de Investigación, desarrollo e innovación


Centro de formación de alto nivel en TIC.
Centro Nacional de Investigación, Desarrollo e Innovación en Bioinformática y
Biocomputación.
Centro de Investigación de Excelencia en Electrónica, Telecomunicaciones e
Informática (ETI).

Eje de Educación
Programa de Uso de Medios y Nuevas Tecnologías.
Componente uso de TIC.
Computadores para Educar.
Fortalecimiento de la Red Nacional Académica de Tecnología Avanzada
Innovación Educativa en e-learning.
Servicio Nacional de Aprendizaje.

Eje de Salud
Sistema Integral de Información de la Protección Social.
Telemedicina.

69
Eje de Justicia
Modernización Tecnológica de la Administración Judicial.

Eje de Competitividad empresarial


Observatorio de TIC.
Estrategia de MiPymes digitales.

Ahora bien, estos ejes definidos por el Plan TIC para Colombia, encuentra un
mayor soporte y respaldo con la Ley 1341 de TIC, en la medida que se fortalecerá la
puesta en marcha los diferentes ejes mencionados. Es así como desde la perspectiva
de la Ley se definen las TIC como ―conjunto de recursos, herramientas, equipos,
programas informáticos, aplicaciones, redes y medios que permiten la compilación,
procesamiento, almacenamiento, transmisión de información como: voz, datos, texto,
video e imágenes‖ (Articulo 6), de tal forma que estos ejes son considerados por la
Ley. Es de observar, que desde el gobierno Nacional, Colombia progresivamente se
ha involucrado en la llamada Sociedad de la Información, iniciando con el proyecto
de la Agenda de Conectividad, que hoy se enmarca en el proyecto de Gobierno en
Línea y por lo tanto en la nueva Ley.
De acuerdo con lo anterior las IES, debe iniciar y fortalecer programas y planes
estratégicos de TIC, con el firme propósito de generar proceso de inclusión social,
democratización en el acceso a la información y redes de conocimiento, así como
también, apoyar programas y proyecto de investigación que reduzca la brecha
tecnológica y ampliando cobertura de calidad mediada por las TIC.
De otra parte y como una característica propia de las TIC, la descentralización de
procesos y la ruptura de la relación tiempo - espacio, permite y facilitan el intercambio
de información, conocimientos, junto con la aparición de redes interorganizacionales,
de tal forma que se logra un mayor y más eficiente acercamiento de las IES con el
sector productivo y la sociedad. Ejemplo de ello, se observa con proyectos como:
PlanEsTIC, representado por la creación del Plan Estratégico en TIC para la IES
(http://comunidadplanestic.uniandes.edu.co/), o bien UDtecnovirtual
(http://www.udtecnovirtual.org/) proyecto de Universidad Distrital, igualmente para
las empresas está entre otros el proyecto de Colombia Digital
(http://colombiadigital.net), Colnodo (http://colnodo.org/index.shtml?apc=I1----
&s=s&m=I), proyectos que se orientan procesos de inclusión social.
Son solo estos un par de ejemplos del sin número de acciones que se están
desarrollando y que se deben desarrollar en el marco de la Ley y del Plan de TIC,
proyectos y programas que deben tener un visión integradora y convergente, con la
participación de la Universidad, la Industria y la Políticas Gubernamentales.
Las IES por su parte cuentan con un importante número y valiosos talento humano,
que está capacitado y en formación para procesos de Investigación, Desarrollo e
Innovación, por su parte del Industria demanda desarrollo de tecnología, aplicaciones
informáticas, gestión y almacenamiento de información, entre otras necesidades y por
su parte la Ley de TIC, fomenta precisamente este tipo de requerimientos y es aquí
donde se deben crear redes interorganizacionales e intersectoriales.

70
5 Investigación Desarrollo e Innovación

La preocupante carencia de una cultura de investigación en el país origina que la


inversión en este campo no se considere como una estrategia de desarrollo para las
empresas, siendo el problema no solo de fondos para la investigación científica sino
de políticas claras para su administración que se dispone y se aclara en la nueva ley de
ciencia, tecnología e innovación.
La ciencia, la tecnología y la innovación son cruciales para el desarrollo
tecnológico, aprovechadas adecuadamente, pueden impulsar el crecimiento y reducir
la pobreza, lo que propicia una Economía de Conocimiento [4]. Pero no son
suficientes por sí solas, deben estar combinadas con muchos otros factores que,
agrupados, determinan el proceso de innovación reconociendo la relevancia de
invertir en ciencia para construir la economía, sin olvidar la necesidad de la
cooperación de una sólida infraestructura de instituciones científicas, laboratorios y
hospitales que conlleven a la formación de profesionales capacitados para traducir los
avances científicos en avances económicos con acceso a investigación actualizada y a
fuentes de información.
Por lo que el trabajo en equipo del estado, el sector educativo y el productivo es
de gran valor para el desarrollo de un país. En este sentido se lanza por parte de
Colciencias el programa ―Generación del Bicentenario‖ [9], como estrategias
centrales en la formación de investigadores población que en la gran mayoría están en
las universidades, siendo entonces necesario el fomento de los grupos de investigación
en la instituciones de educación superior y que por lo tanto requieren de mayor
atención y apoyo a la formación avanzada de investigadores, así como mayor facilidad
de acceso a la educación para la población en general.
Dicho programa cuenta con las siguientes dimensiones: 1) Formación Doctoral
Francisco Jose de Caldas, al año 2009 se han apoyado 500 doctores; 2) Jóvenes
Investigadores Virginia Gutiérrez de Pineda que apoya a los pasantes a los grupos de
investigación reconocidos en Colciencias
Programa que tiene como meta apoyar 800 Jóvenes Investigadores al año para lograr
un acumulado de 8.000 beneficiarios al 2019 [9] y 3000 doctores graduados, lo que
muestra un claro compromiso no solo del estado sino de todo los participantes en
estos procesos de formación que no desean solo aumentar el número de personas con
doctorados si no a su vez el desarrollo tecnológico e innovación a través de un alto
nivel de investigación con aportes claves para la sociedad y el sector productivo.

5.1 Inversión

Se puede apreciar el crecimiento del nivel de inversión en Colciencias con picos en


los años 95 y 97 y disminuyendo al finalizar los 90 recordando la crisis económica
que sufrió el país para aquella época que puede ser una explicación, a partir del 2000
inicia una recuperación y crecimiento hasta lo calculado para el año 2008.
De esta reforma de la ley, se puede concluir que es necesario darle la importancia
que se requiere a los estudios de ciencia, tecnología e innovación, y facilitar los
recursos, tanto el estado como también lo pueden hacer empresas del sector privado,

71
para desarrollar avances en este ámbito a nivel nacional, regional y de parte las
poblaciones rurales, que demostraría un desarrollo en este aspecto sin importar las
condiciones de la persona que se interese por fomentar el conocimiento.
El presupuesto es un aspecto condicional, para que todos esos estudios y alcances
se hagan realidad, por eso es importante que Colciencias, como representante,
gestione el aumento de recursos económicos, tecnológicos y espaciales, para poder
levar a cabo el desarrollo de los proyectos y así mostrar las diferentes propuestas de
las personas dedicadas a este tipo de estudios.

6 Universidad –Empresa

La relación actual entre empresas y las universidades en el país es bastante distante,


pese que ―La colaboración entre la academia y el sector empresarial en Colombia es
una de las mejores de América Latina, según el informe del Foro Económico Mundial
(FEM)‖ [10], aunque a nivel latinoamericano, nada comparable con las experiencias
en países desarrollados, por lo que las universidades deben hacer un mayor esfuerzo
para gestionar las relaciones de mutuo beneficio entre la academia y los sectores
productivos, surgiendo la necesidad de un seguimiento sistemático de la inserción
laboral de sus egresados, hoy en día un graduado no goza de beneficios por convenios
institucionales en la gran mayoría de las empresas.
Además la gestión de la universidad no puede limitarse a solo la medición en la
cantidad de estudiantes o en lo impartido durante el periodo de formación, sino por la
repercusiones de sus egresados en los sectores económicos y productivos del país
[11] y se logra con la participación activa de las empresas en el establecimiento de los
planes de estudio, ya que se determinan las necesidades reales del mercado y las
competencias requeridas por los empleadores de un profesional, organizando de
manera efectiva por ejemplo las practicas de los estudiantes como alternativa a la
promoción de empleos y la aplicación de investigaciones que no pueden quedarse en
el archivo de las tesis y ser solo un requisito de grado sin valor de uso ni valor
comercial, en términos generales dado que no se puede olvidar los proyectos actuales
de algunas universidades.
Es importante que los planes de estudios y currículos articulen también sus
contenidos y syllabus considerando las exigencias del entorno y de la industria, Para
el investigador Bruner es necesaria un redefinición del rol de la universidad frente al
sector productivo argumentando que ―Las Universidades tienden todavía a definir sus
currículos nada más que desde el lado de la oferta y en términos de "contenidos", sin
preocuparse de la demanda ni de definir claros perfiles de competencias (genéricas y
específicas) requeridas por el mercado laboral. De allí la brecha‖ [12] la brecha que se
genera en la transferencia de conocimientos al entorno socioeconómico puesto que la
oferta difiere con la demanda, para ello se debe buscar establecer y fortalecer
convenios de colaboración entre empresa y la Universidad, creando estrategias para
ello. Uno ejemplo de ello es el modelo usados en México, reconocido como la tripe
hélice [11] (académica, industrial y estado, actores que integran grupos de trabajo
universidad - empresa; programas de emprendimiento y desarrollo de competencias y

72
habilidades que la empresas requieren, acciones realizada en conjunto)
La nueva ley no contempla la participación de las universidades públicas como los
entes académicos del estado para la administración de las actividades, los fondos y
demás de la ciencia, la tecnología y la innovación del país, que puede generar
preguntas a cerca de la imagen distorsionada actual de la universidad pública que
puede verse relegada a participaciones de peso como lo establecido en la Ley 1286 de
2009 en donde no se define ninguna responsabilidad para las universidades públicas,
solo las alianzas estratégicas de universidad - empresa como objetivo No 8 del
Sistema Nacional de Ciencia, Tecnología e Innovación - SNCTI-. Difiriendo con el
decreto 585 de 1991 en el que claramente se definió las responsabilidades del rector
de la Universidad Nacional, así como la asignación de responsabilidades a un rector
de la universidad privada.

Referencias

Restrepo C., "La Crisis Económica y la nueva Ley de Ciencia, Tecnología e Innovación Ley
1286 de 2009 - Debate Nacional - Desarrollo," Bogotá, D.C, 2009.
Pérez T. J, "Universidad y gerencia en el medio internacional," Universidad & Empresas,
Universidad del Rosario, vol. 17, pp. 156 - 182, 2009.
Universidad Nacional, "Ley de Ciencia, Tecnología e Innovación Cambiará modelo de
productividad colombiano." vol. 2009, 2008.
CINTEL, "Panorama de las Tecnologías de la Información y la Comunicaciones en Colombia,"
Bogotá D.C., Ed., 2010.
Mohsen K. Philippe D., "Visión General - Cap 1," Información y Comunicación para el
Desarrollo 2009 - Banco Mundial, 2009.
Pineda M., "Desafíos actuales de la sociedad del conocimiento para la inclusión digital en
América Latina," Anuario electrónico de estudios en Comunicación Social, vol. 2, 2009.
Gobierno de España, "Estrategias 2011 - 2015 Plan Avanza2," 2010.
Ministerio de Comunicaciones, "Plan Nacional de Tecnologías de la Información y las
Comunicaciones 2008 - 2019," 2008.
Colciencias, "Generación del Bicentenario," Bogotá, D.C., 2009.
Colciencias, "Colombia Construye y Siembra Futuro - Política Nacional de Fomento la
Investigación y la Innovación," Bogotá D.C., 2008.
Alvarado B. Aida, "Vinculación Universidad - Empresa y su Contribución al Desarrollo
Regional " Revista de Sociedad, Cultura y Desarrollo Sustentable, vol. 4, pp. 407 - 414,
2009.
J. Bruner, "Relación Empresa-Universidad: una grieta a sellar." vol. 2010, 2009.
CINTEL, "ESPECIAL: Ley 1341 de 2009: Una mirada a la nueva ley de TIC." vol. 2010,
2009.

Conclusiones y Trabajos Futuros

Colombia requiere de alianzas estratégicas entre las Instituciones de Educación


Superior y los sectores productivos y económicos, para generar una red de
conocimiento compartido en pro del avance científico, aprovechando el talento

73
humano, los recursos de biodiversidad material amplio estudio y aplicación, y ahora la
mayor asignación de recursos financieros que recrean el escenario perfecto dirigido
hacia cultura de la investigación en la era del conocimiento.
Promover la ciencia y la tecnología siempre será una necesidad crítica, y la
creación de esta ley debe convertirse en un instrumento que permita que la cultura de
la investigación se apropie al interior de las instituciones educativas y las
organizaciones productivas, motor del crecimiento y desarrollo de los países y que se
incluya en los planes estratégicos de cada institución
La nueva Ley de Ciencia y Tecnología genera muchas expectativas en todos los
ámbitos. Se esperaría que aspectos como la calidad de la educación, el fortalecimiento
de la capacidad científica, tecnológica y de innovación se impulsen de manera
importante, ya que en realidad éstos son unos de los principales indicadores de
medición que permitirían determinar si el impacto de esta Ley es el esperado.
Las Universidades son quienes prevalentemente están llamadas a vigilar el
cumplimiento de la Ley de Ciencia y Tecnología por todos los beneficios que puede
ello aportarle a sus grupos y centros de investigación. Además de ello, esta nueva Ley
permite articular de mejora manera la relación Universidad-Empresa, tan importante
para la formación integral de los estudiantes, e igualmente poco cultivada en la
actualidad.
Con la expedición de la Ley 1341, se modifica la estructura en la prestación de los
servicios de telecomunicaciones del país, migrando del esquema normativo inspirado
en la clasificación de los servicios de la UIT que se plasmó en la ley 72 de 1989 y el
decreto ley 1900 de 1990, a un modelo de título habilitante convergente, que incluye
la prestación de todos los servicios de telecomunicaciones indistintamente. Este
cambio normativo, recoge los principios de políticas que ya había plasmado el
entonces Ministerio de Comunicaciones en su decreto 2870 de 2007. [13]
Muchos son los cambios normativos, pero quizá uno de los puntos más importantes es
la visión enfocada no sólo a las temáticas de las telecomunicaciones, sino orientada a
las Tecnologías de la Información y las Comunicaciones, lo que de suyo implica un
concepto más amplio e integrado.
Es necesario plantear y discutir diferentes aspectos que permitan la sostenibilidad
del desarrollo socio-económico de un país y para lograrlo el mejor instrumento es tal
vez, la formulación y puesta en marcha de un Plan Nacional de TIC que se constituya
en una estrategia integrada, que busque obtener resultados de alto impacto, a corto,
mediano y largo plazo. Dicho Plan incluye definir y fortalecer los siguientes
elementos: Visión, misión y justificación, Políticas (Orientadas a la inclusión social,
Orientadas a la competitividad)

74
Prototipo metamodelo de integración de modelos de
procesos de negocio.

Aura Beatriz Alvarado Gaona 2, Luis Joyanes1 y Olga Najar Sánchez3


1 Universidad Libre – Colombia.
2
Universidad Pontificia Salamanca Campus Madrid
3
Universidad Pedagógica y Tecnológica de Colombia
{aura_beatriz,olnasa}@gmail.com; luis.joyanes@upsam.net

Resumen: Los procesos de negocio han adquirido importancia para las


empresas ya que se han convertido en un recurso que les permite
alcanzar ventajas competitivas en el mercado. También son importantes
para la ingeniería de software puesto que representan una fuente que
permitirá complementar las tareas que se llevan a cabo para la captura
de requisitos. Razones como competitividad, fusiones y nuevas
tecnologías, hacen que las empresas deban implementar Gestión de
Procesos en sus organizaciones. Para que una organización pueda
realizar una gestión integrada de sus procesos software es muy
importante que establezca una base rigurosa mediante un Metamodelo
que sea el marco de referencia para la creación de modelos específicos.
Para el desarrollo del Metamodelo es indispensable identificar los
componentes funcionales y parametrizar la información mínima que
debe ser aportada a los modelos para su correcta generación. Este
artículo presenta el resultado de la Investigación Metamodelo de
integración de Modelos de Procesos de Negocio.

Palabras clave: Proceso de Negocio, Modelado de Procesos de


Negocio, IDEF3, BPMN, Metamodelo,

Abstract:Business processes have been important for companies


because they have become a resource that enables them to achieve
competitive advantages in the market. They are also important for
software engineering as a source that will complement the work being
carried out to capture requirements. Reasons such as competitiveness,
mergers and new technologies make companies implement Process
Management in their organizations. In order to carry out integrated
management of software processes, it is very important for the company
to establish a rigorous basis by a Metamodel that could be the
framework for the creation of specific models. To develop the Meta
model, it is essential to identify the functional components and
parameterize the minimum information to be provided to the models for
their correct generation. This article presents the result of the

75
Investigation Metamodel of Process model integration of Business.

Keywords: Business Process, Business Process Models, IDEF3,


BPMN, Metamodel

1 Introducción

Una organización lleva a cabo su tarea mediante la realización de distintos tipos de


procesos y esos procesos generan datos que por supuesto deben ser procesados. Pero
son los procesos los que definen a la organización y por tanto se busca dar la máxima
importancia a los procesos de negocio y no a los datos que generan.
Los sistemas de información a lo largo del tiempo, han sufrido una gran evolución.
Esto ha facilitado que hayan comenzado a transformarse hacia una orientación
centrada en procesos, con modelado explicito de los procesos que controlan la
coordinación de las distintas aplicaciones del sistema.
Un nuevo paradigma para crear aplicaciones de gestión empresarial centradas en el
modelado, ejecución, administración y monitorización de los procesos de negocio, es
el llamado BPM1. Un proceso de negocio es una colección de actividades que,
tomando una o varias clases de entradas, crea una salida que tiene valor para un
cliente [1].
La siguiente sección describe brevemente la metodología seguida para el proceso
de investigación. La sección 3 presenta los resultados obtenidos. Finalmente, la
sección 4 presenta las conclusiones.

2 Metodología

Para el desarrollo de la investigación, se inicio con una primera fase consistente en


revisión de la literatura existente sobre Modelado de Procesos de negocio, para
identificar los estándares más utilizados en la notación de procesos de negocio. En una
segunda fase, se realizó una revisión sistemática para determinar las características
funcionales de los Modelos de Procesos de negocio y a partir de estas características,
plantear el prototipo del metamodelo propuesto.

2.1 Modelado de proceso de negocio

Un proceso de negocio es un conjunto estructurado de actividades, diseñado para


producir una salida determinada o lograr un objetivo [2]. Esto implica un fuerte
énfasis en cómo se realiza el trabajo dentro de una organización, en contraposición
con un enfoque del producto en qué se produce. Por lo tanto, el proceso es una

1
BPM – Business Process Management – Gestión de Procesos de Negocio

76
secuencia específica de actividades de trabajo a través del tiempo y del espacio, con
un inicio, un final y unas entradas y salidas claramente definidas: una estructura para
la acción. Los procesos describen cómo es realizado el trabajo en la empresa y se
caracterizan por ser observables, medibles, mejorables y repetitivos. La figura 1
describe elementos básicos que permiten conocer y entender cuál es el rol de cada
actividad dentro de un proceso de negocio.

Figura 1. Esquema de un Proceso de Negocio. Tomado de [2]

Un proceso de negocio está constituido por un conjunto de actividades [2]. La


actividad, como elemento básico, mediante relaciones o dependencias con otras
actividades conforma la estructura de un proceso de negocio. Un evento es el
elemento encargado de realizar la actividad. Pueden ser individuos, grupos de
personas o departamentos organizacionales. El objetivo de una actividad es una
característica propia que indica el propósito de su existencia dentro del proceso de
negocio al que pertenece. Un recurso es todo aquello que es usado o afectado por las
actividades. A menudo son considerados como entradas, salidas o resultados, o
herramientas.
A continuación se presentan algunos de los estándares existentes para abordar la
Notación del modelado de procesos de negocio.

2.2 Integration Definition for Function Modeling – IDEF.

Aun cuando la familia IDEF no es propiamente un estándar, se incluye en este


apartado, por cuanto junto con BPMN son las notaciones más utilizadas para el
Modelamiento de Procesos de Negocio. La familia IDEF comprende una serie de
técnicas, todas ellas independientes entre sí. Cada método es útil para describir una
perspectiva particular: IDEFØ (modelamiento funcional o actividades), IDEF1
(modelamiento de información), IDEF1x (modelamiento de datos), IDEF2 (captura la
dinámica de procesos), IDEF3 (captura la descripción de procesos), IDEF4 (diseño
orientado a objetos) e IDEF5 (captura de ontologías). De estas técnicas, la que más se
ajusta al paradigma BPM es IDEF3.
IDEF3, es una técnica de modelación para representar el flujo de trabajo de un

77
proceso, así como sus objetos participantes a partir de la descripción dada por un
experto. Permite documentar a nivel de detalle un proceso facilitando su análisis a
través de la identificación y captura del conocimiento crítico del mismo. Proporciona
un mecanismo para recoger y documentar los procesos, captura la precedencia y las
relaciones de causalidad entre las situaciones y acontecimientos, proporcionando un
método estructurado para expresar el conocimiento acerca de cómo un sistema,
proceso, o una organización funcionan.
Los componentes fundamentales que emplea IDEF3 en su representación son:
unidad de trabajo, ligas, conexiones y referencias. En la Tabla 1 se muestra una
descripción y representación gráfica de los Componentes básicos de este Modelo.

Tabla 1. Componentes Modelo IDEF3. Fuente: Los Autores

2.3 Business Process Modeling Notation - BPMN

Es una notación gráfica para modelar flujos de proceso de negocio. El objetivo


principal de BPMN es ofrecer una notación entendible por todos los participantes en
los procesos de negocio y su automatización, desde los analistas de negocio que crean
los primeros borradores de los procesos, hasta los desarrolladores responsables de
implementar la tecnología que lleva a cabo los procesos [3].
BPMN permite soportar la representación de conceptos que son aplicables al
modelado de procesos, es decir, que otros modelos que usan las organizaciones con
propósitos de negocios quedan excluidos del alcance de BPMN, como por ejemplo,

78
estructuras organizacionales y recursos, descomposiciones funcionales, datos y
modelos de información, estrategias y reglas de negocios [4].
En la Tabla 2 se muestra una descripción y representación gráfica de los
elementos de BPMN-BPD, la cual ha sido adaptada de [4].

Tabla 2. Conjunto de Elementos BPMN-BPD. Fuente: Los Autores.


ELEMENTO / DESCRIPCION NOTACION
Event - evento
Un evento es algo que "ocurre" durante el curso de un proceso de negocio. Estos
acontecimientos afectan el flujo del proceso y por lo general tienen una causa (de
activación) o un efecto (resultado).
Start
Indica el inicio de un proceso.

Intermediate
Eventos intermedios, se producen entre el inicio
y el término del evento. Indica que afectará el
flujo del proceso, pero no se iniciará o terminara
el proceso.
End
Indican donde finalizará el Proceso, el flujo de
secuencia del Proceso y por tanto no tienen
ningún Flujo de secuencia saliente.
Activity
Una Actividad es un término genérico para describir el trabajo que es ejecutado
dentro de un Proceso de Negocio. Una actividad puede ser atómica o compuesta.
Task (Atomic) - Tarea (Atómica)
Una tarea es una actividad atómica que se
incluye dentro de un proceso. Se usa cuando el
trabajo en el proceso no está roto a un mayor
nivel de detalle del Modelo de Procesos.
Process/Sub-Process (Proceso/Sub-proceso)
Un sub-proceso es una actividad compleja que
se incluye dentro de un proceso. Es complejo en
la medida en que puede dividirse en un mayor
nivel de detalles (un proceso) a través de un
conjunto de sub-actividades.
Gateway – Puerta de Enlace
Se utiliza para controlar la divergencia y
convergencia de múltiples secuencias de flujo.
Por lo tanto, determinará ramificación,
bifurcación, la fusión y unión de caminos.

Sequence Flow - Flujo de secuencia

79
ELEMENTO / DESCRIPCION NOTACION
Se utiliza para mostrar el orden en que las actividades se llevarán a cabo en un
proceso.
Normal Flow - flujo normal
Se refiere a la secuencia que proviene del inicio
del evento y continúa las actividades a través de
alternativas y caminos paralelos, hasta que
termina en un evento de finalización.
Conditional flow - Flujo Condicional
Puede tener condiciones que se evalúan en
tiempo de ejecución para determinar si el flujo
se va a usar. Si el flujo es condicional saliente
de una actividad, entonces la secuencia de flujo
tendrá un mini-diamante en el principio de la
línea.
Message Flow - Flujo de mensajes
Se utiliza para mostrar el flujo de mensajes
entre dos entidades que están preparados para
enviar y recibir. En BPMN, dos carriles en el
diagrama representan las dos entidades.

Swimlanes
El concepto de Swimlanes se utiliza para particionar y/o organizar actividades. Hay
dos principales tipos de swimlanes: Pools y Lane
Pool
Representa cada uno de los participantes en un
proceso.

Lanes
Es una subpartición dentro de pool, amplia la
longitud total, ya sea vertical u
horizontalmente.
Cada carril se utiliza para organizar y clasificar
las actividades.

3 Características funcionales de los modelos de procesos de


negocio.

Para obtener la información necesaria para desarrollar este aspecto, se llevó a cabo
una revisión sistemática de la literatura relacionada con las especificaciones de los
Modelos de Procesos de negocio, con el fin de identificar las características
funcionales a ser generalizadas, y parametrizar la información mínima que debe ser

80
aportada a los modelos para su correcta generación. El objetivo de esta revisión
sistemática es que a partir de investigaciones preliminares se pueda contar una base
conceptual para diseñar un Metamodelo que permita integrar modelos procesos de
negocio.
Aún cuando la mayoría de los documentos seleccionados no están directamente
relacionados con Procesos de Negocio, en Rolon [5] y Pessagno [6] se parte de la
premisa que los procesos de software y los procesos de negocio tienen ciertas
similitudes, ya que ambos tratan de capturar las principales características de un grupo
de actividades ordenadas que son llevadas a cabo para lograr una meta; de Acuña[7]
y Sharp [8] se determina que en ambos casos, el objetivo es obtener un producto para
los clientes o para otros implicados por el proceso.
En cuanto al modelado de los dos tipos de procesos, para Finkelstein [9], un
modelo de proceso software es una descripción abstracta de las actividades por las
cuales el software es desarrollado y para Dufresne [10], un modelo de procesos de
negocio describe las actividades involucradas en el negocio y la manera en que se
relacionan unas con otras e interactúan con los recursos necesarios para lograr la meta
del proceso. Wedemeijer [11], citado por Rolon [5], define al modelo conceptual del
proceso como un modelo abstracto del proceso de negocio cuyo propósito es perfilar
todas las acciones indispensables para producir los resultados esenciales.
La necesidad de una aproximación metodológica basada en el desarrollo dirigido por
modelos para la construcción de sistemas ubicuos que den soporte a procesos de
negocio, es planteada por [12], investigación en la que se llevaron a cabo estudios
sobre la repercusión que puede tener la introducción de la Computación Ubicua en
entornos gestionados por Procesos de Negocio. De estos estudios, Giner et al,
identificaron algunos beneficios de utilizar la computación ubicua, de los cuales para
el caso particular de este estudio se resaltan:
Adaptación al contexto, implica que un cambio del entorno puede disparar eventos
del Proceso de Negocio, obligando a que éste se adapte a la nueva situación. Esto
aporta un mayor dinamismo en los Procesos de Negocio, permitiendo su adaptación al
cambio sin necesidad de un rediseño completo.
Interoperabilidad entre sistemas, los Procesos de Negocio pueden involucrar a varias
organizaciones o sistemas distintos dentro de una misma organización. El Sistema
deberá ser capaz de integrar sistemas legados así como comunicarse con sistemas
externos de forma sencilla.
Por su parte, Nieto et al [13] proponen un conjunto de conceptos para evaluar
métodos de modelado para procesos de negocio utilizando tres niveles de
representación de una aplicación web organizacional, de integración y Web. El
aporte de esta investigación consiste en la identificación y clasificación de un
conjunto de conceptos los cuales son utilizados para determinar los conceptos que se
modelan en cada nivel de abstracción y para desarrollar un método de evaluación que
ayude a distinguir qué capacidades de modelado tiene un método particular en los tres
niveles de abstracción. Concluyen que considerado diferentes niveles de abstracción,
permite separar los servicios de los elementos que los proporcionan. Esta separación
permite tratar la evolución y la interoperabilidad de los sistemas de manera cómoda
Durante la evaluación y análisis de los estudios primarios se identificaron como
relevantes las siguientes características funcionales que puede servir de base para

81
diseñar un Metamodelo que integre diferentes modelos de procesos de Negocio:

Interoperabilidad
Mantenibilidad
Usabilidad

En la tabla 3 se resumen los trabajos que evalúan o estudian estas características.

Tabla 3. Resumen trabajos que evalúan cada una de las características,


fuente: Los autores

Característica
Referente
Funcional
Interoperabilidad [12][13][6][14][15][16][17][18][19]
Mantenibilidad [5][12][13][20][14][21][15][16]
Usabilidad [14][21][15][16]

De esta revisión, se toman como características funcionales para incorporar en el


diseño del Metamodelo, las siguientes, definiéndolas de acuerdo al estándar ISO 9126
[22]:
Funcionalidad: La capacidad del producto para proporcionar las funciones que un
modelo debe satisfacer para las actividades que el proceso de negocio establece.
Usabilidad - Facilidad de Uso. La capacidad del Metamodelo para ser
comprendido, aprendido, utilizado y que sea atractivo para el usuario, cuando es
utilizado bajo condiciones especificadas.
Mantenibilidad. La capacidad del producto software para ser modificado. Las
modificaciones pueden incluir correcciones, mejoras o adaptaciones del software a
cambios de ambiente y en requisitos y especificaciones funcionales.

4 Resultado

4.1 Estructura por niveles propuesta.

Tomando como referencia la estructura por niveles que define Pérez [17] y la que
propone la OMG2 [1], el Metamodelo para integrar modelos de procesos de negocio
también presenta una estructura basada en niveles de abstracción que van a permitir
distinguir entre los distintos niveles conceptuales que intervienen en el modelado de

2 OMG - Object Management Group, Grupo de Gestión de Objetos

82
un proceso de negocio.
En la tabla 4, se relacionan los niveles estructurales de estas dos arquitecturas y como
se relacionan con el Metamodelo Integrador propuesto, donde cada nivel representa el
grado de cooperación o compatibilidad entre actividades distintas:

Tabla 4. Niveles Estructurales de Arquitecturas


ESTRUCTURA ESTRUCTURA OMG ESTRUCTURA
PEREZ [17] [1] PROPUESTA

Nivel 1: Integración Nivel M0: Instancias de Nivel 0: Modelo de un


Punto a Punto Modelos M1 Proceso Especifico

Nivel 2: Integración Nivel 1: Middleware de


Nivel M1: Modelos
Estructural Funcionalidad

Nivel 3: Integración
Nivel M2: Metamodelo
de Procesos
Nivel 2: Servicios de
Integración
Nivel 4: Integración Nivel M3: Meta-
Externa Metamodelo

De acuerdo a esta estructura propuesta, la arquitectura del Metamodelo se


representaría en tres capas: capa de servicios, capa de integración y capa de
Repositorio de Modelos, representada en la figura 3.

Fig 2. Propuesta Estructurada por Capas

83
4.2 Capa de Servicios.

En la Capa de Servicios, se tienen las capacidades básicas aplicables a las


características de calidad relacionadas con la Usabilidad y Mantenibilidad.

En el paquete Usabilidad, se deben incorporar las rutinas que permitan una


comunicación eficiente entre el Metamodelo y el usuario final, es decir, que sea
comprendido, utilizado fácilmente y que sea atractivo para un usuario. La
herramienta de facilitar al usuario entender la forma en que se puede usar para
efectuar diferentes tareas. Es fundamental que las funciones asociadas a la
diagramación sean fáciles de comprender y ubicar por los diferentes tipos de usuarios.
Así mismo, debe contar con una interfaz gráfica que agrade visualmente al usuario,
además de presentar consistentemente la información y las acciones de que dispone la
herramienta.
En el paquete mantenibilidad, las rutinas deben estar orientadas a permitir que el
producto obtenido (el modelo resultante de integrar varios modelos) pueda ser
modificado. Las modificaciones pueden incluir correcciones, mejoras o adaptaciones
de acuerdo a cambios en los procesos de negocio definidos inicialmente.

4.3 Capa de Integración.

En esta capa, se encuentra el middleware, que permite la integración de modelos de


procesos de Negocio. Especifica los mecanismos de descripción de las
subcaracterísticas de calidad incluidas en la funcionalidad. El metamodelo debe
proveer la notación adecuada para la representación de los procesos que lo
conforman.
Paquete Exactitud, aquí se encuentran las especificaciones que permitan validar
que se obtienen modelos que se ajustan correctamente a las actividades definidas en
los procesos. Es necesario que los diagramas generados por la herramienta sean
completos y consistentes.
Paquete Interoperabilidad, contienen las rutinas para interactuar con uno o más
modelos de procesos existentes. Esto implica la definición de un lenguaje genérico
que interprete la simbología de los diferentes modelos. Incluye las clases, donde se
asocian el esquema del metamodelo a los modelos. La herramienta debe permitir
representar modelos de procesos de negocio y que estos pueden estar compuestos por
uno o más de ellos, hay que saber si el producto tiene funcionalidades utilizadas por
otro sistema o si otros sistemas utilizan sus funcionalidades para llevar a cabo el
modelado.
Paquete Seguridad, componentes para proteger los modelos, de modo que las
personas o los sistemas no autorizados no puedan leerlos o modificarlos, y a las
personas o los sistemas autorizados no se les niegue el acceso a ellos.

4.4 Capa de Repositorio de Modelos.

En la Capa Repositorio, se encuentran almacenados los modelos específicos a cada

84
uno de los procesos del Negocio. Por lo tanto debe implementar las rutinas necesarias
para acceder a los modelos inter-empresa y/o inter-empresas.

5 ARQUITECTURA PARA EL METAMODELO


INTEGRADOR

En el mercado se encuentran disponibles diversas herramientas de software para


realizar el Modelamiento de los Procesos de Negocio. Así mismo, esas herramientas
se ajustan a los dos estándares para la Notación de Procesos, descritos: estándar
BPMN y Estándar IDEF3.
Como la notación gráfica de estos dos estándares, son las más utilizadas, la
arquitectura del Metamodelo Propuesto integrará Modelos que se adapten a estos
estándares. En tal sentido, en la figura 4, se presenta la Arquitectura planteada para el
Metamodelo, consistente básicamente en la incorporación de cuatro paquetes
indispensables para realizar la integración: Paquete IDEF3, Paquete BPMN, Paquete
PARSER (Convertidor) y paquete HOMOLOG (Homologador), adicionalmente se
requiere el uso de una Interfaz que contendrá el Lenguaje de interpretación y
conversión de Modelos.

Fig 3. Arquitectura del Metamodelo Propuesto

El funcionamiento básico del Metamodelo radica desde el momento que se obtiene un


documento que contiene las especificaciones del Modelo. Dependiendo del lenguaje
utilizado para la ejecución del proceso, el Metamodelo hace uso del paquete
respectivo, sea BPMN o sea IDEF3. Cada uno de estos paquetes incorpora la
información contenida en el archivo y genera un archivo de Entrada XMI, el cual es
enviado al paquete HOMOLOG, para que se realice la Homologación respectiva y se

85
envíe esta información al paquete PARSER, para hacer la conversión respectiva, la
cual quedara almacenada en otro archivo de salida Homologado XMI. A
continuación se explica en detalle cada uno de estos paquetes.

7.1.1 Paquete Estándar IDEF3.

Fig 4. Metamodelo para Estándar IDEF3

Para el manejo de este paquete, se diseñó un metamodelo con base en la notación


gráfica que utiliza IDEF3. En este metamodelo, cada una de las clases representa cada
símbolo gráfico utilizados por el estándar IDEF3 para la modelación de los procesos
de negocio.
Un Modelo de Procesos de Negocio bajo el estándar IDEF3 está compuesto por
una serie de actividades, las cuales tienen conexión a otras actividades, esta conexión
se presenta por una liga o flujo y dependiendo el esquema de la liga indica que tipo de
actividad se debe realizar.
En este metamodelo, se parte de una clase principal denominada ActividadI3, y a
ella se asocian otras clases que representan el resto de símbolos que maneja el
estándar IDEF3. El objetivo primordial de este metamodelo, es interpretar un Modelo
especificado en uno lenguajes estándares para la ejecución de procesos en esta
notación.

5.1 Paquete Estándar BPMN

Al igual que en el caso anterior, el estándar BPMN define una serie de símbolos
que permiten especificar las actividades de un Proceso de Negocio, que se desea
modelar. La notación planteada por BPMN, se encuentra detallada en la Tabla 2.
En este estándar, las actividades se encuentran organizadas teniendo en cuenta el
participante encargado de ejecutarla. Por lo tanto, en BPMN, un proceso de negocio

86
se encuentra conformado por un conjunto de participantes, cada uno de los cuales
especifica las actividades o tareas que desarrolla. La secuencia de actividades está
determinada por un flujo que determina qué o quién continua con la ejecución de la
tarea.
En la figura 6, se plantea el Metamodelado encargado de interpretar un modelo
desarrollado con la notación específica de uno de los lenguajes estándar para la
ejecución de procesos BPMN.

Fig 5. Metamodelo para Estándar BPMN

5.2 Paquete HOMOLOG.

Hasta el momento lo que se ha planteado, son dos metamodelos que van a permitir
interpretar un modelo que ha sido diseñado previamente utilizando uno de los
estándares más ampliamente difundidos.
Ya se ha enunciado que el objetivo primordial del Metamodelo integrador, es
precisamente contar con un modelo que permita integrar diferentes modelos de
proceso de negocio. Vale la pena aclarar, que los modelos pueden utilizar el mismo o
diferente estándar. Para poder realizar esto, se plantea el Metamodelo Homolog,
figura 6, el cual tiene como objetivo, proporcionar un mecanismo de homologación de
los símbolos utilizados en el diseño original, el cual debe estar previamente
interpretado por el Metamodelo BPMN o por el Metamodelo IDEF3.

87
Fig 6. Metamodelo Homolog (Homologador)

Este Metamodelo debe contar con una tabla de Homologaciones, que informa que
símbolo de un estándar se homologa con qué símbolo del otro estándar. Los
metamodelos BPMN e IDEF3, fueron diseñados de tal forma que los nombres de las
clases fueran fácilmente homologables. Cuando existen símbolos específicos para
cada estándar, se plantea la incorporación de Interfaces, que facilitan el proceso de
Homologación.

5.3 Paquete PARSER (Convertidor)

Este paquete contiene el Metamodelo encargado de realizar la generación de un


Modelo de Procesos de Negocio Integrado. Para esto se plantea la clase Conversor,
encargada de recibir del Metamodelo Homolog, la respectiva tabla de
Homologaciones y generar un archivo XMI, que contiene la descripción del Modelo
Integrado. La especificación de este metamodelo, se aprecia en la Figura 6.

88
Fig 4. Metamodelo Parser (Convertidor)

6 Conclusiones

En este trabajo se presenta el diseño de un Metamodelo que permite integrar modelos


de procesos de negocio. El Modelado de Procesos, es un paso fundamental para la
comprensión y mejora continua de los procesos de una organización. La integración
de los Modelos es esencial para que las organizaciones satisfagan sus requerimientos
de interoperabilidad entre procesos de negocio.
El paradigma BPM relativamente es reciente, por lo que está abierto a muchas
investigaciones. Se ha mencionado en el capitulo anterior, algunas líneas de
investigación que se han derivado de este paradigma, por ejemplo el esfuerzo por
adaptar los estándares de Calidad de Procesos de Software para medir la calidad de
los procesos de Negocio. Así mismo, esta investigación permite obtener un Modelo
genérico que permita integrar diferentes modelos de procesos de Negocio.
El metamodelo presenta una definición precisa de las reglas necesarias para definir
la semántica de los modelos. Esta definición se basa en Metamodelos específicos para
permitir la interoperabilidad entre diferentes Estándares, en el caso de este estudio
para estándares BPMN e IDEF3, pero la misma estructura del Metamodelo Integrador
permite que se adapten nuevos estándares. Esto hace que el Metamodelo sea
dinámico y se ajuste a nuevos requerimientos de las Empresas o del medio.
Para investigaciones futuras, se plantea la posibilidad de validar la funcionalidad
del Metamodelo, diseñando una herramienta de software para incorporar la lógica del
Metamodelo e implementar una medida de evaluación de Modelos de Procesos de
Negocio en los aspectos de calidad que se le incorporan al Metamodelo, tales como la
usabilidad, mantenibilidad y funcionalidad.
Otra posibilidad es la de integrar el Metamodelo en una Arquitectura orientada a
Servicios (SOA), para determinar la interoperabilidad del Metamodelo en diversas
plataformas.

89
Referencias

1. OMG (2006). Business Process Modeling Notation Specification. Disponible en


http://www.omg.org/spec/BPMN/1.1/PDF
2. Jimenez, C. (2002). Indicadores de Alineamiento entre Procesos de Negocios y Sistemas
Informáticos. Tesis de Magíster, Universidad de Concepción, 2002.
3. BPMN (2005). BPMN Specification. http://www.bpmn.org/.
4. BPMN (2004). BPMN. Business Process Modeling Notation (BPMN), in Copyright
2004, BPMI.org. All Rights Reserved, Version 1.0 May 3 de 2004.
5. Rolon, E.,et al.(2005). Aplicación de Metricas de Software en la evaluacion de Modelos
de Procesos de Negocio. Revista Electrónica de la Sociedad Chilena de Ciencia de la
computación, Vol.6,1
6. Pessagno, L. et al. (2008a). El Modelado de los Procesos de Negocio a través de
Lenguajes, Notaciones y Herramientas de Software Libre, LVIII Convención Anual de
AsoVAC. Yaracuy, Venezuela.
7. Acuña, S. y Ferré, X. (2001). Software Process Modelling. Proceedings of the 5th.
World Multiconference on Systemics, Cybernetics and Informatics (SCI 2001).
8. Sharp, A., y McDermott, P. (2000). Workflow Modeling: Tools for Process
Improvement and Application Development. London: Artech House (Pub).
9. Finkelstein, A., et al. (1995). Process Modelling: a Critical Analysis. Information and
Software Technology, Volume 37, Issue 4.
10. Dufresne, T. y Martin, J. (2003). Process Modeling for E-Business. George Mason
University, Spring 2003, INFS 770 - Methods for Informations Systems Engineering:
Knowledge Management and E-Business.
11. Wedemeijer, L., y De Bruin, E. (2004). Conceptual Process Models: Using Process
Architecture in Practice. In Proceedings of the 15th International Workshop on Database
and Expert Systems Applications (DEXA´04). Zaragoza, España: IEEE Computer
Society.
12. Giner, P., y Torres, V. (2008). Building Ubiquitous Business Process following an
MDD approach. IEEE Latin America Transactions, vol. 6, no. 4.
13. Nieto, E., Ortiz, J., Rodríguez, G. (2006). Evaluación de herramientas para procesos de
negocio en tres niveles de abstracción. Looking Forward, Vol 13, Computer Society
IEEE.
14. QSOS (2006). QSOS Introduction, Disponible en http://www.qsos.org/
15. Marín, B., et al. (2007). Calidad en Modelos Conceptuales: Un Análisis
Multidimensional de Modelos Cuantitativos basados en la ISO 9126. RPM-AEMES,
VOL. 4, Nº Especial, ISSN: 1698-2029.
16. Pérez, M., et al (2008). Propuesta de Modelo para Especificar la Calidad de
Herramientas de Pruebas. Actas de los Talleres de las Jornadas de Ingeniería del
Software y Bases de Datos, Vol. 2, No. 4, ISSN 1988-3455.
17. Pérez, P., et al. (2006). Interoperabilidad de sistemas guiado por modelos de procesos de
negocio: Una aplicación en el sector sanitario. X Congreso de Ingeniería de
Organización, Valencia (España).
18. Boronat, A., et al (2005). Utilización de Maude desde Eclipse Modeling Framework para
la Gestión de Modelos. Actas del II Taller sobre Desarrollo de Software Dirigido por
Modelos, MDA y Aplicaciones (DSDM 2005), España.
19. Martínez, J. (2004). La Necesidad de Interoperabilidad de la Información en los servicios
de Administración Electrónica: XML, Una Posible Solución. Tecnim@p Comunicación,
Murcia.
20. Pessagno, L., et al. (2008b). Modelo de calidad para herramientas FLOSS que dan apoyo

90
al modelado de procesos del negocio. Revista Española de Innovación, Calidad e
Ingeniería del Software, Vol.4, No. 1.
21. Rolon, E., et al (2007). Familia de Experimentos para validar medidas para Modelos de
Procesos de Negocio con BPMN. Keynote Quality Metrics For Business Processes
PNIS‘07.
22. ISO (2001) . ISO/IEC 9126-1, Software Engineering. Product Quality. Part 1: Quality
Model.

91
Algoritmos Matemáticos para fusión de imágenes
satelitales.

Rubén Javier Medina Daza 1-2, Luis Joyanes 2, Carlos Pinilla 3, Sandra
Velazco 2
1) Universidad Distrital Francisco José Caldas, Bogotá D.C., Colombia, 2)
Universidad Pontificia de Salamanca, Madrid, España. 3) Universidad de Jaén. Jaén,
España.
1) rmedina@udistrital.edu.co, 2) luis.joyanes@upsam.net, 3) cpinilla@ujaen.es

Resumen: En lo que se refiere a las imágenes de satélite (fuentes de


datos), la fusión de imágenes es una respuesta a la frecuente necesidad
de tener una sola imagen con datos de alta resolución espectral y
espacial a partir de imágenes multiespectrales y pancromáticas de
diferentes resoluciones espaciales y habitualmente procedentes de
diferentes sensores remotos. Los procedimientos convencionales de
fusión de imágenes están basados en diferentes técnicas, tales como la
transformación RGB a IHS, la transformación de Brovey o la
transformación a componentes principales, entre otros. Estos métodos
no son completamente satisfactorios debido a la degradación de la
información espectral. En los últimos años se ha empezado a
experimentar un procedimiento que usa la transformada de Wavelet en
dos dimensiones y diversos autores han reportado que dicha
aproximación conserva la riqueza espectral de las imágenes originales.
En este artículo se presenta el estudio de los algoritmos matemáticos
necesarios para llevar a cabo la fusión de imágenes.

Palabras Claves: Sensores Remotos, Fusión de Imágenes,


Transformación RGB a IHS, Transformada de Brovey, Transformada
de Wavelet, Imágenes multiespectrales, imágenes pancromáticas,
IKONOS, Algoritmos matemáticos.

Abstract: In regard to satellite imagery (data sources), image fusion is


an answer to the frequent need of merging in a single image high
spectral and spatial resolution data from multispectral and panchromatic
images having different spectral resolution and coming from different
remote sensing applications. Conventional procedures for image fusion
include transformation from RGB to IHS, principal component analysis
(PCA) and Brovey method transfomormation, among others. These
methods are not satisfactory enough due to the distortions that result in
loss of the original spectral information. In the last years, experiments
using the bi-dimensional wavelet transform have been carried out in
image fusion and have demonstrated to preserve a lot of the spectral
information from the original images with the help of specialized

93
software. In this article one presents the study of the mathematical
algorithms for the merger of images.

Keywords: Remote sensing, image fusion, HIS transformation, Brovey


Transformation, wavelet transformation, multispectral image,
panchromatic image, IKONOS, mathematical algorithms.

1 Introducción

El principal objetivo de las técnicas digitales es procesar una imagen de forma que
resulte más adecuada que la original para una aplicación específica.
El procesamiento de los datos digitales se enfoca a lograr tres objetivos básicos:
Corrección de los datos, Realce de la información original y clasificación o extracción
de información. En una alta proporción, los datos suministrados por la agencias
distribuidoras de datos en forma digital, realizan las correcciones básicas tanto
geométricas como radiométricas; no obstante, algunos procesos requieren datos
brutos, para lo cual el usuario adquiere este tipo de producto, quedando a su cargo la
corrección del mismo.
La fusión de imágenes es una respuesta a la frecuente necesidad de tener en una
sola imagen datos de alta resolución espectral y espacial a partir de imágenes
multiespectrales y pancromáticas de diferente resolución espacial y diferentes
sensores remotos. La fusión permite obtener información detallada sobre el medio
ambiente urbano y rural, útil para una aplicación especifica en estudio.
Los procedimientos convencionales de fusión de imágenes están basados en
diferentes técnicas, tales como la transformación RGB a IHS, la transformación de
Brovey, la transformación de componentes principales, entre otros. En los últimos
años se ha empezado a experimentar un procedimiento que usa la transformada de
Wavelet en dos dimensiones y diversos autores han reportado que dicha aproximación
conserva la riqueza espectral de las imágenes originales.
En este trabajo se realiza la revisión de los algoritmos matemáticos de los métodos
tradicionales de fusión de imágenes, los fundamentos matemáticos de la
descomposición de Wavelet, los conceptos básicos de las técnicas emergentes de
fusión, basada en Wavelet.

2 Fusión de imágenes

La fusión de imágenes es una técnica digital que tiene por objetivo mejorar una
imagen multiespectral y así potenciar su uso en diversas aplicaciones. Para ello se
combinan los datos de una imagen pancromática (o una imagen de radar o de otro
sensor no óptico) de alta resolución espacial con los de una imagen multiespectral de
alta resolución espectral. El resultado final es una nueva imagen en la cual se ha
conservado una buena parte de la riqueza espectral original y se ha ganado resolución
espacial.
La fusión de imágenes se puede usar para:

94
Mejorar la corrección geométrica de una imagen
Realzar elementos que no son visibles en una imagen
Complementar datos para mejorar una clasificación
Detectar cambios en una zona usando datos multitemporales
Reemplazar datos anómalos de una imagen
Adicionar datos faltantes en una imagen

La fusión de imágenes se puede realizar por diferentes métodos, según sea el lugar
donde se ejecuta, en la cadena de producción de información espacial:

A nivel de datos
A nivel de objetos
A nivel de decisiones

La fusión de imágenes usualmente se realiza a nivel de los datos, es decir a nivel de


pixel3. Las técnicas para realizar la fusión a este nivel pueden ocurrir en diferentes
dominios:

En el dominio de la frecuencia espacial4


En el dominio espectral
En un dominio mixto, espacial y espectral

3 METODOS TRADICIONALES DE FUSION DE IMÁGENES

La fusión de imágenes convencional, es decir aquella que está implementada en los


programas de procesamiento digital de imágenes, permite obtener resultados
aceptables y útiles. Los métodos convencionales son los siguientes:

3.1 En el dominio espectral

Las imágenes multiespectrales pueden ser transformadas en un nuevo espacio en el


cual una imagen representa el componente correlacionado, por ejemplo

 El componente principal 1 (CP1) en el espacio de Componentes Principales


 el componente de intensidad en el espacio de percepción de color IHS
(Intensidad, Matiz y Saturación)
 Aplicar una transformación a las bandas de la imagen
 Reemplazar el componente que representa el detalle espacial por la imagen
pancromática

3
Píxel es el elemento mínimo que conforma una imagen. Píxel es una contracción de picture
element.
4
La frecuencia espacial es una medida de la variación del nivel digital de una imagen en
función de la distancia.

95
 Transformar la imagen resultante en el dominio original de la imagen

Se analiza como ejemplo los métodos usando un recorte de tamaño 20 por 20 de la


zona de estudio, imagen Ikonos del Parque Simón Bolívar en Bogotá-Colombia. (Ver
imagen 7).

3.2 Método Tradicional RGB-IHS:

Registrar una composición a color RGB de la imagen multiespectral con una imagen
pancromática, usando el mismo tamaño de píxel de esta última.
Transformar los componentes RGB en componentes IHS (Intensidad Matiz y
Saturación)[1].
Ajustar el histograma de la imagen pancromática al histograma de la componente I.
Reemplazar el componente I por la imagen pancromática.
Realizar la transformación inversa IHS a RGB

3.3 Método tradicional RGB-Componentes Principales:

Este método incluye:

Obtener los componentes principales de una composición RGB de la imagen


multiespectral.
3
Usando las bandas B1, B2 y B3, se genera los vectores en cuyos componentes
serán NDij , se calcula las media para cada banda por separado, para hallar la matriz
de varianza y covarianza se usa la siguiente formula
1 n
V   NDi    NDi    , se resuelve la ecuación característica
t

n  1 i 1
V   I  0 , los valores propios de V son las soluciones de la ecuación
característica, para obtener el porcentaje de varianza por cada componente Principal
 %VCPi  . Para hallar los espacios propios asociados a cada valor propio se

resuelven sistemas homogéneos de la forma  A  i I  vi  0 . Se construye la matriz


ortogonal Q colocando como columnas a los vectores u1 , u2 ,..., un , para hallar el
determinante de Q , es decir det(Q)  1 , para calcular Q 1VQ . Los productos
NDij  Q1 NDij proporcionan las coordenada en los nuevos ejes, de esta manera se
obtiene los componentes principales CP1, CP2 y CP3.
Escalar la imagen pancromática dentro del rango de niveles digitales del
componente principal 1 y reemplazar este componente con dicha imagen.
Aplicar una transformación inversa de componentes principales para obtener una
nueva imagen RGB.
Para realizar la transformada inversa, la imagen final es redibujada utilizando una de
las siguientes técnicas:

96
Vecino más cercano.
Usa el valor del pixel más cercano para asignar al valor de pixel de salida, el cual deja
el valor del pixel igual al valor digital en cada posición.
Interpolación bilineal
Usa el valor de los niveles digitales de la ventana de 2x2, el promedio de los cuatro
pixel es el valor de salida.

Fig 6. Técnica de interpolación bilineal

Convolución cubica.
Usa los valores de los niveles digitales de la ventana de dieciséis pixel en 4x4, el
promedio de estos pixeles es el valor de salida para generar la nueva banda.

Fig 7. Técnica interpolación Cúbica

Método Tradicional Transformada de Brovey.

Este método se basa en obtener una nueva imagen RGB usando la Transformada
de Brovey que combina tres bandas originales de una imagen multiespectral con la
imagen pancromática.
El algoritmo usado es:

Rijk  ( M ijk / M ijk  M ijl  M ijm ) * H ij

97
Rijk Imagen fusionada
H ijijk Imagen pancromática
M
Para generar las nuevas imagenes fusionadas se usan las tecinas, vecino más
cercano, interpolación bilineal y convolución cubica.

Método Tradicional Multiplicación.


Este método aplica un algoritmo simple de multiplicación, para incorporar el
contenido de la imagen pancromática en la imagen multiespectral:

Rijk  M ijk * H ij
En donde,

Rijk Imagen fusionada


M ijk Imagen multiespectral - banda k
Para generar las nuevas imagenes fusionadas se usan las tecinas, vecino más
cercano, interpolación bilineal y convolución cubica.

4 LA TRANSFORMADA DE WAVELET

Una transformación wavelet permite descomponer una imagen en dos tipos de


coeficientes: aproximación, que representan la riqueza espectral, y detalle, que
representan la resolución espacial.
La descomposición wavelet se puede hacer en diferentes niveles de resolución, lo
cual significa que los componentes de aproximación y detalle se pueden examinar en
diferentes tamaños de píxel.
En cada nivel de descomposición wavelet se tiene una resolución espacial igual a
la mitad de la resolución anterior. Por ello, la descomposición de la imagen
pancromática de nivel 2 de la Imagen 8 corresponde a un tamaño de píxel equivalente
al de la imagen multiespectral sin descomposición, considerando una imagen
pancromática de resolución espacial de 1m y una imagen multiespectral de resolución
espacial de 4m

Fig 8. Descomposición coeficientes de aproximación y detalle

98
La descomposición wavelet es un proceso iterativo, con sucesivas aproximaciones,
la cual recibe el nombre de descomposición de árbol.
La imagen original es descompuesta en coeficientes de aproximación (A1) y
coeficientes de detalle (D1). Los coeficientes de aproximación (A1) se descomponen
en nuevos coeficientes de aproximación (A2), y coeficientes de detalle (D2). Los
coeficientes de aproximación (A2), se pueden descomponer en nuevos coeficiente de
aproximación (A3) y detalle (D3) y así sucesivamente. Para recuperar la imagen
original se adiciona la última descomposición de los coeficientes de aproximación con
cada una de las descomposiciones de los coeficientes de detalle, tal como se muestra
en la Imagen 9.

Fig 9. Descomposición de árbol.

5 FUSION DE IMÁGENES USANDO WAVELET

Este método consiste en combinar los coeficientes de la Wavelet de la imagen


pancromática y de la imagen multiespectral. Para el efecto, se tiene en cuenta la
relación entre los tamaños de píxel de la imagen pancromática y de la imagen
multiespectral.
La fusión de imágenes basada en Wavelet puede ser realizada de dos formas:
1). Remplazando los coeficientes de detalle de la Wavelet de la imagen multiespectral
por los coeficientes correspondientes de la imagen pancromática.
2). Adicionando los coeficientes de detalle de la wavelet de la imagen pancromática a
los coeficientes correspondientes de la imagen multiespectral.
Este método de fusión se basa en el hecho que, en la descomposición de wavelet,
las imágenes pl ( l =o,...,n) son versiones sucesivas de la imagen original en escalas
decrecientes; así, los primeros planos de la wavelet de la imagen pancromática de alta
resolución tienen información espacial que no está presente en la imagen
multiespectral.
En el método de sustitución, los planos de wavelet correspondientes a la imagen
multiespectral son eliminados y sustituidos por los planos correspondientes de la
imagen pancromática. Sin embargo, en el método de adición toda la información

99
espacial de la imagen multiespectral es preservada. Así, la gran ventaja del método de
adición es que la información de detalle de ambos sensores es usada.

5.1 PROCEDIMIENTO METODOLOGICO

Como parte de esta investigación se tomo una zona de estudio, sobre la cual se
aplicaron los métodos anteriormente estudiados y posteriormente se realizo la
evaluación de los resultados obtenidos. Los pasos son los siguientes:

Adquisición de imágenes / lectura (Ikonos).


Análisis de información existente sobre la zona de estudio (Bogotá D. C. Parque
Simón Bolívar).
Calculo de estadísticas correcciones y realces.
Geo-referenciación (coordenadas).
Recorte y remuestreo.

Fusión por los métodos tradicionales:

Composición RGB (3), IKONOS


RGB-HIS.
Componentes principales.
Multiplicación.
Transformada de Brovey.
Imagen RGB Fusionada.

Fusión usando la Transformada de Wavelet:

Composición RGB (3), IKONOS


Transformación RGB-HIS
Generación de la Wavelet para la Manipulación de Coeficientes IHS – RGB
Imagen RGB Fusionada con las diferentes familias de Wavelets

A partir de los resultados de los dos procedimientos anteriormente descritos se realiza:

Comparación Imágenes Fusionadas obtenidas por los métodos tradicionales y con la


Transformada de Wavelet con RGB, Imagen original (Correlación espacial y
espectral).

ZONA DE ESTUDIO

La zona de estudio corresponde a una sub-escena de la imagen de Bogotá, localizada


sobre el Parque Metropolitano Simón Bolívar (Imagen 10).
El Parque Metropolitano Simón Bolívar, se encuentra ubicado en el centro de
Bogotá, (Colombia), en la localidad de Teusaquillo. Calle 63 y 53 entre carreras 48 y

100
685.

Fig 10. Imagen RGB (143) Izq. Imagen Pancromática Der. Corresponde al parque
metropolitano Simón Bolívar, 2048 de ancho por 2048 de alto

6 ANÁLISIS Y RESULTADOS de la fusión con los diferentes


métodos de imágenes RGB (143). Parque Simón Bolívar
Bogotá-Colombia.

Coeficiente de correlación de Pearson, mide la relación lineal, que nos sirve para
resumir dos variables cuantitativas de manera conjunta, es el cociente entre las
covarianzas de las dos imágenes entre las variabilidades de la dos imágenes de las
S AB
dos desviaciones típicas, es decir r , no tiene unidades y el rango está
S A SB
definido  1,1 , cuando es positive significa que a medida que crece una variable la
otra también, cuando es negativo significa que a medida que crece una variable la otra
decrece.
Una correlación de +1 significa que existe una relación lineal directa perfecta
(positiva) entre las dos variables. Es decir, las puntuaciones bajas de la primera
variable (X) se asocian con las puntuaciones bajas de la segunda variable (Y),
mientras las puntuaciones altas de X se asocian con los valores altos de la variable Y.
Una correlación de -1 significa que existe una relación lineal inversa perfecta
(negativa) entre las dos variables. Lo que significa que las puntuaciones bajas en X se
asocian con los valores altos en Y, mientras las puntuaciones altas en X se asocian con
los valores bajos en Y.
Una correlación de 0 se interpreta como la no existencia de una relación lineal
entre las dos variables estudiadas.
En la siguiente tabla se muestra la correlación entre las imágenes fusionadas por
métodos convencionales y transformada de wavelet realizado en Erdas y por el

http://www.bogota.gov.co/vis/public%20simon%20bolivar/parque%20simon%20bolivar.htm
l, fecha 03-03-2010

101
método wavelet respecto a las imágenes originales, Ikonos multiespectral y la Ikonos
pancromática usando Matlab.

Tabla 1. Análisis de correlación entre la imagen original multiespectral y las


diferentes imágenes obtenidas por los diferentes métodos de Fusión. (Resolución
espectral), y la imagen pancromática con las mismas imágenes (resolución espacial)

CORRELACION (Resolución Especial con


CORRELACION (Resolución Espectral con la Transformada de Wavelet y métodos
Transformada de Wavelet y métodos convencionales) convencionales)
Imágenes R G B Imágenes R G B
RGB/bior1.3 0.9164 0.9841 0.9888 PAN/bior1.3 0.2322 0.9592 0.9888
RGB/bior1.5 0.9039 0.9786 0.9834 PAN/bior1.5 0.2082 0.9549 0.9834
RGB/bior2.2 0.9095 0.9809 0.9858 PAN/bior2.2 0.2176 0.9575 0.9858
RGB/bior6.8 0.9248 0.9837 0.9874 PAN/bior6.8 0.1984 0.9564 0.9874
RGB/db9 0.9241 0.9836 0.9874 PAN/db9 0.1999 0.9565 0.9874
RGB/dmey 0.9189 0.9820 0.9862 PAN/dmey 0.2007 0.9565 0.9862
RGB/haar 0.8833 0.9788 0.9856 PAN/haar 0.2745 0.9603 0.9856
RGB/rbio3.1 0.8746 0.9392 0.9377 PAN/rbio3.1 -0.0935 0.8959 0.9377
RGB/rbio6.8 0.9245 0.9837 0.9876 PAN/rbio6.8 0.2003 0.9566 0.9876
RGB/sym2 0.9345 0.9809 0.9832 PAN/sym2 0.1309 0.9495 0.9832
RGB/ RGB a IHS -0.2912 0.1194 0.1796 PAN/ RGB a IHS 0.9424 0.2555 0.1796
RGB/ CP_NN 0.9980 -0.8686 -0.9849 PAN/ CP_NN 0.0132 -0.9864 -0.9849
RGB/ CP_IB 0.9980 -0.8686 -0.9849 PAN/ CP_IB 0.0132 -0.9864 -0.9849
RGB/ CP_CC 0.9980 -0.8686 -0.9849 PAN/ CP_CC 0.0132 -0.9864 -0.9849
RGB/ M_NN 0.6066 0.9509 0.9669 PAN/ M_NN 0.6468 0.9509 0.9669
RGB/ M_IB 0.6066 0.9509 0.9669 PAN/ M_IB 0.6468 0.9509 0.9669
RGB/ M_CC 0.6066 0.9509 0.9669 PAN/ M_CC 0.6468 0.9509 0.9669
RGB/ TB_NN 0.7603 0.9528 0.9627 PAN/ TB_NN 0.4755 0.9718 0.9627
RGB/ TB_IB 0.7603 0.9528 0.9627 PAN/ TB_IB 0.4755 0.9718 0.9627
RGB/ TB_CC 0.7603 0.9528 0.9627 PAN/ TB_CC 0.4755 0.9718 0.9627

102
Fig 11.Comparacion de un extracto de la imagen original con diferentes imágenes
fusionadas

Con el método tradicional RGB – IHS, la resolución espectral es muy baja


aproximadamente 0.03%, lo mismo pasa con la resolución espacial es baja excepto la
correlación de la imagen pancromática con la banda roja que corresponde a un 0.88%.
En el método de Componentes principales, con las tres técnicas, la resolución
espectral es muy alta aproximadamente 0.90%, sin embargo con las bandas verde y
azul es inversa ya que los valores son negativos, en cambio en la resolución espacial
las correlaciones tienen valores altos con las bandas verde y azul es una correlación
inversa ya que los valores son negativo, sin embargo con la banda roja la correlación
es muy baja.
En el método de Multiplicación y Transformada de Brovey con las tres técnicas
respectivas, Vecino más cercano, interpolación bilineal y Convolución cúbica, las
correlaciones tanto espectrales como espaciales los valores se mantienen muy
cercanos a 0.85, la mejora en la resolución espacial, es en detrimento de la resolución
espectral. lo que se gana en lo espacial se pierde en lo espectral.
Al analizar la resolución espectral y espacial usando la transformada de wavelet la
más baja correlación es la bior1.5.
La mejor resolución espectral y espacial se obtiene con la transformada de wavelet
db6, con respecto a la resolución espectral es muy buena comparándola con las
transformadas haar y bior1.1.
Las imágenes especialmente las obtenidas con base en las diferentes
transformaciones Wavelet tienen similares características visuales, con respecto a la
resolución espacial y espectral, es por esta razón que se realiza el análisis estadístico.
Las imágenes obtenidas con la transformada de wavelet tienen una mejor apariencia
visual que las obtenidas a los métodos convencionales.

103
7 Conclusion

De acuerdo con los resultados obtenidos en el presente trabajo se pueden realizar las
siguientes conclusiones:

En el método RGB – IHS, la resolución espectral se degrada en un 9.996% y la


ganancia en la resolución espacial es mínima, aproximadamente el 0.20%, se podría
decir que es insignificante.
En el método de Componentes Principales con las técnicas: Vecino más cercano,
Interpolación Bilineal y Convolución Cúbica, la resolución espacial es muy buena
(entre 86% y 99%), pero sacrifica la resolución espectral (entre 0.0017% y 0.98%).
En el método de Multiplicación con las técnicas: Vecino más cercano, Interpolación
Bilineal y Convolución Cúbica, las mejoras de la resolución espectral (entre 60% y
96%), pero sacrifica la resolución espacial (entre 0.5% y 40%).
El método de la Transformada de Brovey con las técnicas: Vecino más cercano,
Interpolación Bilineal y Convolución Cúbica, las correlaciones de la resolución
espectral (entre 76% y 96%), pero sacrifica la resolución espacial (entre 0.3% y 55%).
Usando la transformada de Wavelet, db6, bior 6.8, db9 y bior1.1, son las mejores en
fusión de imágenes. Ya que la ganancia de resolución espectral está entre 92% y 98%
y la resolución espacial en promedio de 71%. El método de fusión de imágenes
usando la transformada de Wavelet es mejor que las técnicas estándar dado que esté
método es capaz de mantener la calidad espectral de la imagen multiespectral,
mejorando la resolución espacial.

Referencias

1. GONZALEZ. Rafael,. Tratamiento Digital de Imágenes. Ed, Eddison-Wesley.


1996. EE.UU.
2. NUÑEZ. Javier., IEEE Transactions on Geoscience and Remote Sensing. Vol
37, Nº. 3. May 1999. Multiresolution-Based Image fusion with Additive Wavelet
Descomposition.
3. RIAÑO, Orlando., Nota de clase P.D.I., Universidad Distrital Francisco José de
Caldas.
4. MURRAY. R. Spiegel. Estadística, Segunda edición Mc Graw Hill. 1999
5. ERDAS\IMAGINE 9.1\help\html\image_interpreter\resolution_merge.htm
6. Image Processing. Toolbox For Use whit MATLAB. The Math Works Inc.
7. MICHEL, Misiti. Wavelet Toolbox For Use whit MATLAB. The Math Works
Inc.
8. Image Processing. Toolbox For Use whit MATLAB. Reference. The Math
Works Inc.
Procesamiento Digital de Imágenes. Introducción a ILWIS bajo Windows. Guía de
Usuario. (Traducción: Alberto Boada. Revisión y adaptación por Orlando Riaño M.)
SPOT IMAGE. The catalogue of SPOT products and services.

104
Sistema Integrado de Información para el Régimen
Subsidiado de Salud en Colombia

Camilo Alfonso Vargas 1, Mónica Basto Guevara1, Nathalie Jiménez Millán 1

Julio Barón Velandia 2, Alejandro Daza2

Ingeniería de Sistemas, Universidad Distrital Francisco José de Caldas


1
{camiloalfonso, monibasto, ing.nathalie.jimenez}@gmail.com
2
{jbaron, apdazac}@udistrital.edu.co

Resumen. Dado que el sector salud es uno de los más importantes en


cualquier economía, y una de las mayores industrias de servicios en los
países desarrollados, el proyecto busca brindar soporte desde las
tecnologías de información y las comunicaciones a la prestación de los
servicios de salud a cargo de las Empresas Promotoras de Salud
Subsidiadas (EPS-S), enfocándose principalmente en los procesos del
área administrativa, proporcionando información oportuna, actualizada,
exacta, completa y accesible a las diferentes áreas de la EPS-S, de
manera que se facilite la toma de decisiones mejorando así los procesos
de calidad e igualdad en la prestación de los servicios de salud, y la
calidad de vida de los afiliados.
Palabras Claves: Sistema de Salud, información, EPS-S, calidad de
procesos.

1 Introducción

En Colombia el Sistema de Salud se compone por dos regímenes a los cuales se


puede estar afiliado: el régimen contributivo, al cual se encuentra afiliada la población
con capacidad de pago y el régimen subsidiado dirigido a la población pobre o
vulnerable, este último será en el cual nos centraremos.
El régimen subsidiado es administrado por la Empresas Promotoras de Salud
Subsidiada también conocidas como EPS-S, encargadas de promover la calidad en la
atención a los afiliados, organizar los servicios de salud, afiliar a la población,
recopilar toda la información de los afiliados, realizar labores de promoción y
prevención, administrar eficientemente los recursos con el propósito de brindar
mejores servicios y de calidad al mejor precio, entre otros; constituyéndose en
entidades claves sin las cuales el sistema de salud no podría funcionar
Uno de los principales problemas manifestados por las EPS-S es la incapacidad
técnica de tener, una plataforma integrada, asequible para todos sus funcionarios,
generando la transparencia en todos los procesos que llevan al cumplimiento de
brindar una atención de calidad a la población, que generalmente, se encuentra en
zonas de poco acceso o aislados de los centros urbanos.
Teniendo en cuenta esta problemática constante y visible en todo el territorio

105
nacional, se decidió desarrollar un prototipo que ofreciera una solución a los
principales problemas del sistema administrativo de las EPS-S, ayudando a la toma
de decisiones y mejorando los tiempos de respuesta en cuanto a solicitudes
presentadas por los pacientes, buscando el acercamiento de las instituciones hacia las
diferentes zonas a través de una plataforma en línea.

2 Problemática

Entre los problemas que presenta el Sistema General de Seguridad Social en Salud
(SGSSS) en Colombia se encuentra la calidad de la información que manejan6, dada la
experiencia práctica que se presenta en entidades como Caprecom, Capresoca y
Emdisalud, se puede observar que los sistemas de información de salud en estas
entidades no cuentan con los datos necesarios para proveer apoyo a las necesidades a
nivel de gestión. Una gran parte de estos datos que son registrados y reportados por el
personal de los servicios de salud son poco útiles a la hora de tomar decisiones debido
a que en muchos casos estos son incompletos, obsoletos, de poca fiabilidad y no están
relacionados con las prioridades, tareas y funciones de los trabajadores de salud [1]7.
Por ejemplo, cuando se realizan las matrices de Promoción y Prevención 8 la
funcionalidad actual de los sistemas de información sólo se centra en la identificación
de la cantidad de personas a las cuales se les promueven dichas actividades, pero no
permite discriminar individualmente, ni hacer revisiones en cada ciclo de evaluación
para determinar si siempre es la misma población la que queda excluida.
De esta forma, la falta de consistencia y calidad de los datos de la población
afiliada que se presenta en los sistemas de información en salud dificulta la vigilancia
y el control y, facilita la proliferación de duplicados y multiafiliaciones en el Sistema 9,
causando traumatismos de toda clase tanto para la institución como para las personas.
A lo anterior se suma la falsificación de los documentos de afiliación a las EPS-S que
ocasiona a los prestadores, pérdidas, dado que no pueden hacer los cobros por los
servicios prestados hacia el supuesto responsable del pago.

Por otro lado, el Ministerio de Protección Social ha venido realizando grandes


esfuerzos mediante una serie de disposiciones o acuerdos que regulan las relaciones
entre prestadores y aseguradores para dar por terminado el denominado ―paseo de la

6 La información debe ser oportuna, actualizada, exacta, completa y accesible para que se
entienda como información de calidad.
7 En Colombia para la solicitud de autorizaciones en lo que se conoce como sistema de
referencia y contrarreferencia, digitar la información no es responsabilidad de los médicos ni
de un profesional de la salud, por lo que es posible que la información que se introduzca no
sea fiable o este incompleta por problemas de legibilidad y estructura.
8 Las matrices de promoción y prevención muestran la relación entre los servicios prestados y
la población atendida. Los servicios de promoción y prevención comprenden las actividades,
procedimientos e intervenciones que permiten identificar en forma oportuna enfermedades,
facilitando el tratamiento oportuno, evitando secuelas, incapacidades y muerte.
9 MINISTERIO DE LA PROTECCIÓN SOCIAL. Resolución 890 de 2002.
MINPROTECCION, 2002.

106
muerte‖ 10, que se produce por la negación de prestación de servicios ante el temor de
las IPS de la no remuneración de la atención prestada y por la ―tramitología‖ en la que
incurren los familiares, e inclusive el mismo paciente para la solicitud de
autorizaciones de los procedimientos, que incluye en muchos casos el desplazamiento
hacia los centros de atención al usuario de las EPS-S y que se agudiza cuando la
atención se presenta fuera de la zona de cobertura.
Otro aspecto importante que hay que tener en cuenta es que los sistemas de
información van mucho más allá que el diseño y desarrollo del subsistema
informático. Un sistema de información puede definirse como "un conjunto de
componentes interrelacionados que permiten capturar, procesar, almacenar y distribuir
información para apoyar la toma de decisiones y el control de una institución" [2] por
lo que la calidad de los subsistemas informáticos deben permitir a los directivos y al
personal analizar problemas, visualizar cuestiones complejas, crear nuevos productos
en un ambiente intensivo de información, y brindar información que les faciliten la
toma de decisiones en cada uno de los procesos internos de una EPS-S, como el perfil
epidemiológico, costo por paciente y por municipio, entre otros.

3 Marco Teórico

Normatividad [3]

En Colombia, el sistema de seguridad social integral se diseñó a partir de la Ley 100


de 1993 cuyo objeto es ―garantizar los derechos irrenunciables de la persona y la
comunidad para obtener la calidad de vida acorde‖ 11, el sistema comprende las
obligaciones del Estado y la sociedad, las instituciones y los recursos destinados a
garantizar la cobertura de las prestaciones de carácter económico, de salud y servicios
complementarios estableciendo como principios la eficiencia, universalidad,
solidaridad, integralidad, unidad y participación; en el marco de los procesos y
objetivos de la ingeniería de software, es posible que a partir de esta se pueda cubrir el
principio de eficiencia tal como se establece en la ley al definirla como ―la mejor
utilización social y económica de los recursos administrativos, técnicos y financieros
disponibles para que los beneficios a que da derecho la seguridad social sean
prestados en forma adecuada, oportuna y suficiente‖12.

De igual forma, la Ley 100 establece dentro de la organización del Sistema


General de Seguridad Social en Salud (SGSSS) a las Entidades Promotoras de Salud
(EPS) como las entidades responsables de la afiliación y el registro de los afiliados
cuya función básica será organizar y garantizar, directa o indirectamente, la prestación
del Plan Obligatorio de Salud a los afiliados.
Posterior a la Ley 100 se produjeron una serie de decretos o resoluciones con el

10 Superintendencia Nacional de Salud. Boletín jurídico Bimensual número 6. Mayo – Abril,


2006.
11 CONGRESO DE LA REPÚBLICA DE COLOMBIA. Preámbulo: Ley 100 de diciembre de
1993. Bogotá: SNE, 2003.
12 Ibíd. Artículo 2.

107
fin de establecer la dinámica propia del SGSSS13; la normatividad vigente con
relación a los procesos sobre la prestación de servicios de salud está reglamentado
mediante la resolución 3374 de 2000 la cual reglamenta los datos básicos que deben
reportar los prestadores de servicios de salud y las entidades administradoras de
planes de beneficios sobre los servicios de salud prestados a sus afiliados en la que se
define básicamente la estructura del registro individual de prestación de servicios de
salud – RIPS - a partir de los cuales las EPS14, EPS-S15 y entidades del orden
territorial y nacional podrán obtener información acerca de su población y a su vez
gestionar el sistema de pagos en la relación EPS ó EPS-S y su red prestadora (IPS,
profesionales independientes o los grupos de práctica profesional), y define los
procesos informáticos16 que se deben ejecutar como son actualización, validación,
organización, administración de la base de datos, transferencia de datos y disposición
de información.
En cuanto al registro de afiliación y lo concerniente a requerimientos mínimos de
información de los afiliados se reglamentó mediante la resolución 812 de 2007 a
cargo del Ministerio de la Protección Social estableciendo la necesidad e importancia
de definir las estructuras de datos que permita la consolidación de la Base de Datos
Única de Afiliados (BDUA) con el fin de dar cumplimiento a lo dispuesto en el
artículo 8 del Decreto 2280 de 2004 y garantizar la calidad y oportunidad de la
información de los afiliados al SGSSS17, y que mediante el artículo 3 determina la
disposición, mantenimiento, soporte y reporte de información por parte de la EPS 18 y
que mediante el artículo 4 de la misma ley y posterior modificación mediante el
artículo 1 de la resolución 123 de 2008 19 en la que establece la conformación y
actualización de la Base de Datos Única de Afiliados (BDUA) establece la
responsabilidad del manejo y reporte de novedades de sus afiliados a los entes
territoriales para EPS-S20 o Fidufosyga (Administrador del fondo fiduciario del fondo
de solidaridad y garantía) para EPS ó EOC21, finalmente, mediante los artículos 10 y
1122 se establecen la reserva del manejo de los datos y disposición de la información
respectivamente.

13 SGSSS: Sistema General de Seguridad Social en Salud


14 EPS: Entidades Promotoras de Salud
15 EPS-S: Entidades Promotoras de Salud del Régimen Subsidiado.
16 MINISTERIO DE LA PROTECCIÓN SOCIAL. Artículo primero: Resolución 3374 de 2000.
MINPROTECCION, 2000.
17 MINISTERIO DE LA PROTECCIÓN SOCIAL. Preámbulo: Resolución 812 de 2007.
MINPROTECCION, 2007
18 EPS: Entidades Promotoras de Salud
19 MINISTERIO DE LA PROTECCIÓN SOCIAL. Resolución 123 de 2008.
MINPROTECCION, 2008.
20 EPS-S: Entidades Promotoras de Salud del Régimen Subsidiado.
21 EOC: Empresas Obligadas a Compensar
22 MINISTERIO DE LA PROTECCIÓN SOCIAL. Artículo 10 y 11: Resolución 812 de 2007.
MINPROTECCION, 2007.

108
4 Antecedentes

Expertos del mundo se manifiestan optimistas respecto a la adaptación de las


organizaciones de salud a la sociedad de la información, especialmente al hecho de
cómo van a asimilar el cambio que acompaña a las nuevas tecnologías, teniendo en
cuenta que la reingeniería de procesos, la resistencia al cambio, la calidad de los
contenidos que ofrece Internet, la accesibilidad a los Servicios de Salud y los cambios
en la relación médico-paciente siguen siendo los ejes alrededor de los cuales gira el
debate del futuro de las tecnologías de la información aplicadas a la Salud, en los
países desarrollados. [4]
Actualmente las diferentes Entidades Prestadoras de Salud se han ido
sistematizando para agilizar sus procesos internos, existen diferentes sistemas de
información en el mercado de software (Tabla 1).

Tabla 1. Comparación del sistema propuesto con sistemas existentes

En la tabla 1 se puede observar que los sistemas que se encuentran actualmente


facilitan algunos de los procesos de la entidad pero ninguno logra la integración de
todas las áreas funcionales de una EPS-S, sin embargo SIRESS si lo hace, ya que ha
sido diseñado especialmente para trabajar transversalmente con cada una de las áreas
funcionales de la entidad.

109
5 Metodología

La metodología utilizada para el Sistema de Información del Régimen Subsidiado en


Salud (SIRESS), es de tipo cualitativo-cuantitativo ya que se obtiene información a
través de aplicación de instrumentos como encuestas, entrevistas y revisión de
prototipos implementados obteniendo información de las variables sujeto de estudio
que permitan verificar la calidad del proceso.
En cuanto al tipo cualitativo se obtiene descripción de los datos a recolectar como
por ejemplo los datos de la población mínimos que se deben mantener para poder
cumplir con la completitud de la información que permita identificar inequívocamente
a una persona, datos de los prestadores de salud, datos de la información del registro
individual de prestación de servicios de salud, datos de procedimientos,
medicamentes, diagnósticos y su respectiva codificación, forma en la que se
administran los procesos administrativos de auditoría médica y de calidad, tipo de
restricciones de accesibilidad a la información y disponibilidad de la información. En
cuanto al tipo cuantitativo se hace referencia al tiempo de respuesta del sistema para la
ejecución de procesos y el tiempo requerido para ejecutar una tarea. De esta forma se
garantiza la calidad de la información, pues se establece claramente las metas o
indicadores susceptibles de ser alcanzados.
Dado el enfoque cuantitativo, es de notar, que la investigación es cuasi-
experimental en la medida que se decide comparar dos momentos en la investigación
de desarrollo, un grupo de control que exhibe las variables antes de la implementación
de un proceso de software y el comportamiento de las variables una vez hecho el
desarrollo del prototipo implementado en un ambiente de pruebas.
La metodología escogida para el desarrollo del sistema de información fue el
proceso unificado, el cual está basado en el lenguaje unificado de modelado, que es
iterativo, centrado en la arquitectura y dirigido por los casos de uso, además consta de
unas fases y flujos de trabajos definidos [5] (ver figura 1) .

Fig 5. Proceso Unificado (UP), relación entre las fases del proyecto y las disciplinas
técnicas que se abordan en cada una de las iteraciones.

110
6 Desarrollo

Comprendiendo el tamaño total del sistema, lo complicado de modelar el sistema de


manera única y la existencia de subsistemas, se dividió el Sistema de Información del
Régimen Subsidiado en Salud (SIRESS) para EPS-S en 7 subsistemas: Comprobador
de derechos, atención inicial de urgencias, atención al usuario, contratación, red
prestadora, cuentas y recobros FOSYGA. Para efectos de este artículo, explicaremos
el desarrollo del sistema en términos de un subsistema, el comprobador de derechos.

Fig 2. Diagrama de Contexto de SIRESS

6.1 Arquitectura del sistema

Los usuarios acceden a SIRESS a través de un Navegador Web 23 (se recomienda


Firefox24 3.5 o superior y/o Internet Explorer 25 8 o superior) que interpreta y controla
el contenido visual que provee el Servidor Web 26 (Apache Tomcat27 5.0) o
conceptualmente conocido como presentación (Hojas de Estilo CSS28, Páginas
HTML29, Java Scripts30, Archivos en formato PDF31).

23
Para mayor información visitar el sitio web http://www.cavsi.com/preguntasrespuestas/que-
es-un-navegador-web/.
24
Para mayor información visitar el sitio web http://www.mozilla.com/firefox/.
25
Para mayor información visitar el sitio web
http://www.microsoft.com/spain/windows/internet-explorer/.
26
Para mayor información visitar el sitio web
http://www.cibernetia.com/manuales/instalacion_servidor_web/1_conceptos_basicos.php.
27
Para mayor información visitar el sitio web http://tomcat.apache.org/.
28
Para mayor información visitar el sitio web http://www.w3.org/Style/CSS/.
29
Para mayor información visitar el sitio web http://www.w3schools.com/html/default.asp.
30
Para mayor información visitar el sitio web http://docs.sun.com/source/816-6408-
10/contents.htm.

111
Esta presentación es generada desde el núcleo de la aplicación (software de
SIRESS), que está desplegada en el Servidor de Aplicaciones 32 (Enhydra
Application33), el cual brinda seguridad, manejo de concurrencia y escalabilidad al
sistema.
La aplicación se rige por el estilo arquitectónico denominado Modelo-Vista-
Controlador34 para la implementación de la dinámica encontrada en la funcionalidad
del SGSSS; en cuanto a los componentes estáticos del SGSSS, estos están plasmados
en la Base de Datos (PostgreSQL35), y se manipulan usando la implementación del
Patrón DAO36; y así, ser coherentes con las buenas prácticas de Desarrollo Web. [6]

Fig 3. Arquitectura de SIRESS

6.2 Análisis y Diseño

Se procedió a modelar las relaciones del sistema en general por medio de la


herramienta i*[7]37 permitiendo visualizar los principales objetivos que se quieren
cumplir en el sistema, las actividades que pueden lograr un el cumplimiento del
objetivo, los recursos físicos que intervienen en dicho proceso y las intensiones que
tienen los actores sobre el desarrollo del objetivo.
Teniendo en cuenta la normatividad que rige al régimen subsidiado en salud se
levantaron los requerimientos del sistema, principalmente extraídos de las
resoluciones de Ministerio de Protección Social, para el subsistema Comprobador de

31
Para mayor información visitar el sitio web
http://www.adobe.com/es/products/acrobat/adobepdf.html.
32
Para mayor información visitar el sitio web
http://www.bestpricecomputers.co.uk/glossary/application-server.htm.
33
Para mayor información visitar el sitio web http://www.enhydra.org/.
34
Para mayor información visitar el sitio web http://heim.ifi.uio.no/~trygver/themes/mvc/mvc-
index.html.
35
Para mayor información visitar el sitio web http://www.postgresql.org/.
36
Para mayor información visitar el sitio web
http://java.sun.com/blueprints/corej2eepatterns/Patterns/DataAccessObject.html.
37 Para más información visitar la página de Eric Yu: http://www.cs.toronto.edu/~eric/

112
derechos aplica la resolución 812[8] y su posterior actualización mediante la
resolución 1982[9].

Las siguientes figuras se hacen con el lenguaje unificado de modelado UML [10].

6. 2. 1 Casos de Uso

Para el subsistema comprobador de derechos tenemos los casos de uso:


Comprobando estado de afiliación y datos personales
Revisando Novedades
Revisando Servicios
Registrando Novedades
Registrando Ingresos
Generando Reportes de aseguramiento

De los anteriores casos de uso, después de un análisis realizado por medio de una
matriz de casos de uso críticos, se encontró que el caso de uso Comprobando estado
de afiliación y datos personales es el de mayor criticidad; es decir que los otros
subsistemas de alguna forma necesitan de la realización de este caso de uso para llevar
a cabo con éxito.

Fig 4. Diagrama de Casos de Uso para el subsistema comprobador de derechos

Diagrama de Actividades

En la figura 5 se puede observar el paso a paso del flujo de trabajo para el caso de uso
antes descrito.

Diagrama de Despliegue

El diagrama de despliegue muestra tres componentes: la terminal cliente, representa

113
todos y cada uno de los equipos de computo por los cuales el usuario accede al
sistema; el servidor web, representa el dispositivo de hardware/software en donde se
concentra el núcleo del sistema; y el servidor de datos, que representa el dispositivo
hardware/software que tiene la responsabilidad de la persistencia de los datos.
Para SIRESS se genero toda la documentación técnica necesario para el posterior
crecimiento de la aplicación, ya sea complementando los demás módulos del sistema
o como base para el otro régimen de salud, el régimen contributivo.

Fig 4. Diagrama de Actividades para el comprobador de derechos

Fig 5. Diagrama de Despliegue para SIRESS

5 Conclusiones Y Trabajo Futuro

SIRESS se desarrolló con base en la metodología Proceso Unificado aprovechando


sus características de ser iterativo e incremental, lo cual permitió obtener subsistemas
funcionales mediante módulos, de los cuales se llegó al desarrollo y prueba de los
módulos correspondientes a la línea base, permitiendo una constante
retroalimentación y refinamiento de las distintas actividades mediante la aplicación
progresiva de los flujos de trabajo de ingeniería; con respecto a los flujos de trabajo
de gestión, esta metodología facilitó la construcción de la documentación de los

114
diseños y los manuales de instalación y de usuario.
Las debilidades presentadas por UP en cuanto a intencionalidad fueron superadas
mediante i*, logrando una mejor comprensión de los conceptos involucrados, ya que
permite hacer explícitas las intenciones inter e intra actores en una organización,
elemento fundamental para la definición holística del modelo de negocio, para lo cual
fue de gran ayuda la interacción con personas con alto grado de conocimiento y
experiencia en la gestión y ejecución de procesos; ya que permite navegar desde un
modelo general enmarcado en el régimen subsidiado de salud para después ser
detallado en un dominio particular con el apoyo de los gerentes de proceso, y de ésta
manera se logró obtener los requerimientos del sistema, siempre asociados al dominio
del negocio; para la especificación detallada de los requerimientos se contó con la
valiosa colaboración de las personas encargadas de ejecutar las tareas y actividades de
cada uno de los procesos.
El desarrollo del prototipo mediante subsistemas reduce la complejidad y facilita
la integración de funcionalidades, a medida que estas son desarrolladas (disponibles).
Con SIRESS se logró organizar los datos de manera visual y reestructurar los
procesos y la base de datos de la EPS-S brindando la capacidad de escalar en
funciones y necesidades, permitiendo su uso en el apoyo a los sistemas de calidad para
la prestación de servicios de salud, así como para el cumplimiento de la normatividad
y soporte ante los organismos de control.
La reducción de tiempo y esfuerzo que presenta el SIRESS en comparación con
los procesos actuales en las EPS-S, se pudo evidenciar al realizar las pruebas del
prototipo con datos reales y la interacción de funcionarios de la misma, estimando una
reducción entre el 25% y el 50% de los tiempos en el manejo de los procesos. El
impacto real sobre la población afiliada al régimen subsidiado de salud no se puede
ver sólo en términos de reducción de tiempos, se debe realizar un estudio estadístico
en el cual se determine el problema a estudiar, las variables aplicables, las hipótesis, el
modelo estadístico a utilizar, la población y la muestra; todo esto aplicable bajo un
SIRESS implementado completamente en una EPS-S.

Referencias

1. Lippeveld TJ, e. a: Transforming health facility base reporting systems into


management information system: lessons from the Chad experience: Harvard
Institute of International Development, Cambridge. (1992)
2. Claudon, K., & Laudon, J. : Administración de los sistemas de información.
Prentice Hall HispanoAmericana, México. (1996)
3. Ley 100 (Congreso de la República de Colombia 1993)
4. Cámpoli, M. Sistemas de Información en el Sector Salud: ―Utopía o realidad‖.
Argentina, Buenos Aires. (2005).
5. Jacobson, I., Booch, G., and Rumbaugh, J.: El proceso unificado de desarrollo de
software. Pearson Addison Wisley. (2005)
6. Pressman, R. S. (2005). Ingeniería de Software: Un enfoque prático. Mc. Graw
Hill.
7. I* Wiki. Tiki community. [En línea] 2002-2008 [Citado el 22 de Enero de 2010],
http://istar.rwth-aachen.de/tiki-view_articles.php
8. Resolución 812 (Ministerio de la Protección Social 2007).

115
9. Resolución 1982 (Ministerio de la Protección Social 2010).
10. Jacobson, I., Booch, G., & Rumbaugh, J. (2000). El Lenguaje Unificado de
Modelado UML. Pearson Addison Wisley.

116
Producto software para simular líneas de espera

Alba Zoraly Hernández Cárdenas, Mario Enrique Araoz Rojas,Jairo Arenas


Gómez, Julio Barón Velandia

Universidad Distrital Francisco José de Caldas, Bogotá, Colombia


{Alba Zoraly Hernández Cárdenas, Mario Enrique Araoz Rojas,Jairo Arenas Gómez,
Julio Barón Velandia} jbaron@udistrital.edu.co

Resumen. El presente artículo da a conocer a la comunidad científica y


académica el resultado del trabajo de tesis sustentado en la Teoría de
Colas y la Simulación, plasmado en un producto software denominado
OPTIMUS-UD, una herramienta de simulación gráfica de sistemas de
líneas de espera la cual se ha desarrollado en un marco interdisciplinario
soportado en técnicas, metodologías y procesos propios de la Ingeniería
Industrial y la Ingeniería de Sistemas

Palabras clave: simulación, lineas de espera, teoría de colas,


simulación gráfica

1 Introducción

Desde hace varios años, la técnica de la simulación se ha considerado como una


herramienta elemental para el estudio y análisis de sistemas reales, que hace posible
la experimentación, minimizando los riesgos y convirtiéndose en un instrumento de
generación de alternativas de acción.
Aprovechando las múltiples ventajas de la simulación, en este trabajo
investigativo se ha pretendido diseñar y desarrollar un prototipo software de
simulación que facilite el aprendizaje, modelado y análisis de sistemas de líneas de
espera, cuyo principal aporte será el diseño de la interfaz gráfica de usuario, que
facilita en gran medida la construcción del modelo virtual que representa el sistema
bajo estudio y permite que usuarios no expertos tanto en simulación como en
programación puedan llevar a cabo los pasos de construcción, validación y análisis del
modelo de líneas de espera en un proceso de simulación.
La implementación de este software fue realizada siguiendo las pautas definidas
en la metodología de desarrollo de software RUP (Racional Unified Process) y la
aplicación del estándar UML, patrones de diseño y estándares de codificación.
El prototipo software desarrollado, provee las funcionalidades y características
más comunes de los simuladores de este tipo y cuenta con todos los elementos
constitutivos de un sistema de líneas de espera. Como valor agregado, este simulador
incluye un entorno gráfico interactivo del sistema analizado que le permita al usuario
verificar que la visión que tiene del sistema es la correcta, una interfaz de usuario

117
amigable y de fácil uso que permite la construcción de modelos de forma rápida y
sencilla, y finalmente cuenta con su propio generador de variables aleatorias,
construido mediante el uso de algoritmos de generación de variables muy confiables
obtenidos en una amplia investigación estadística por parte de sus autores. Estos
algoritmos han sido validados y corregidos por medio de la aplicación de exhaustivas
rutinas de pruebas de bondad y ajuste utilizando diferentes herramientas software de
análisis estadístico.

2 Líneas de espera o colas

Todos los días estamos expuestos a hacer parte directa de una Cola, por ejemplo
automóviles que esperan en un semáforo en rojo, piezas que esperan su proceso de
manufactura en una máquina, entre muchas otras, se consideran líneas de espera. Nos
hemos acostumbrado a esperas largas, ―El tiempo que la población de un país pierde
en colas es un factor importante tanto en la calidad de vida como en la eficiencia de su
economía, se puede decir que las líneas de espera largas también son costosas en
cierto sentido, ya sea por un costo social, por un costo causado por la pérdida de
clientes, de insumos o por algún otro costo importante.‖ [2].
La Teoría de colas es el estudio matemático del comportamiento de las líneas de
espera, éstas se generan cuando el ―cliente‖ llega a una instalación demandando un
servicio al "servidor", el cual tiene cierta capacidad de atención. Si el servidor no está
disponible inmediatamente y el cliente decide esperar, entonces se forma en la "línea
de espera" (cola o fila). El servidor elige a un cliente de la línea de espera para
comenzar a prestarle el servicio. Al culminarse éste, se repite el proceso de elegir a un
nuevo cliente (en espera). [3]

3 Software de Simulación

Son aquellos que posibilitan la creación gráfica de modelos de simulación, la


planeación e implementación de proyectos complejos en los negocios, industrias y
gobierno requieren de grandes inversiones, razón por la que es indispensable realizar
estudios preliminares para asegurar resultados rápidos a un costo relativamente bajo,
éste proceso está basado en la modelación y se conoce como simulación.
Sus orígenes se remontan a la Segunda Guerra Mundial cuando se aplicó
a problemas relacionados con la bomba atómica.
Esta aplicación supuso la simulación directa del comportamiento sobre los
neutrones de carácter aleatorio, y su difusión en el material fisionable. Al poco
tiempo fue utilizada en los trabajos de Student para aproximar la distribución que
lleva su nombre, y en los métodos que Von Neumann y Ulam introdujeron para
resolver ecuaciones integrales. [3]. Desde entonces la Simulación se ha convertido en
una metodología de experimentación fundamental.
Anteriormente realizar un proceso de simulación resultaba terriblemente engorroso
debido a la gran cantidad de datos numéricos y tiempo de computador que consumía,
pero gracias a los avances exponenciales que ha tenido las tecnologías de información
en cuanto a su capacidad de procesamiento, de almacenamiento y facilidad en el

118
manejo de gráficas, la simulación se ha convertido en una de las ramas experimentales
de la Investigación de operaciones con mayor acogida‖. [1]
Una definición obtenida durante nuestro proceso de aprendizaje en la Universidad
indica que la simulación consiste en la representación, mediante un Modelo
Matemático, de un sistema de la vida real que se intenta reproducir a través del tiempo
con la ayuda de un sistema de cómputo. Para llevar a cabo una simulación se debe
partir del hecho que ésta es un proceso y como tal tiene una serie de pasos o
actividades a realizar, aunque en la literatura no se encuentra en sí una regla que
determine como se debe hacer este proceso, el autor Luís Ernesto Blanco en su libro
Simulación con Promodel nos brinda los siguientes pasos que nos dan una idea al
respecto.

 Haga plan de estudio


 Defina el sistema
 Construya el modelo
 Ejecute experimentos
 Analice y reporte resultados

4 Desarrollo del software

El desarrollo de una herramienta software de Simulación es un proceso, que como


todos los proyectos de ingeniería, requiere de cierta rigurosidad en su definición,
análisis, diseño e implementación. Cada una de éstas constituye a su vez un conjunto
de subprocesos y actividades que deben llevarse a cabo para tener una concepción
clara del grado de complejidad que conlleva el proyecto y así poder garantizar la
calidad del resultado, en todas sus fases de desarrollo. Es por ello que se consideró
necesario dividir el proyecto OPTIMUS-UD en fases, cada una de las cuales darían la
idea de qué es lo que se requiere, cómo se podría conseguir el objetivo para
finalmente plasmar estas definiciones que darían como resultado el producto software.

5 Modelado del negocio

Un proceso de negocio es un conjunto de tareas relacionadas lógicamente llevadas a


cabo para lograr un resultado de negocio definido. Cada proceso de negocio tiene sus
entradas, funciones y salidas. Las entradas son requisitos que deben tenerse antes de
que una función pueda ser aplicada. Cuando una función es aplicada a las entradas de
un método, tendremos ciertas salidas resultantes.
Partiendo de este concepto se identificaron los siguientes procesos de negocio;
gestión de modelo, del panel de diseño, del tipo de cliente, del tipo de recurso, de la
cola, de la estación de servicio, del servidor, de variables, de atributos, de la ruta de
procesamiento, del proceso por cliente, de la corrida de la simulación, de los
resultados y estadísticas.

119
6 Desarrollo del modelo funcional

6.1 Modelo de casos de uso

De acuerdo con el modelo de proceso RUP, el modelo funcional está basado en casos
de uso los cuales surgen a partir del análisis del problema y del análisis de los
requerimientos planteados.

Como ejemplo se muestra el diagrama de gestión de una estación de servicio

Fig 1. Diagrama de caso de uso gestión de la estación de servicio

7 Especificación de diseño

Considerando que este tipo de software presenta una constante interacción con el
usuario que requiere de una Interfaz de Usuario ágil, y teniendo en cuenta que las
mejores prácticas para el desarrollo de software resaltan la necesidad e importancia de
separar la Lógica de Negocio de la Presentación al usuario, OPTIMUS-UD se ha
definido esencialmente en dos componentes principales; una capa de lógica de
negocio y una capa de presentación. Por otra parte, se han definido cuatro módulos
adicionales que complementan las funcionalidades de la aplicación todo esto con el
único fin hacer la aplicación mantenible y escalable.
La figura siguiente presenta un diagrama genérico de la arquitectura definida para
OPTIMUS-UD mediante un diagrama de componentes de la aplicación.

120
id Components
•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••
OPTIMUS
LIB

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••


presentaci on de reportes
iText-2.1.1.j ar ModuloDeResultados Presentacion
•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••


j common-1.0.13 «use» generaci on de presentaci on de datos modi fi caci on de datos
estadi sti cas
•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••• • • • • • • • • • • • • • • • • LogsDeLaSimulacion
j freechart-1.0.9 • • • • • • • • • • •obtenci
••• on •
de• • • • • • • • •LogicaDelNegocio
datos •••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

• • • • •GRAFICOS
••••••••••••••••••••• • • • • • • • • • • • • • • • • • • • • • • • • • •generaci
•• on •
de• •abl
vari •es• • • • • • • • • • • • • • • • • • • • •••••••••••••••••••••••••
al eatori as
«use»
•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• • • • • • • • • • • • • • • • • • • • • • •Distribuciones
•••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

• • • • • • • • •Imagenes
•i caci
apl •• usadas por l a
on • • representar
para • • • • l• os • • • • • • • •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••
el ementos de l a Si mul aci on

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

••••••••••••••••••••••••••
Fig 2. Diagrama de componentes para OPTIMUS-UD
•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

8 Diagramas De Paquetes
•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••


Con base en la arquitectura• •definida
••••••••••••••••••••••••••
y el enfoque en la utilización de patrones de
•••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

• • •diseño,
• • • • • • •se
• • ha
• • •definido
••••••••una
• • • estructura
• • • • • • • • general
• • • • • • • de
• • •paquetes
• • • • • • • •del
• • simulador.
•••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

Fig 3. Diagrama de paquetes general

8.1 Módulo de generación de variables aleatorias.

OPTIMUS_UD cuenta con su propio generador de variables aleatorias y


determinísticas con 20 distribuciones de probabilidad entre distribuciones continuas,
discretas, empíricas y constante, este generador fue construido mediante el uso de
algoritmos de generación de variables muy confiables obtenidos en una amplia
investigación estadística por parte de sus autores. Estos algoritmos fueron validados y
corregidos por medio de la aplicación de exhaustivas rutinas de pruebas de bondad y
ajuste utilizando diferentes herramientas software de análisis estadístico.
OPTIMUS UD cuenta con un archivo de ayuda HTML desarrollado gracias a la
herramienta libre HelpMaker®, en el cual se describen claramente cada una de las

121
funciones y características del simulador, en este archivo de ayuda el usuario. Puede
encontrar toda la información que necesita para crear un modelo desde cero, y
también definiciones de todos y cada uno de los elementos que componen los sistemas
de líneas de espera.

8. Conclusiones

La simulación se ha convertido en una herramienta fundamental y necesaria a la hora


de evaluar sistemas en donde no existe una completa formulación matemática del
problema, los métodos analíticos para resolver el modelo matemático no se han
desarrollado aún, el costo de la implementación o la realización de experimentos es
demasiado elevado, se desea observar el trayecto histórico simulado del proceso sobre
un período, además de estimar ciertos parámetros o en donde se requiere la
aceleración del tiempo para sistemas o procesos que requieren de largo tiempo para
realizarse.
La simulación como herramienta interdisciplinaria provee muchas ventajas, entre
las cuales están, la posibilidad de otorgarle al usuario la definición del modelo del
sistema que quiere simular, el control del tiempo de simulación, la alteración o
modificación de las variables del sistema y las condiciones del modelo (Escenarios),
entre otras. De aquí que la simulación permite pronosticar cuál será el
comportamiento dinámico del sistema que se está simulando y asimismo ver cuando el
sistema pueda fallar en las condiciones adversas del ambiente donde funcionará. Todo
esto enmarcado en que la Simulación es cada vez más ―amigable‖ para el usuario, que
no tiene que ser un especialista en computación.

Referencias
1. Blanco Rivero, Luis Hernesto. Fajardo Piedrahita, Ivan Dario. Simulación con promodel,
Casos de producción y logística. Primera edición. Bogotá D.C.: Ed Escuela colombiana
de ingenieros 2001
2. Hillier, Frederick S. Lieberman, Gerald J. Introducción a la investigación de
operaciones. Sexta edición. Mejico D.F.: Mc Graw Hill Interamericana Editores S.A.
1997.
3. Taha, Hamdy A. Investigación de operaciones. Quinta Edición, Méjico D.F.: Alfa Omega
Grupo editor S.A. 1995.
Wiston Wayne L. Introducción a la investigación de operaciones, (Aplicaciones y
algoritmos); segunda edición; Grupo editorial Iberiamericana 1995.

122
Diseño y Desarrollo de una Aplicación de Generación
Automática de Componentes Bajo la Especificación SCA

1
Clara Ardila, 2Javier Fajardo, 3Julio Barón Velandia
Universidad Distrital Francisco José de Caldas, Bogotá, Colombia
{1lain2040@gmail.com, 2lordmkichavi@yahoo.es, 3jbaron@udistrital.edu.co}

Resumen. Actualmente, muchas herramientas para el diseño de


software han sido orientadas hacia personas con conocimientos en
computadores, limitando a expertos en un dominio de conocimiento, la
posibilidad de plantear modelos para un dominio de solución y con este
crear prototipos exploratorios. A partir de aquí las ontologías abren un
camino más libre de entendimiento a cualquier persona no experta en
términos técnicos, pero sí en un dominio específico. A través de la
propuesta del modelado ontológico se puede lograr una
conceptualización consensuada y que sea procesada por la máquina,
basada en la fabricación de componentes genéricos. A pesar de que el
concepto de componente no es nuevo, vale la pena hacer hincapié en
que la propuesta de OSOA permite crear componentes (especificación
SCA) con características de reutilización y orientarlo a servicios que
sean soportados en plataformas Web. Este documento describe la
propuesta en la que se desarrolla una aplicación que permite tomar
ontologías hechas por un experto en un dominio de conocimiento y
transformarlas en componentes SCA, facilitando la generación de
código en lenguajes como Java.

Palabras Claves: Ontología, Componente, Service Component


Architecture, Reutilización, Open Service Oriented Architecture.

1 Introducción

El desarrollo de software ha tenido un progreso significativo en la generación de


técnicas y herramientas ayudando a mejorar la generación de estructuras de código
que facilite el desarrollo de productos de software, sin embargo, estas herramientas se
han diseñado para usuarios con conocimientos específicos en diseño y desarrollo.
Además, existen inconvenientes para diseñar el modelo del dominio de solución
del problema. Por lo general, este modelo está ligado a un lenguaje de programación
específico, limitando las posibilidades a un experto en un dominio de problema para
desarrollar un prototipo ejecutable por un dispositivo computacional.
En este documento describe un proyecto en curso que tiene como objetivo
mostrar una propuesta en donde a partir de una ontología puede ser posible crear
componentes SCA, de esta manera un experto en el dominio del problema utiliza la
herramienta que le permita hacer su modelo del dominio de la solución y también que

123
realice la transformación de ese modelo a un lenguaje de programación, en este caso
Java. A continuación se describe la metodología, y luego se da una descripción de
cada uno de los conceptos involucrados y la representación gráfica de los elementos a
destacar, finalmente, se presentan las conclusiones.

2 Metodología y Diseño para Generación de Código

2.1 Marco Teórico

Ontología

Dependiendo del contexto. En la filosofía se define como la explicación sistemática


de ser. Sin embargo, para el contexto que nos interesa, una ontología es una
descripción formal de conceptos y las relaciones entre esos conceptos, que es una
definición simple e informal. Una definición más formal de lo que sería una ontología
"proporcionar una especificación formal y explícita de una conceptualización
compartida" [2], es decir, una representación declarativa de esos conceptos,
expresados en ontologías de dominio, que se caracterizan por hacer representaciones
explícitas de lo conceptual de modelo y de ella, hacer representaciones compartidas de
ese dominio.
Con las ontologías se establece una terminología común entre los conceptos
relacionados que se describen en un dominio, en donde llamamos dominio a un área
específica de interés, así como para un sociólogo el concepto de ser humano no es
igual al que podría tener un biólogo o un antropólogo, el dominio de interés es
diferente debido al entorno en que operan, por lo que hay un cambio de contexto entre
los conceptos generados por el área de conocimiento.
Para Nataly Noy y Deborah McGuinness, una ontología define los términos
utilizados para describir y representar un dominio determinado. Por lo tanto, las
ontologías describen el mundo de una manera particular y representan un dominio de
interes.
En general, una ontología describe conceptos o clases, las propiedades de cada
concepto en particular, las características y atributos, llamados slots, roles o
propiedades, y las restricciones sobre estas propiedades llamadas facetas o
restricciones de rol [6]. Por último, la ontología de un conjunto de individuos forma lo
que se denomina la base de conocimientos [6].

Lenguajes Ontológicos

Los lenguajes son utilizados para desarrollar herramientas y ontologías para


comunidades específicas y en el caso de OWL, ser compatible con la arquitectura de
la World Wide Web en general. Entre estos idiomas están:

124
Table 2. Algunos Lenguajes Ontológicos
Nombre Autor Descripción
Ontololing Permite definir clase, relaciones,
Thomas R Gruber
ua funciones, objetos y teorías.
Lenguaje de representación Ontológica.
University of Permite describir clasificaciones de
SHOE
Maryland objeto y sus relaciones, además de hacer
anotaciones en paginas HTML.
Es un lenguaje para modelar ontologías,
DAML DARPA Agent
fue creado como una extensión de RDF
Posee un modelo de datos para los
objetos y relaciones entre ellos,
RDF W3C proporcionar una semántica sencilla,
este tipo de modelo de datos se puede
representar en sintaxis XML [4].
Es un vocabulario usado para describir
propiedades y clases de recursos RDF,
RDFS W3C
con una semántica jerárquica de
propiedades y clases [4].

Service Component Architecture (SCA)

En marzo de 2007, la organización OSOA anunció que la tecnología de SCA se


encuentra en una etapa madura de desarrollo. La gestión de SCA, nos permite facilitar
la creación y ejecución de aplicaciones de negocios con una arquitectura orientadas a
servicios.
SCA es un conjunto de especificaciones, un modelo para construir aplicaciones y
sistemas basados en una arquitectura orientada a servicios (SOA). Básicamente, busca
definir un único modelo de componente de servicio tanto a proveedores como a
consumidores, estableciendo una forma única para el montaje de estos componentes.
SCA como especificación no se limita a Java, sin embargo tentativamente supone
estar abierto a componentes en diferentes lenguajes.
La figura 1 muestra un diagrama básico de la estructura de SCA, la cual tiene los
siguientes elementos:

 Composite: Un composite de SCA se compone de un conjunto de componentes,


servicios, Reference y Wire que están interconectados [8]
 Component: Es el elemento básico de la función de negocios en un grupo SCA, el
cual es entrelazado dentro de una solución completa de negocio dentro del
Composite SCA [8].
 Service: Es una interfaz de direccionamiento de la aplicación [8].
 Reference: Es un requerimiento de la aplicación dado por un service de otro
component [8]
 Wire: Elemento que conecta los reference con los service [8]
 Promote: Elemento que conecta los services o reference entre diferentes

125
composites

Fig. 1. Diagrama del Composite en SCA [8]

Estos son las diferentes herramientas que han implementado la especificación SCA:

Table 3. Algunas Herramientas que implementa la especificación SCA


Nombre Autor Descripción
Eclipse STP plug in Eclipse Facilita pasar de una interfaz de Java ™,
(SOA Tools Platform) comentar con servicio Web relacionados
con las propiedades, y generar el código
Java
SCA Tools SOA Proporciona un conjunto de
herramientas para la arquitectura de
componentes de servicio (SCA) a través
de un conjunto de normas.
Apache Tuscany SCA Apache En tiempo de ejecución permite dividir
en dos categorías de módulos: básico y
extensiones con las opciones de
implementación acogidas.
Oasis SCA Oasis Reúne a proveedores y usuarios a
(Composite Services colaborar en el desarrollo y la adopción
Architecture) de las especificaciones Service
Component Architecture (SCA) y
Service Data Objects (SDO)

126
3 METODOLOGÍA DE DISEÑO

El desarrollo del proyecto se basa en dos enfoques, la primera dedicada a la creación


de la ontología fundamental utilizada por el usuario para poder diseñar la propia,
además de diseñar un conjunto de ontologías de prueba, y el segundo enfoque es el
diseño de la aplicación y ejecución que llevan a cabo la transformación de la
ontología a componentes SCA.
En el primer enfoque se utiliza la metodología de Methontology, que fue
desarrollado por el grupo de ingeniería ontológica en la Facultad de Informática de la
UPM (Universidad Politécnica de Madrid).
Esta metodología consta de dos partes:
 Proceso de desarrollo de la Ontología: Este se centra en las actividades que se
desarrollan cuando la ontología es crear (Tomado del artículo Metodología).
Establece tres categorías de actividades:

─ Las actividades de gestión.


─ Las actividades orientadas al desarrollo.
─ Actividades de apoyo.
─ Con el fin de la meta del proyecto que sólo usará los dos primeros. Además, por
la naturaleza del documento, no se especifican los pasos intermedios que
componen cada categoría.

 Una vez que este proceso termine, se pasará a diseñar un álgebra que permita la
conversión de las ontologías desarrolladas con la estructura definida, en este caso,
conceptos, predicados y acciones, a componentes de la especificación SCA. Las
tareas en esta sección son:

─ Revisión de las álgebras desarrollada para la conversión de ontologías en código


Java.
─ Estudio y análisis de ambas tecnologías (ontologías y las especificaciones SCA)
para encontrar un punto de convergencia entre ellas.
─ Caracterización de los resultados en un ejemplo particular o la generalización
del modelo.
─ Probar el modelo establecido.
─ Asimismo, para el segundo enfoque, se llevará a cabo los siguientes pasos:

1. Determinar los tipos de la ontología válidos para el procesamiento a componentes


SCA.
2. Selección de una ontología base que permita determinar claramente: los conceptos,
predicados, acciones y sus respectivas propiedades.
3. Diseño del modelo estructural mediante el establecimiento de los elementos básicos
que lo constituyen.
4. Diseño del modelo dinámico de la aplicación mediante la definición de la
interacción de los componentes y sus comportamientos complejos.
5. Diseño del archivo XSD que permite la conversión a formato XML que se utiliza
para almacenar las ontologías desarrolladas por los usuarios.
6. Análisis, Diseño e Implementación de la aplicación para la generación de
componentes SCA.

127
7. Realización de pruebas para garantizar el buen funcionamiento de la aplicación.
La descripción de cada uno de los pasos queda fuera del alcance de este documento.

3.1 Generación de Componentes SCA a través de Ontologías

Esta es una propuesta que toma las características de una ontología, y las traduce en
cada uno de los elementos que caracterizan a SCA, esto significa, generar composite,
components, services y references.
La idea base y el objeto de estudio en el proceso de este proyecto es que a través de la
aplicación desarrollada, los conceptos definidos en el modelo ontológico por el
experto en el dominio del problema, se convertirán en clases Java en el dominio de
SCA, que son utilizados por los componentes para llevar a cabo un servicio
específico. Asimismo, las acciones definidas en Componentes de Servicio responsable
de hacer el servicio. A su vez, los predicados que será responsable de las restricciones
para permitir o no la llamada al servicio, según el experto. Y, por último, se definirá la
estructura del composite en XML que se invocará cada uno de los componentes, a fin
de ser procesados computacionalmente.

3.2 Diseño de la Ontología Básica

Una ontología consiste en dos partes, una es la definición del vocabulario que se
utiliza para la comunicación entre los elementos que se describen en SCA, la otra
parte consiste en la definición de las relaciones entre los conceptos y sus reglas,
finalmente se muestra la estructura y semántica de la ontología. En la tabla siguiente
hay algunos elementos descritos para crear la ontología genérica para el proyecto.

Table 4. Definición de términos para la ontología

Término Sinónimo Acrónim Descripción Tipo


o
Concepto Noción C Se encarga de agrupa Clase
conceptos específicos con los Abstracto
que se denominan las cosas
existentes en el dominio del
mundo real
Acción Actividad A Agrupa las actividades que Clase
según el dominio definido se Abstracta
pueden realizar basados en
los conceptos.
Predicado Expresión P Agrupo las sentencias de Clase
con relación que limitan la Abstracta
sentido utilización de los conceptos
completo para las acciones.
Propiedad Caracterís Pr Agrupa las propiedades Clase
tica definidas sobre los conceptos, Abstracta
predicados y acciones.

128
Atributo Propiedad At Agrupa los atributos de los Subclase de la
con valor conceptos predicados y clase
acciones. Propiedad
Relación Vínculo R Agrupa las relaciones que Subclase de la
existen entre los conceptos y clase
las acciones o los predicados Propiedad
Escalar Propiedad Es Agrupa las propiedad con Subclase de la
Cuantitati valor numérico de los clase Atributo
va conceptos, predicados y
acciones
Textual Propiedad Tx Agrupa las propiedades con Subclase de la
Cualitativ sentido literal contenidos en clase Atributo
a los conceptos, predicados y
acciones
Relación_A Vinculos_ VAC Agrupa las relaciones de tipo Subclase de la
cción_Conc Acción_C objetos encontradas entre las clase Relación
epto oncepto acciones y los conceptos.
Relación_P Vinculo_ VPC Agrupa las relaciones de tipo Subclase de la
redicado_C Predicado objeto encontradas entre los clase Relación
oncepto _Concept predicados y los conceptos
o

3.3 Tecnologías Involucradas para la Generación De Código

Para la generación de código se utilizan dos tecnologías principales, la primera es


Marshall y UnMarshall para el mapeo de documento XML en el que la información
añadida por el usuario es almacenada. Y la segunda es la tecnología Java Generics que
se utilizarán para crear los paquetes obtenidos durante la conversión.
Además, la transformación se realizará utilizando un diseño de modelo genérico para
nosotros, que está actualmente en desarrollo.

XML Marshall y Unmarshall

Para usar Marshall y Unmarshall con JAXB de Java 6 se creó un XSD que ha
obtenido la estructura del mapa de la ontología base (ver Tabla 4).

Table 5. Parte de la Estructura del XSD


Tag Nombre Tipo
elemento Thing TipoThing
tipoComplejo TipoThing
elemento Concepto TipoConcepto
elemento Action TipoAction
elemento Predicado TipoPredicado
TipoConcepto
tipoComplejo
elemento nombreConcepto xsd:string
elemento descripcionConcept xsd:string

129
o
TipoPropiedadConcept
elemento propiedadConcepto
o

Modelo de Conversión Ontológica

Es un modelo que está siendo desarrollado y probado. Básicamente, se realiza una


conversión a una estructura ontológica diseñada por el usuario, para ello se utilizará
un diagrama de clases en el que representan los casos de conversión principal.
Si el concepto A es un subconcepto de concepto en la ontología, su correspondencia
en Java sería:
interface ConceptoAService {}
class ConceptoAService implements ConceptoAService{}

Fig. 2. Conversión de un concepto

En el caso de los predicados, cada uno es una clase intermedia en el modelo UML
entre los conceptos y las acciones, además del componente central,
Interface PredicadoAService {
private void getPredicadoA(Concepto A conceptoA);
}
class PredicadoAService implements PredicadoAService {
private void getPredicadoA(Concepto A
conceptoA){}
}

130
Fig. 3. Conversión de un predicado

En el caso de las acciones:

Interface AccionAService {
private void getAccionA(Concepto A conceptoA);
}
class AccionAService implements AccionAService {
private void getAccionA(Concepto A conceptoA){}
}

Fig. 4. Conversión de una acción

Finalmente el modelo general sería:

131
Fig. 5. Diagrama de Clases hecho en Eclipse Ganymede

4 Conclusiones

Después de elaborar este documento, las conclusiones pueden resumirse en dos


aspectos fundamentales:
Se dan los primeros pasos para organizar y documentar parte del conocimiento que
está en torno al concepto de desarrollar componentes SCA basados en ontologías.
Hasta ahora la mayoría de las herramientas de diseño son complejas y están dirigidas
a expertos en ciencias de la computación.
El propósito de la primera y la segunda afirmación es que el uso de ontologías para
el desarrollo y diseño de dominios de solución sea posible para las personas con
conocimiento en un dominio específico, de tal forma que puedan representar los
conceptos en un lenguaje computacional. Además, la aplicación de SCA, promueve
que el proceso de desarrollo de software no está estrechamente relacionado con el tipo
de lenguaje de programación y permite la integración con productos de software
disponibles sin importar el lenguaje en el que sea desarrollado.
Para el uso de la especificación SCA no se está obligado a realizar cambios
tecnológicos importantes, por lo que cualquier empresa que decida adoptar SCA como
base para su sistema de desarrollo de software debe tener en cuenta que es un modelo
orientado a servicios y que proporciona una alternativa en la reutilización de
componentes de software.
Por último, poner en práctica este proyecto puede servir de inicio para obras más
complejas, donde la conversión a componentes SCA sea más estructurada a otros

132
lenguajes ontológicos, y generar los componentes de la especificación de SCA con un
mayor número de lenguajes de programación, ya que este proyecto sólo funciona con
Java.

Referencias

1. Casal Terreros J., Desarrollo De Software Basado En Componentes, Microsoft


Corporation, September 2006.
2. Cover R., () It Vendors Promote Service Component Architecture (SCA), OASIS
(Organization for the Advancement of Structured Information Standards). Marzo, 2007.
Extracted from Word Wide Web:
http://64.233.179.104/translate_c?hl=es&u=http://www.oasisopencsa.org/sca&prev=/sear
ch%3Fq%3Dservice%2Bcomponent%2Barchitect%26hl%3Des%26sa%3DG
3. Malhotra A., Karmarkar A. (Oracle) & Booz D. (IBM), (2006). Service Component
Architecture (SCA): Tutorial: Part 2, OASIS (Organization for the Advancement of
Structured Information Standards).
4. McGuinness D. L., & Harmelen F. Owl Web Ontology Language – Overview
[Homepage]. February, 2004. Extracted from Word Wide Web:
http://www.w3.org/2007/09/OWL-Overview-es.html
5. Methodology Extracted from Word Wide Web:
http://rhizomik.net/~roberto/thesis/html/Methodology.html
6. Noy N. F., & McGuinness D. L. Desarrollo De Ontologías-101: Guía Para Crear Tu
Primera Ontología, Stanford University, September , 2005.
7. Studer, R., Benjamins, V. R. & Fensel D., (1998). Knowledge Engineering: Principles
and Methods, Data & Knowledge Engineering, (vol. 25, no 1-2, pp. 161-197).
8. OSOA Consortium. SCA Service Component Architecture: Assembly Model
Specification [Guía en Línea]. Extraido del Word Wide Web:
http://www.osoa.org/display/Main/Service+Component+Architecture+Specifications,
2007.

133
Metaproceso para el desarrollo de Software

Sandro Javier Bolaños Castro1, Víctor Hugo Medina Garcia1, Jesús Soto2
1
Universidad Distrital Francisco José de Caldas, Cra 7 No 40-53 Piso 4°
Bogotá - Colombia
2
Universidad Pontificia de Salamanca, Juan XXII, 3 Madrid - España
{sbolanos@udistrital.edu.co, vmedina@udistrital.edu.co, Jesús.soto@upsam.net}

Resumen. El presente artículo plantea como resolver la problemática


de aplicar procesos de software o metodologías como herramientas
fundamentales en la realización de un proyecto de software, el enfoque
de dicha propuesta radica en tomar el proceso mismo como el objeto de
estudio, estableciendo una perspectiva que va mas allá de las
consideraciones que convencionalmente se hacen sobre los procesos, se
plantean además una serie de elementos que generan un marco de
conocimiento sobre el cual sustentar la propuesta.

Palabras claves: Proceso de software, metodología de software, marco


conceptual de proceso.

Abstract. This article proposes how resolve the problem to apply


software process or methodologies as a fundamental tool to realize one
software project, the approach is based on take process as a study
object, establishing a perspective that go beyond conventional
considerations made about process, it proposes elements to generate a
knowledge frame to support the proposal.

Keywords: Software process, software methodologies, process


conceptual frame.

1 Introducción

Los procesos de software son herramientas poderosas en el manejo de los proyectos


informáticos, pero infortunadamente se convierten en espadas de Damocles si no son
bien empleados. Clásicamente se recurre a practicas que en otros escenarios han
funcionado, se enumeran largas listas de propuestas que dicen tener el santo grial de
los procesos, sin embargo lo que si es cierto es que siguen presentándose fracasos en
proyectos mal concebidos, con presupuestos desfasados y excedidos en los tiempos.
El problema con los procesos y metodologías de software no radica en proponer
workflows, o practicas a seguir, el problema es formalizar principios, axiomas y
responsabilidades que puedan ser expresadas y empleadas en los procesos, la
discusión no se debe centrar en las formas de articulación de las actividades se debe

135
centrar mas bien en los conceptos rectores para estas y como pueden ser llevados a
cabo por unos roles con responsabilidades bien definidas. En la presente propuesta se
hace una reflexión que apunta a tales conceptos.

2 Antecedentes

Cuando se habla de proceso de software también emergen conceptos como


metodología de software, ciclo de vida del software y modelos de proceso. Es
necesario categorizar estas definiciones como punto de partida para la definición de
metaproceso.

2.1 2.1 Modelo de Proceso y Caracterizaciones de los Modelos

Cuando se hace referencia al concepto de modelo de proceso (ver Figura 1)


inmediatamente viene a la mente, modelos como el clásico modelo cascada, espiral,
V, prototipos, fases, entre otros. Estos tienen la particularidad de proponer no solo un
marco de actividades a resolver sino como éstas, están articuladas para ejecutar un
workflow. Un modelo de proceso no solo se preocupa por definir un conjunto de
actividades sino como estas se entretejen para asegurar un desarrollo eficaz. Estos
modelos de proceso tratan de definir el matiz con el cual se establezca el seguimiento
del proceso en si mismo, y así caracterizar la instancia de proceso concreta.

Fig. 1. Modelos de Proceso

El problema en cuanto a los modelos de proceso se refiere, está en tratar de establecer


una perspectiva diferente a la planteada en el modelo en cascada que podría
considerarse el punto inicial del gran big bang que se desencadena en la extensa gama
de procesos. El modelo de cascada propone un marco en el que se identifica de
manera clara un cuerpo de conocimiento, dado por el conjunto de actividades bien
definido y que permiten, entre otras cosas: definir disciplinas y roles. Estos dos
conceptos son vitales en la formalización de un proceso pues ello conlleva a una clara
definición de los recursos y las responsabilidades. El inconveniente del modelo en
cascada es que este conjunto de actividades están organizadas de manera lineal y
rígida, esto produce serios problemas en el momento en que se detectan defectos, que

136
generalmente es en fase avanzadas, ya que las correcciones son dispendiosas y
costosas, sobre este problema recaen las críticas dado los serios inconvenientes que le
produce esto a los proyectos de software. El modelo en cascada puede considerarse
como un modelo de proceso demasiado optimista al considerar que de actividad a
actividad los defectos producidos son mínimo y además que las correcciones pueden
hacerse en fases avanzadas de los proyectos, invirtiendo un esfuerzo con el que
generalmente la organización no cuenta. Es evidente que un proceso caracterizado por
una secuencia estricta es un problema, considerar el software como un producto
convencional que se va ensamblando de actividad en actividad es un craso error.
El desarrollo de software debe flexibilizar el proceso, retroalimentar
tempranamente, definir roles e integrarlos a un trabajo colectivo, con
responsabilidades claras y articuladas, estos roles deben estar íntimamente asociados a
las actividades que propone el proceso, que por su complejidad se convierten en
disciplinas que requieren un tratamiento mucho mas formal del que clásicamente se
hace. Al parecer el modelo lineal no estimaba estas consideraciones básicas. Hay que
tener en cuenta que prácticamente el modelo en cascada es el modelo inicial mas
importante y el precio que tuvo que pagar por ser utilizado en un disciplina emergente
fue alto y es quizá el modelo al que mas se le han asociados fracasos.
Lo preocupante es que después de un tiempo considerable, en el que se supone la
ingeniería de software a progresado se sigan cometiendo los mismos defectos [1].
Modelos como el V tratan de plantear soluciones proponiendo alternativas a la
linealidad el planteamiento de este modelo se centra en considerar la prueba como una
actividad paralela al proceso, el efecto que se produce es el de llevar de manera
simultánea la prueba junto con las actividades previas: requisitos, diseño e
implementación. La aportación fundamental, detrás de esta idea, es la de romper con
el mito, acerca de la realización de la prueba en fases avanzadas, generalmente
después de la implementación. Romper el paradigma de la prueba es fundamental, ya
que es posible detectar defectos en fases tempranas, desde luego poder resolverlos,
algunas otras propuestas sobre todo metodológicas como por ejemplo XP 38 [2],
también consideran la prueba como una fase central que debe estar presente
fuertemente en el procesos, los XP consideran que el objetivo fundamental del
software es el de pasar las pruebas
De la misma manera modelos como el espiral proponen un conjunto de iteraciones
que evolucionan en el tiempo, en este modelo se aprecia de manera evidente el
concepto de desarrollo valioso en el ámbito de la ingeniera de software. El modelo
espiral también introduce conceptos como el riesgo, la planeación y la liberación de
prototipos con cada iteración. La manera de escapar a la linealidad desde el punto de
vista de un espiral es conseguir realizar Iteraciones, el objetivo en cada pasada o
iteración es producir mejoras hasta tener un producto. Si suponemos el proceso de
desarrollo de software en espiral como el proceso de pintar una pared que esta en
color negro a que quede en color blanco. Podemos imaginar muchas situaciones al
respecto como por ejemplo, el tiempo, esfuerzo, pasadas entre otras tareas que son
necesarias para transformar dicha pared de un color a otro, un proceso espiral es muy
cercano a esta situación. El espiral nos plantea un interrogante importante: Que blanco
es el que deseamos? Los procesos deben evitar a toda costa ser iteraciones infinitas en

38
Extreme Programming http://www.programacionextrema.org/

137
las que no parece haber un punto de llegada, para corregir este tipo de defectos es
necesario un enfoque claro de requerimientos y unas especificaciones y contratos bien
establecidos.
Por su parte el modelo de proceso por fases enfatiza en un conjunto de actividades
bien definidas en donde se hacen corridas parciales del proceso, en el fondo el
planteamiento es el de llevar casi de manera simultanea pequeñas cascadas que a
diferencia de la iteración considera la aplicación del proceso de principio a fin
realizando requerimiento por requerimiento partiendo desde los independientes hasta
los mas complejos que necesiten de funcionalidades ya desarrolladas. Este modelo de
proceso puede evolucionar de requerimientos que son constantes a lo largo del
proyecto o admitir la introducción de características en el desarrollo mismo del
proceso.
Lo que es claro es que los modelos de proceso se preocupan por buscar una
caracterización con la que impriman su sello, a la realización del proceso. Al rescate
de la linealidad las consideraciones de paralelismo, iteración y fase son propuestas
robustas, no se trata de demoler el concepto lineal que es muy valioso se trata de
corregir sus defectos para proyectos que requieren posturas de pensamiento versátiles
como lo son los proyectos de software. Pensemos que contamos para resolver un
problema con los siguientes conjuntos:
A = {1, 2, 3, 4, 5, 6, 7, 8, 9, 10}
B = {1, 3, 5, 7,9}
C = {2, 4, 6, 8, 10}
D = {2, 3, 5, 7}
A constituye el conjunto base lineal, secuencial y esencial para definir los demás,
sin embargo B es una posibilidad de resolver problemas pares, C problemas impares y
D problemas primos. Entre A, B, C y D ―modelos de proceso‖ hay coincidencia en la
secuencia de los números ―actividades‖ que constituyen los conjuntos definitivamente
es mas fácil contar en orden, ―ascendente‖. De la misma forma los modelos de
proceso son caracterizaciones del modelo lineal.

2.2 Metodología como herramienta para el desarrollo de software


La metodología en contraste a los modelos de proceso se ha preocupado más por
proponer, un conjunto de prácticas, valores y principios, asociadas al proceso. No es
que la metodología abandone el estudio del proceso, mas bien lo enfoca como el
objeto que necesita de unos aspectos claves alrededor de el, que lo empoderen y le
den un cuerpo mas robusto el que generalmente termina siendo personalizado, Estos
rasgos definen el enfoque del proceso, y están fundamentados en la emperia que se ha
alcanzado a través del desarrollo de proyectos en la praxis. Las prácticas son
recomendaciones de acciones ejecutadas y con las que se alcanzaron éxito, en tanto
que los valores y principios enuncian criterios producto de la experiencia y que
incluso resaltan conceptos más allá de la práctica formal de la disciplina.
Cuando se esta ante una metodología no se deja de sentir un cuerpo de
conocimiento dotado de experiencias acumuladas y sugeridas como formulas que
pueden conducir de manera mas segura las actividades de desarrollo de software; sin
embargo también se enfrenta la sensación ser propuestas pragmáticas y con una dosis
alta de ensayo error. Algunas metodologías especialmente las agilistas consideran

138
algunas estrategias poco ortodoxas. Por ejemplo la metodología ASD39 [3], considera
actividades como la especulación para incorporar conceptos flexibles de planeación;
sin embargo crean un rechazo entendible en su concepto aparentemente informal,
comparaciones como la de cerdos y gallinas hecho por Scrum40 [4], no son de fácil
aceptación aunque en el fondo sean bastante cercanas a la realidad.
Independientemente de lo criticas y mordaces de muchas metodologías, están
trazan un panorama real de aplicación en los proyectos de software que se deben tener
presente.
Las metodologías mas reconocidas son las derivadas del movimiento agilista 41
como son el caso de XP, Scrum, Crystal, ASD, entre otras, ellas mismas son una
declaración en contra de los métodos convencionales.

2.3 Ciclo de Vida del Software

El ciclo de vida del software hace alusión al uso disciplinado del proceso con una
característica relevante como es la retroalimentación, es decir las entradas al proceso
sufren una transformación que a su vez convertida en salida es la entrada de una nueva
pasada del proceso. El concepto de ciclo de vida clásico del software se ha acuñada de
manera simultanea al modelo en cascada o ciclo de vida clásico [5].

2.4 Proceso de Software

Los procesos por su parte pueden ser considerados como la materialización de un


modelo de proceso en el que expresa la característica del modelo o modelos de
proceso base y generalmente son esfuerzos de organizaciones con motivaciones a
implementaciones de proyectos empresariales podemos mencionar por ejemplo el
RUP42 [6], como esfuerzo empresarial de lo que inicialmente se llamara Rational
Corporation43. También hay esfuerzo gubernamentales y académicos. Un proceso en
si es una instancia especifica de modelo de procesos el proceso busca una aplicación
en la praxis. Algunos autores como Somerville [7] consideran el proceso como el
conjunto de actividades tendientes a la producción de software un proceso define:
 Especificación del software: donde los clientes e ingenieros definen el
software a resolver.
 Desarrollo del software: donde el software se diseña y se programa.
 Validación del software: donde el software se contrasta con las expectativas
del cliente.
 Evolución del software: en donde el software s modificado para adaptarlo a
los cambios requeridos por el cliente y el mercado.
 Para Pressman [5] un proceso es un marco común dotado de un conjunto de
reducido de actividades aplicables a todos los proyectos de software con

39
Adaptive Software Development
40
http://www.proyectosagiles.org/que-es-scrum
41
http://www.agilemanifesto.org/
42
Rational Unified Procces
43
http://www-01.ibm.com/software/rational/

139
independencia de su tamaño o complejidad.

3 Proceso como Concepto Convergente

Todos los conceptos antes presentados: modelo de proceso, metodología, ciclo de


viada y procesos, gira entorno a un concepto este es el de procesos. Cada concepto
matiza el hecho de tener un conjunto de actividades caracterizadas para resolver un
problema que se plantea en el dominio del software. Sin embargo el concepto de
proceso en si mismo introduce un problema que puede ser visto en tres dimensiones:
 Elección
 Utilización
 Creación.
La elección sitúa al problema en conocer una gran gama de ofertas en torno al
proceso que deben ajustarse a las necesidades del proyecto.
Una vez se ha elegido el proceso debe ser utilizado, procurando aplicarlo conforme
el proceso proponga sus actividades con sus caracterizaciones.
Pero cuando el problema no se ajusta al modelo empresarial es necesaria la
creación, esta puede ser un ensamble de actividades existentes, o una propuesta
innovadora que mezcle actividades creadas con actividades ya existentes o la
propuesta en la que las actividades son todas innovaciones.
Estas tres características en las que un proceso debería ser visto es lo que establece
un dominio más allá del proceso, o lo que se plantea como Metaproceso.

4 Más Allá del Proceso

Más allá de considerar que los procesos son conceptos preexistentes que pueden ser
tomados en el manantial de conocimiento, es necesario plantearse el interrogante de
cómo estos son el objeto mismo de estudio. El que una organización de por sentado
que un proceso es la formula salvificadora o the silver bullet [1] en sus proyectos de
software, y que ellos tal y como se proponen son el hilo conductor al éxito, es un
pensamiento demasiado optimista. Los proceso en si mismo como herramientas
primarias en los proyectos de software deben ser estudiados como parte del problema;
como se planteo anteriormente pueden caer en tres posibles escenarios: elección,
utilización y creación. Para los tres criterios de estudio de los procesos es necesario
conocer tanto de procesos como de los modelos empresariales, porque es la sinergia
entre el dominio del problema y el proceso, lo que ofrecerá una mayor probabilidad
de éxito. Los criterios de elección y utilización se centran en el dominio de lo
existente mientras el criterio de creación anima a buscar nuevas formulas de proceso,
sin tratar por supuesto de reinventar la rueda [8], se trata es de conceptualizar nuevos
métodos de enfrentar la problemática del software.
En si tanto la elección como la utilización y creación son a su vez procesos del
proceso, en este orden de ideas el nuevo proceso constituido es realmente un
metaproceso pues es el mismo el objeto de estudio de acuerdo a la Fig. 2.

140
Fig. 2. Metaproceso

4.1 Proceso de Elección

Escoger un proceso es una tarea que involucra conocer:


 Una amplia gama de procesos, especialmente casos probados de éxito.
 Los dominios sobre los que fueron utilizados, como medio comparativo.
 Los equipos que lo emplearon para determinar las características de los roles.
 Los recursos que utilizaron, y así determinar las posibilidades sobre todo
económicas de la organización.
 Los cronogramas logrados.
Las anteriores consideraciones son algunas de las más importantes que se podrían
estimar. La elección debe confrontar el proceso, la organización y la interfaz
constituida por el grupo humado, encargado de fusionar las caracterizaciones una a
otra. Contra la libre elección podría atentar la tendencia a utilizar procesos de moda,
este patrón es muy típico, o más bien este antipatrón es generalizado, y es evidencia
de poca madurez organizacional.

4.2 Proceso de Utilización

Utilizar un proceso implica gestionar cada una de las actividades que lo constituyen en
la utilización se debe:
 Definir el conjunto de actividades que se necesitaran en el proceso, así como
los objetivos y resultados que se esperan de ellas.
 Definir los roles que realizaran las funciones debidas a cada actividad del
proceso, esto permitirá definir con claridad responsabilidades y con ello
controlar el conjunto de resultados esperados y que contribuirán en el
desarrollo del proyecto.
 Proponer los cronogramas y presupuestos necesarios para el proceso y cada
una de sus actividades.
Las anteriores consideraciones apuntan a gestionar el proceso, y así realizar una

141
utilización eficiente de los recursos.

4.3 Proceso de Creación

Crear un proceso implica generar nuevas opciones para el proceso sean estas
totalmente novedosas o producto de una integración diferente de actividades de
proceso.
El primer caso que implica creación es el caso dado por una nueva disposición de
actividades preexistentes ante una nueva expectativa organizacional, y que
generalmente es conveniente para un proyecto específico, producto de la necesidad
que tiene la organización de enfrentar nuevas condiciones. En este primer escenario la
creación se centra en la disposición a conveniencia de las actividades del proceso,
debe asumirse una posición crítica y reflexiva en la organización que permita con
madurez constituir un proceso ajustado a la organización y al proyecto junta con sus
participantes.
El segundo caso que implica creación es el caso dado por la proposición de nuevas
actividades para el proceso. Este proceso es el más avezado de todos e implica un
conocimiento extenso de la disciplina. No es el camino mas sencillo pero de darse es
el mas prometedor si se tiene en cuenta que las soluciones estarían impactadas por
nuevas consideraciones técnicas y científicas.

5 Roles para el Metaproceso de Software

Los roles dentro de cualquier ámbito organizacional juegan el papel fundamental de


distinguir las responsabilidades que se deben cumplir. En procesos de software se
tienen varios roles conocidos como por ejemplo el de ingeniero de requerimientos, el
rol de diseñador el rol de arquitecto, el rol de probador, entre otros. Pero no es
frecuente escuchar roles propio para el proceso de software. Siendo el proceso de
software el objeto de estudio es necesario acuñar roles que puedan cumplir con las
responsabilidades que el manejo del proceso exige, en este orden de ideas se pueden
enumerar las siguientes roles claves para la gestión del proceso (Fig. 3):

Fig. 3. Roles del Metaproceso

142
Gestor del proceso: este rol tiene como objetivo definir el proceso que se debe
emplear en un proyecto de software, así como los roles que participaran dentro del
proceso y enfatizar en las practicas que sobre el proceso se deben realizar, en este rol
la tarea fundamental esta en el seguimiento disciplinado de un proceso asegurando el
cumplimiento de sus objetivos y apuntando a corregir incidentes históricos.
Arquitecto de Proceso: este rol tiene como objetivo armar el proceso de software
acondicionándolo a las exigencias del proyecto y la organización, el arquitecto es la
interfaz entre los deseos para el proyecto y lo que el proceso debe ofrecer, establece
fundamentalmente la contribución y la estrategia a seguir. Este rol compone nuevas
formas del proceso con el conjunto de disciplinas con las que se dispone para el
proceso de software, teniendo en cuente las condiciones no solo del proyecto sino
también de la organización, es posible en este rol descubrir nuevas formas del
proceso.
Innovador de Proceso: este rol se basa en un extenso conocimiento de procesos
para crear nuevas opciones, ya sea porque los procesos existentes no ofrecen el cuerpo
de conocimiento robusto para el proyecto de software o porque se quiere tener ventaja
substancial frente a los proceso convencionales. En este rol incluso se ofrecen nuevas
disciplinas de software producto de las actividades emergentes que se proponen.
Estos tres roles fundamentales apuntan respectivamente a la elección, utilización y
creación de procesos de software que como mínimo se deben tener en cuanto en el
proceso.

6 Principios del Metaproceso

El metaproceso de desarrollo de software como proceso tiene un conjunto de


principios que los caracterizan y le permiten formalizar su uso. Estos principios son:
 Principio de la no ausencia del proceso.
 Principio de la dualidad del proceso.
 Principio de la irrepetibilidad del proceso.
 Principio del continuum del proceso.
 Principio de la completitud del proceso.

143
Fig. 4. Principios del Metaproceso

Estos principios permiten conceptualizar los procesos que se elijan, utilicen o se


crean, y se representan como los pilares base del metaproceso, esquematizado de
acuerdo a la figura anterior.

6.1 Principio de la No Ausencia del Proceso

Siempre hay que tomar una decisión en los proyectos de software: cual es el proceso
que lo direccionará? Si el proceso es escogido de uno existente previamente o es un
proceso creado, se dispondrá en cualquiera de los casos un proceso. En el evento
extremo de no existir un modelo empresarial con el escenario mas es informal que se
pueda suponer, aun así ante la no existencia de un modelo aparentemente definido, se
esta ante la ausencia de un proceso?
La ausencia de un proceso en si es la aceptación de un no proceso que a su vez es
un proceso. Este el proceso caótico y extremista de la carencia de actividades del cual
existe una referencia que se puede situar el proceso big-bang [9]. Por otro lado si un
proceso en esencia es un conjunto de actividades por teoría de conjuntos el mismo
conjunto vacío es un conjunto por tanto soporta el hecho de que existe un proceso
incluso en el conjunto vacío de actividades que como se menciono es el big-bang.
La anterior demostración de la existencia de un proceso para cualquier escenario
es indispensable para corroborar la necesidad apremiante de considerar el proceso
como el objeto de estudio y no sumirlo únicamente como la herramienta ya existente
que usamos para guiar un proyecto de software. Y mas importante aun no caer en el
extremo de ignorar el proceso pues como se planteo esto nos conduciría al modelo
caótico

6.2 Principio de la Dualidad del Proceso

Un proceso como herramienta de apoyo en el direccionamiento de un proyecto, se


asume es un hilo conductor que aporta de manera positiva en la solución. Pero es
posible que el proceso se convierta en obstáculo del proyecto de software? No
parecería común ni siquiera hacer tal pregunta, pero quizá el hecho de que aun se
sigan citando un número importante de fracasos en proyectos de software sea un
índice importante que puede ser causado en gran parte por la utilización misma de un
proceso de software. Como un proceso puede convertirse en la espada de Damocles 44
del proyecto? Si se tiene en cuenta precisamente que el proceso direcciona el
proyecto, puede el mismo proceso producir los siguientes efectos:
 Retardar el tiempo del proyecto por la importancia que se den a unas tareas
sobre otras, es decir no se tiene un ritmo [10] controlado de ejecución de las
actividades.

44
http://es.wikipedia.org/wiki/Damocles

144
 No corresponder con la naturaleza del proyecto. Los procesos se desarrollan
bajo ciertos dominios y no es una buena estrategia utilizarlos sino apuntan a
contextos similares.
 Utilizarlo cuando este ha sido originado en campos diferentes al software y
por antonomasia se asume que debe ser exitoso para proyectos con
singularidades como las que propone el software y que lo hacen un producto
poco convencional, o si no pensemos en:
• Cuántos gramos pesa un algoritmo?.
• Qué resistencia al uso tiene un ciclo?
• A qué sabe un modulo?
El no poder aplicar de manera directa una disciplina fáctica limita enormemente el
uso de estrategias antes probadas y que generalmente son utilizadas con éxito en otras
disciplinas de ingeniería.
Tomar el conjunto de actividades propuestas como una formula a seguir y no
como un ejercicio de interiorización en el que la organización debe apropiarlo a sus
condiciones y como consecuencia de un conocimiento formal de las disciplinas que se
involucran.
Las anteriores consideraciones apuntan a la doble naturaleza que puede asumir el
proceso de software. Inicialmente se espera que su aporte sea hacia el desarrollo
exitoso del proyecto de software pero no se esta lejos de que se convierta en un
obstáculo.

6.3 Principio de la Irrepetibilidad del Proceso de Software.

Heráclito de Efeso45 afirma que el fundamento de todo está en el cambio incesante,


esta es la condición fundamental que se debe atribuir al proceso de software, estas
condiciones de movimiento nos permite asegurar que ―no ejecutamos el mismo
proceso dos veces‖ ni el ejecutante ni el proceso serán el mismo de un tiempo a otro.
Considerar el proceso como un fenómeno repetible, es un gran error si se tiene en
cuenta que es imposible tener las mismas condiciones de un proyecto a otro, a pesar
de que ―en teoría‖ se ejecute el mismo proceso habrán siempre recursos, condiciones
organizacionales y tiempos que serán diferentes, si excepcionalmente fueran iguales
de proyecto a proyecto situación bastante improbable queda por mencionar la
característica mas importante de la ejecución de un proyecto a otro y que hace la
diferencia, esta es la mejora, siempre se reconoce explicita o implícitamente como las
situaciones que han sido favorables o desfavorables pueden impactar el siguiente
proyecto desde la perspectiva del proceso, estas consideraciones son la que muchas
metodologías denominan como buenas practicas, otras principios u otros conceptos
que a puntan a afirmar que se tuvo ya una experiencia y que esta a enriquecido el
acervo organizacional en referencia al proceso de desarrollo de software.
Reconocer y apalancar condiciones mas favorables producto de la experiencia en
la ejecución de un proceso, es una virtud que debería atesorar la organización cuyo
objetivo no solo se la producción de software sino el desarrollo de aplicaciones
embebida en sus entornos, cuyo principal propósito sea el de impactar positivamente.

45
Diccionario Akal Filosofia, Cambridge University Press, 1.999.

145
6.4 Principio del Continuum del Proceso

El metaproceso es el conjunto de los procesos de selección, utilización y creación de


procesos:

MP = {PS, PU, PC}

La aplicación disciplinada del metaproceso crea un repositorio de experiencia


fundamental para la siguiente pasada del metaproceso, este repositorio es manejado
como el conocimiento y madurez que va alcanzando la organización y que le permite
establecer mejores procesos cada vez que se realizan proyectos de software. El
metaproceso se basa en el continuum para mejorar su propia práctica. Entre algunos
de elementos que este continuum estima son:
 Records de los cronogramas y presupuesto empleados en anteriores proyectos.
 Roles y actividades criticas para proyectos pasados.
 Practicas a empoderar y practicas para desechar.
 Riesgos para tener en cuenta.
 Artefactos valiosos para producir y artefactos inservibles para rechazar.
 Oportunidades para aprovechar y amenazas que evitar.

En términos generales el continuum pretende listar los aspectos positivos para


reforzar de los proyectos anteriores y los aspectos negativos para eliminar. Algunos de
los problemas con los que el continuum puede tropezar son:

Rotación del personal sin preparación del personal de reemplazo.


Contratación de terceros ―outsource‖ sin preocuparse por crear memoria
organizacional.
Utilización de filosofías y tecnologías sin apropiación a los procesos
organizacionales.

6.5 Principio de la Completitud del Proceso

El metaproceso en su propuesta conceptual es completo, el mismo propone la forma


de proveer los elementos necesarios para su elección, utilización o creación. Una vez
se emplee el metaproceso hay seguridad de tomar una buena decisión en el proceso a
emplear y las condiciones como será empleado. Siendo consiente el responsable del
proceso se es consiente del proceso y como este impacta el proyecto que soporta. El
metaproceso tiene como función hacer del proceso parte del problema y parte a la vez
de la solución, el procesos convive íntimamente con le proyecto y por tanto todo
esfuerzo debe ir dirigido a evitar que se convierta de aliado en enemigo, el proceso es
el facilitador del proyecto de software y sus practicas deben ser dirigidas a ello, si se
detectan causales de tropiezo en un proyecto motivadas por el procesos, el
metaproceso las debe identificar y advertir además propuestas de solución.

146
7 Aportación del Metaproceso en la Ingeniería de Software

En Ingeniería de software hace falta una propuesta que formalmente hable de la


problemática del proceso de desarrollo de software como el objeto de estudio. Hasta
ahora se ha limitado a establecer unas mínimas definiciones que incluso de autor a
autor defieren o incluso se fusionan sin ningún rigor. El problema de desarrollar
software se ha legado en gran medida al proceso, pero el mismo proceso necesita ser
revisado pues puede convertirse fácilmente de aliado a enemigo. El metaproceso
planteado en este artículo apunta a situar la discusión entorno al problema de hablar
mas halla del proceso. Como aportación se establece una definición del metaproceso,
estructura, roles y principios. Para otras discusiones se propone el lenguaje para el
metaproceso.

8 Conclusiones

De acuerdo a estos planteamientos y a la propuesta de una mejor alternativa al


desarrollo de software, podemos concluir que:
 El metaproceso de desarrollo de software es una nueva propuesta cuyo eje
fundamental es el tratamiento del proceso como objeto de estudio.
 El metaproceso tiene unos principios mínimos que le permiten formalizar su
tratamiento.
 El metaproceso también esta dotado de roles que muy seguramente después de
un tiempo oportuno originaran disciplinas como se ha visto ha sucedido con la
ingeniería de software.
 La necesidad de considerar el metaproceso apunta a proponer una herramienta
que apoye los problemas derivados directamente del proceso de software.
 El metaproceso se constituye como el marco referencial de estudio de los
procesos es necesario trabajar en el lenguaje que permita comunicar sus
propuestas.

Referencias

1. Brooks F. 1995. The mytthical Man Month, Anniversary Edition wiht tour new Chapters,.
Ed. Addison Wesley Longman.
2. Newkirk J, Martin R. 2002. La Programacion Extrema en la Práctica. Ed. Addison Wesley.
3. Highsmith J. 2000. Adaptive software development: A collaborative approach to managing
complex systems. Dorset House. Nueva York.
4. Schwaber K. 1995. The Scrum development process. OOPSLA ‘95 Workshop on Business
Object Design and Implementation, Austin,
5. Pressman R. 2006. Ingeniería del Software. Quinta edición. Ed. Mc Graw Hill.
6. Jacobson I., Booch G. and Rumbaugh J.. 2000. El Proceso Unificado de Desarrollo de
Software. Ed. Addison Wesley.
7. Somerville I. 2011. Software Engineering. 9th Edition. Addison Wesley.
8. Brown W.C. Malveau, Hays W. McCormick, and Thomas J. Mowbray. 1998. AntiPatterns:
Refactoring Software, Architectures, and Projects in Crisis. Ed. John Wiley & Son Inc.
9. Patton R. 2006. Software Testing. Ed. Sams.

147
10. David M. And Dikel D. 2001. Software Architecture: Organizational Principles and
Patterns.

148
Análisis, Diseño y Desarrollo de un sistema de
identificación dactilar basado en Redes Neuronales
Artificiales

Jamer Cuevas, Daniel Hernández, Christian Díaz


INTESEC / Julio Barón, José Soriano

jacuevass@correo.udistrital.edu.co, dfhernandezh@correo.udistrital.edu.co,
cfdiazm@correo.udistrital.edu.co, jbaron@udistrital.edu.co,
jsoriano@udistrital.edu,co.

Resumen. La identidad es la unidad principal que constituye lo que es


un ser humano y persona natural. El dilema es como estar seguro de la
identidad de las personas, para esto se han utilizado elementos que
intentan velar por esta condición. La inteligencia artificial, como área de
las ciencias computacionales, ha desarrollado herramientas que se han
empleado para ayudar a las personas en tareas que requieren de un
procesamiento con determinadas características de volumen o
complejidad y que por esas mismas características requerían de que una
persona revisara los resultados después o durante la ejecución de la
tarea.

Palabras Claves: Redes Neuronales Artificiales, Momentos Hu,


Principal Component Analysis, Huellas Dactilares, Reconocimiento.

Abstract. The identity is the mean unity that constitutes what are a
human being and natural person. The dilemma is how to be sure about
the people‘s identity; to this, have been used elements that try to ensure
this condition. The artificial intelligence, as an area of computer
science, has developed different tools that have been used to help
people in tasks that need a processing with certain characteristics of
huge volume and complexity, and for these reasons required a person
who checks the results after or while task is executing.

Key Words: Artificial Neural Networks, Hu Moments, Principal


Components Analysis, Fingerprints, Recognition.

1 Desarrollo Del Proyecto

1.1 Elección del Modelo de RNA

El estudio de características, ventajas, desventajas, así como de dificultades

149
encontradas en el desarrollo y entrenamiento de aplicaciones concretas, llevaron a la
selección de una RNA del tipo backpropagation (RNB). Entre las ventajas que nos
llevaron a esta elección se encuentra su capacidad de aprender a asociar patrones de
entrada a la red con las clases correspondientes propagando el error hacia atrás, es
decir, su capacidad de auto-adaptar los pesos de las neuronas de las capas intermedias
para aprender la relación que existe entre un conjunto de patrones dados como
ejemplo y sus salidas correspondientes.

1.2 Pre-procesamiento de los Datos

Mejoramiento Imagen Huella Dactilar


El desempeño de la extracción de las características y el algoritmo de coincidencia
depende considerablemente de la calidad de la imagen de entrada; una imagen de la
huella dactilar es de buena calidad donde están bien definidas las crestas y valles, pero
una imagen de poca calidad es aquella donde no está claramente definidos los límites
entre las crestas y valles, generando falsas minucias y la pérdida de las auténticas,
disminuyendo la exactitud de la coincidencia (SHARAT S. Chikkerur).

Mejorar Calidad Imagen


La frecuencia contenida en la mayoría de las señales actualmente cambia
constantemente, tales como señales biomédicas, señales de audio, índices de
almacenamiento, vibraciones y de contraste en los diferentes tonos de una imagen
Las funciones básicas usadas en el análisis clásico de Fourier no están asociadas con
algún instante de tiempo en particular, el resultado de una señal variante en el tiempo
no se refleja explícitamente, sin embargo la fase característica de la transformada de
Fourier contiene información del tiempo, es difícil establecer la relación punto a punto
entre la función en el tiempo y la transformada de Fourier basados en el análisis
convencional de Fourier.
Como resultado de aplicar el STFT sobre la huella dactilar se observa la mejora en la
calidad de la imagen, comparando con la imagen capturada por el lector de huellas
Figura 1, se observa la eliminación del ruido generado por el contraste de crestas y
valles.

Fig. 1. Huella capturada y Huella aplicada STFT

Calcular Punto de Referencia

150
El punto de referencia es definido como el punto de máxima curvatura de la
convergencia de las crestas, que usualmente está ubicado en el área central de la
huella.
El punto de referencia se determina de la imagen mejorada, como una
característica global para la coincidencia, los puntos singulares (CORE y DELTA) son
únicos en la superficie de la huella, estos son comúnmente usados en la clasificación
de huellas dactilares como puntos de referencia, sin embargo, a menudo tenemos una
imagen parcial de la huella dactilar sin los puntos deltas y arcos planos de la huella
dactilar que no tienen estos puntos singulares
Existen diferentes tipos de métodos para localizar los puntos singulares. Sin
embargo, los filtros complejos, aplicados a la orientación sobre la huella en múltiples
escalas, son usados para detectarlos con un gran desempeño.
Los filtros complejos de orden k, para la detección de patrones con simetría radial son
modelados por . Donde x y y denotan dos coordenadas en la imagen
analizada, el filtro complejo puede ser calculado como:

(6)

. (7)

La orientación local de los patrones de de segundo orden de simetría esta dada por
como es mostrado en la figura 6, los cuales son similares a las
huellas dactilares en la orientación de los patrones de los puntos core y delta.

Fig. 2. Orientación de los patrones de φ con filtro h1= exp{2iφ} (izquierda)


y el filtro h2= exp{-2iφ} (derecha)

Se define el punto core como de punto de referencia porque es más común que el
punto delta y se puede representar como único en la imagen de la huella dactilar. El
punto core es definido como ―el punto más al norte de la unión de las líneas de las
crestas‖. Esto es apropiado para todos y cada uno de los bloques de condiciones. Para
las huellas dactilares que no contienen lazos o alguna singularidad, el punto core es
usualmente asociado con el punto de máximo de curvatura de la cresta de líneas, el
filtro h1 satisface ambas de estas condiciones.
De esta forma se aplica el filtro h1 en la orientación de la huella dactilar
representado por el ángulo de fase para determinar el
punto de referencia. El tamaño de la ventana de filtrado es , el
filtro corresponde a cada bloque es calculado por:

151
. (8)

Donde denota el resultado del segmento del bloque


,y , indica que el bloque es segmentado en primer plano
válido para la extracción de las características. es calculada en la ecuación 7. Se
observa que la respuesta es un valor complejo, la magnitud de representa
que tan cerca la orientación de los patrones de la huella dactilar local son similares a
la orientación de los dos filtros, mientras que el ángulo de fase indica la rotación entre
la orientación de los patrones locales de la huella dactilar y los filtros [6].

Calcular Orientación de Huella Dactilar

La orientación de la huella dactilar se calcula aplicando la orientación


multidimensional [7] combinada con el PCA propuesta por [2], posteriormente con el
punto de referencia calculado previamente se obtiene la orientación del bloque al que
pertenece.
El trabajo realizado por [2], el cual tiene como base el gradiente local de cada
bloque y aplicando el PCA para computar el conjunto de vectores de los gradientes
contiguos para encontrar la orientación dominante y proveer un óptimo conjunto de
datos basado en el análisis de los mínimos cuadrados.

Anular rotación Huella Dactilar

Teniendo la orientación de la huella dactilar se rota la imagen para dejarla en un


ángulo con respecto al eje vertical.

Hallar Región de Interés

La región de interés es obtenida a partir del punto de referencia calculado


anteriormente, el cual es la guía para realizar la segmentación de la huella. El tamaño
de la (ROI) Región de Interés puede ser experimentalmente determinado. En este
proyecto el tamaño de la región de interés es de 64px, como aparece en [8]
Teniendo como referencia las coordenadas del punto de referencia, se calcula las
coordenadas del vértice superior izquierdo (basados en el sistema de coordenadas
utilizado). Para calcular las coordenadas se utiliza la siguiente ecuación:

. (9)

Para reducir el efecto del ruido y las distorsiones no lineales, la ROI es particionada
en 4 sub imágenes más pequeñas (en diferentes cuadrantes) en contra de las
manecillas del reloj como se describe en la Figura 7, donde cada sub imagen tiene un
tamaño de 32x32.

152
Fig. 3. ROI segmentada

Momentos HU

La geometría de una región plana se basa en el tamaño, la posición, la orientación y la


forma. Todas estas medidas están relacionadas en los parámetros denominados
momentos.
Mediante los momentos invariantes de Hu, se consigue una descripción
independiente a las posiciones, tamaños y ángulos del objeto. [1]
El momento geométrico de una imagen , donde p, q son enteros
positivos y es llamado orden de los momentos, es definido como

. (10)

El momento Central está definido como

. (11)

El momento normalizado es definido como

. (12)

Donde,
. (13)

Si es una imagen digital, entonces la el momento central se convierte en

. (14)

Donde las coordenadas denotan el centro de y


[3] [5]

Con el fin de extraer las características de la ROI de la imagen mejorada, se usa los
siete momentos invariantes de Hu[5].
El conjunto de los siete momentos invariantes pueden ser derivados del segundo y
tercer momento Hu[5]. El resultado es un conjunto de momentos ortogonales

153
absolutos, los cuales pueden ser usados en escala, posición y rotación invariantes en
patrones de identificación [6].

Fig. 4. Momentos HU

Gracias a la segmentación, la entrada de la cual se dispone información de la


huella digital para le red neuronal es un vector que contiene 28 elementos (7 por cada
segmento). Dichos valores funcionan como puntos para determinar aproximaciones al
comparar los diferentes valores de la huella almacenada contra la procesada.

1.3 Sistemas de Verificación de las Huellas Dactilares

Para hacer la comparación de dos huellas digitales se realizó el siguiente


procedimiento.
A cada una de las imágenes de las huellas se le aplicó un pre-procesamiento tal
como lo describimos en el Anexo # 3 del presente documento. Luego de haber
terminado este paso, se procede a hacer una comparación de los vectores obtenidos de
cada huella y dependiendo de esta comparación deducimos si las dos huellas
pertenecen a la misma persona o son de individuos diferentes.

Comparación de los vectores

Para realizar la comparación de los vectores resultantes del pre-procesamiento de las


huellas se utilizó una red neuronal del tipo backpropagation de tres capas (capa de
entrada, capa oculta y capa de salida), el número de neuronas en cada capa será
explicado a continuación.

Capa de Entrada

La Capa de entrada está conformada de 9 neuronas, el valor de las mismas se calculó


de la siguiente manera:
Siendo V1={a1, a2, …., a28} el vector de la Huella dactilar #1 y V1={b1, b2, ….,
b28} el vector de la Huella dactilar #2, se creó un tercer vector de diferencias de la
siguiente manera.

154
. (15)

Luego, de cada vector se sacó el valor máximo (vmax), el valor minimo (vmin), y el
valor promedio de los elementos del mismo (vpro), estos valores que en total son 9,
son los valores de las neuronas de la capa de entrada.

Capa de salida.

La capa de salida solo está conformada de una neurona, la cual contendrá el valor 1 si
las huellas corresponden al mismo individuo y 0 si no coinciden.

Capa oculta.

Para determinar el número de neuronas que conforman la capa oculta, se probarán


distintas configuraciones (4, 8, 12 y 16 neuronas), después de hacer el entrenamiento
y la prueba de cada configuración, se escogerá la que nos dé el menor FAR y el
menor FFR

Entrenamiento y prueba de la Red Neuronal

Se utilizaron 4 Bases de imágenes de Huellas dactilares (Tomadas de FVC2004,


http://biometrics.cse.msu.edu/fvc04db/index.html ), cada base se componen de las
huellas de 100 personas, cada persona provee 8 imágenes de sus huellas. Para los
conjuntos de entrenamiento se tomaron las primeras 6 huellas de cada persona y para
los conjuntos de pruebas se usaron las dos últimas huellas de cada persona.
Para formar los conjuntos de casos exitosos se formaron parejas de la primera
huella de cada persona combinada con las demás 6 (2000 parejas para entrenamiento
y 400 para pruebas), mientras que para los casos no exitosos se formaron parejas con
las primeras huellas de cada persona (2000 parejas para entrenamiento y 400 para
Pruebas). La rata de entrenamiento fue de 0.1, la época fue 5000 y el error absoluto se
estableció en 0,001, siguiendo las indicaciones de [6]

2 Resultados

Como anteriormente se dijo se reprodujeron las condiciones del experimento de [6]


con los siguientes resultados:
Al contar con los las características innatas de la huella dactilar se procede a
realizar el matching46 entre la huella dactilar ingresada y las almacenadas en la Base
de datos del sistema de información, para esto se cuenta con una red neuronal, de
topología BPNN47 que cuenta con 3 capas, una capa de entrada de 7 neuronas, una

46
Matching: Método en el que el conjunto de minucias ingresadas son mapeadas para
encontrar su correspondencia con el conjunto de minucias almacenadas en la Base de Datos.
47
BPNN: Back Propagation Neural Network (Red Neuronal de Retropropagación)

155
capa oculta de 4 neuronas y una capa de salida de 2 neuronas.
Los resultados obtenidos con este conjunto de datos son los siguientes:

2.1 Tasa Falsa de Rechazo (FRR48)

Esta medida nos indica el porcentaje de rechazo a una huella existente en el sistema
de información, es decir, cuando una huella almacenada en la base de datos da un
resultado negativo al procedimiento de comparación. El resultado obtenido es un
3.2%, a continuación se presenta los resultados obtenidos con diferentes umbrales de
aceptación:

Fig. 5. Tasa Falsa de Rechazo

2.2 Tasa Falsa de Aceptación (FAR49)

Esta medida nos indica el porcentaje de aceptación de una huella que no existente en
el sistema de información, el resultado obtenido es un 0.8%, a continuación se
presenta los resultados obtenidos con diferentes umbrales de aceptación:

Fig. 6. Tasa Falsa de Aceptación

Con un modelo metodológico establecido, se llevaron los experimentos a


condiciones reales a través de una aplicación que capturaba las huellas de entrada, con

48
FRR: False Reject Rate
49
FAR: False Acceptance Rate

156
un dispositivo de captura de huellas digitales, con respecto a una base de huellas
capturada con anterioridad con el dispositivo, es decir, una base compuesta por
imágenes de huellas de personas conocidas. Dicha aplicación arrojo comportamientos
no deseados, entonces, se decidió descomponer los procedimientos y buscar la
combinación de pasos con mayor efectividad en la base de pruebas. Mejorando el
procedimiento con los procedimientos descritos también en [9] . Los experimentos
arrojaron los siguientes resultados:

2.3 Imagen Procesada

Al realizar un procesamiento en los datos de entrada en un sistema, se está


minimizando el procesamiento de datos erróneos; un primer acercamiento al
procesamiento de los datos se realizó en el mejoramiento de la imagen de la huella
dactilar utilizando la STFT el cual permite reducir el ruido de la imagen de la huella
dactilar [6].
El procesamiento y extracción de la información se realizó en los siguientes
procedimientos:

1. Procesamiento de la imagen utilizando STFT


2. Ubicación punto de referencia
3. Extracción ROI .
4. Extracción momentos HU de ROI.
5. Matching.

Los resultados obtenidos fueron los siguientes.

Fig. 7. Error obtenido FAR – FRR

Los resultados obtenidos únicamente procesando la imagen muestran que el error


obtenido en FAR y en FRR es demasiado alto tomando en cuenta los resultados
publicados en la FVC del año 200650.

50
Fingerprint Verification Competition http://bias.csr.unibo.it/fvc2006/results/l_res_db1_a.asp

157
2.4 Imagen Procesada Binarizada

Teniendo en cuenta los resultados anteriormente descritos se necesitaba un


procedimiento adicional para reducir el error, por lo cual se convirtió la imagen
procesada en una imagen binaria, evitando de esta forma valores erróneos debido a los
diferentes matices de la imagen de la huella por estar en escala de grises
El procesamiento y extracción de la información se realizó en los siguientes
procedimientos:
 Procesamiento de la imagen utilizando STFT
 Binarización Imagen procesada.
 Ubicación punto de referencia
 Extracción ROI51.
 Extracción momentos HU de ROI.
 Matching.

Los resultados obtenidos fueron los siguientes.

Fig. 8. Error obtenido FAR – FRR (Binarizando)

Los resultados obtenidos procesando la imagen y posteriormente binarizandola


muestran que el error en FAR y FRR es demasiado alto y comparativamente con el
error presentado previamente en donde únicamente se procesaba la huella no existe un
mejoramiento importante del error.

2.5 Rotación por Gradiente

En vista de los resultados obtenidos con los dos métodos anteriormente descritos
sugiere que existe una variable adicional que está causando que se genere un error tan
alto, basados inicialmente que los momentos HU son invariantes rotación[6] pero
teniendo en cuenta a donde se indica que dichos momentos no son invariantes en la
rotación [4] se realizó la rotación de la imagen de la huella dactilar con el método de

51
ROI: Region of Interest (Región de interés)

158
la rotación por gradiente [9].
El procesamiento y extracción de la información se realizó en los siguientes
procedimientos:
1. Procesamiento de la imagen utilizando STFT
2. Binarización Imagen procesada.
3. Cálculo orientación por Gradiente y rotación de la imagen.
4. Ubicación punto de referencia
5. Extracción ROI .
6. Extracción momentos HU de ROI.
7. Matching.

Los resultados obtenidos fueron los siguientes.

Fig. 9. Error obtenido FAR – FRR (Binarizando y Rotando por Gradiente)

2.6 Rotación por Piramides

Al no lograr un resultado significativo con el método de rotación por gradiente se


procedió a intentar un método distinto para encontrar la orientación de la huella, el
método usado fue el de la rotación por pirámides.
El procesamiento y extracción de la información se realizó en los siguientes
procedimientos:
 Procesamiento de la imagen utilizando STFT
 Binarización Imagen procesada.
 Cálculo orientación por Pirámides y rotación de la imagen.
 Ubicación punto de referencia
 Extracción ROI52.
 Extracción momentos HU de ROI.
 Matching.

Los resultados obtenidos son los siguientes.

52
ROI: Region of Interest (Región de interés)

159
Fig. 10. Error obtenido FAR – FRR (Binarizando y Rotando por Piramides)

Los resultados obtenidos procesando la imagen y posteriormente rotándola por


pirámide muestran que el error en FAR y FRR es demasiado alto y comparativamente
con el error presentado previamente con la rotación por gradiente no existe un
mejoramiento importante del error.

3 Conclusiones

Se utilizaron 4 Bases de imágenes de Huellas dactilares, cada base se componen de


las huellas de 100 personas, cada persona provee 8 imágenes de sus huellas. Al sacar
el procedimiento descrito hasta los momentos Hu y sacarles un PCA (Principal
Component Analisis) se pudo graficar la dispersión de los datos a analizar.

Fig. 11. PCA de los Datos Tomados de 1 Imagen de la Base 1

Como se puede ver en la Imagen I los puntos de las huellas que deberían hacer
matching es de muy difícil selección dentro de los puntos a los cuales no deberían
concordar, y eso pensando que es solo una imagen comparando con las demás
imágenes. Entonces el procedimiento se hace mas engorroso debido a que no es una
sola imagen sino múltiples imágenes. Como podemos ver en la imagen II la dispersión
de puntos de las 8 imágenes de una huella hace que el procedimiento carezca de
cualquier sentido.

160
Fig. 12. PCA de los Datos Tomados de 1 Misma Huella, 8 Imagenes de la Base 1.

Analizando la teoría de que la imagen graficada pudo estar alterada o


fuera de los límites o valores que el procesamiento admite, se procedió
a graficar 1 imagen por base y 1 huella (8 imágenes por base en todas
la bases)

Fig. 13. Dispersión de Datos Tomados de 1 Imagen de Cada Base.

Es evidente que no importa le procedimiento que se siga, los resultados del


procedimiento siempre han sido los mismos porque la dispersión que generan los
datos no es suficiente para generar una función que las redes neuronales procesen para
determinar un caso de éxito con toda confianza. Es por eso que se ha determinado que
el procedimiento que se ha seguido no ha cumplido con los requerimientos del
proceso, sin embargo, este ha sido el mayor producto de este trabajo de grado. La
demostración que no es posible generar una sola función de aceptación para todos los
casos mientras se procesan los datos de las imágenes por Momento Hu.

Referencias

1. Alegre, E. (s.f.). Utilización de momentos estadísticos y redes neuronales en la


clasificación de cabezas de espermatozoides de verraco. Recuperado el 16 de Mayo de
2010, de http://www.cea-ifac.es/actividades/jornadas/XXV/documentos/27-nrtierrale.pdf
2. Feng, X. G. (s.f.). Multiscale Principal Components Analysis for Image Local Orientation
Estimation. Recuperado el 16 de Mayo de 2010, de
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.12.9013&rep=rep1&type=pd
3. Flusser, J. (s.f.). Moment Invariants in Image Analysis. Recuperado el 16 de Mayo de
2010, de http://dar.site.cas.cz/download.php?bd=289

161
4. Flusser, J. (2000). On the independence of rotation moment invariants. Pattern
Recognition (33), 1405-1410.
5. Hu, M. K. (1962). Visual pattern recognition by moment invariants. IRE Transformation
on Information Theory , 8 (6).
6. Ju Cheng Yang, J. W. (2006). Fingerprint Matching Using Invariant Moment Features.
Computational Intelligence and Security, International Conference, CIS 2006 (págs.
1029-1038). Guangzhou, China: Springuer.
7. Richard C. Wilson, H. N.-E. (s.f.). Probabilistic Population Coding of Multiple Edge
Orientation. Recuperado el 16 de Mayo de 2010, de
http://www.springerlink.com/content/0vpt72cxyj5jclwc/
8. Yang, J. C., & Park, D. S. (2008). Fingerprint Verification Based on Invariant Moment
Features and Nonlinear BPNN. International Journal of Control, Automation, and
Systems , 6 (6), 800-808.
9. Yang, J. C., Min, B., & Park, D. (2007). Fingerprint Verification Based on Absolute
Distance and Intelligent BPNN. International Conference Frontiers in the Convergence of
Bioscience and Information Technologies. Jeju Island, Korea: fbit.

162
Educación Virtual: Entornos Colaborativos
Interinstitucionales

Ronald S. Gutierrez R1, Lucas Sánchez2.

1Candidato a Doctor en Ingeniería Informática, Universidad Pontificia de


Salamanca, Campus Madrid, Profesor Universidad Distrital
2Doctor en Ingeniería Informática, Universidad Pontificia de Salamanca Campus
Madrid, Profesor Universidad Pontificia de Salamanca Campus Madrid,
rsgutierrezr@udistrital.edu.co, lucas.sanchez@upsam.net

Resumen. El ambiente colaborativo ha ganado un puesto principal en


las discusiones sobre educación a distancia gracias a su excelente
adaptación al modelo virtual. El avance en las Tecnologías de la
información y las telecomunicaciones TICs, ha permitido el desarrollo
de plataformas virtuales que generan cada vez una mayor integración
por parte de estudiantes que se encuentran en diferentes lugares y con
distintas disponibilidades de tiempo. Sobre estas plataformas de aulas
virtuales, se propone la creación de un nuevo modelo que permita llegar
aun más allá, permitiendo una integración colaborativa incluso de
estudiantes que sean de cursos diferentes.

Palabras Clave. Educación Virtual, Trabajo Colaborativo, Interacción,


Aulas Virtuales, Entornos de educación virtual, LMS.

1 Introducción

Mientras el mundo se hace cada vez más pequeño gracias a la globalización, nuevas
necesidades aparecen en la sociedad. Una sociedad que día por día se gana más el
nombre de Sociedad del Conocimiento. Dentro del amplio grupo de las nuevas
necesidades, aparece fuertemente el desapego del concepto Espacio y Tiempo, donde
las personas buscan tener reuniones que no requieran de un lugar, ni una hora; donde
cada individuo pueda asistir en el momento mas conveniente y que adicionalmente lo
pueda hacer desde cualquier lugar del planeta.
La educación no es ajena a esta explosiva realidad y abre las puertas a nuevos
modelos que se ajusten a las diferentes necesidades, buscando incrementar, o por lo
menos no disminuir la calidad actual.
Actualmente, los estudiantes de un centro educativo, deben asistir regularmente a
clase, lo cual implica un desplazamiento espacial desde su lugar de residencia hasta la
ubicación del plantel. Este transporte genera en el estudiante cansancio, pérdida de
tiempo y costos adicionales, los cuales son recursos desperdiciados que podrían ser

163
correctamente direccionados hacia otro tipo de actividades como artes, deportes, ocio,
etc.

2 Interacción

El problema de la interacción ha sido analizado por varios autores a través del


tiempo, fijando un modelo que se ajusta muy bien al comportamiento de un aula
virtual. Este modelo fue propuesto inicialmente por MOORE JENCI, D. y SALES,
J53 los cuales propusieron las siguientes interacciones

Estudiante - Profesor
Estudiante - Contenido
Estudiante – Estudiante

Donde se analiza una relación directa entre el estudiante y los otros tres
componentes. De esta manera se deja al estudiante como el protagonista del proceso
constructivo de conocimiento.

Relación Estudiante - Profesor


A partir de este modelo se puede analizar que el estudiante genera una relación
directa con el profesor, donde existe una comunicación análoga a la que habría en
cualquier entorno educativo tradicional. Sin embargo en el entorno de educación
virtual, el profesor no se comunicara de la misma forma como lo haría en una clase
magistral. En este modelo, el hecho de que el contenido se encuentre publicado libera
de tiempo al profesor para dar una atención más personalizada a cada estudiante y le
permite jugar un roll de asesor en el proceso de construcción de conocimiento.

Relación Estudiante - Contenido


También se observa la relación directa Estudiante con contenido, en la cual el
estudiante abordará directamente el contenido sin tener como intermediario obligado
al profesor. Esta es la primera diferencia fundamental que aparece frente al modelo
educativo tradicional. Aquí, el contenido está disponible para ser utilizado por el
estudiante en cualquier momento, así, si el estudiante esta indispuesto, no será forzado
a tomar una clase, simplemente podrá esperar un poco y cuando sea el momento
apropiado revisara el contenido de la lección. Esta es una ventaja que entrega
bastantes beneficios, ya que el estudiante podrá organizar mejor su tiempo y podrá
repetir cuantas veces quiera la lección en caso de no haberla entendido.

Relación Estudiante – Estudiante


La relación estudiante con estudiante que se observa en este modelo, enmarca un
vínculo profundo que viene desde el modelo tradicional donde se sabe que puede dar

53
ANDERSON, T., & GARRISON, D. R., Learning in a networked world: New roles and
responsibilities. Atwood Publishing, 1998

164
mejor resultado un trabajo desarrollado por un grupo de personas que si fuera hecho
por una sola. En el método educativo tradicional, existe una componente de trabajo
colaborativo, en la cual los estudiantes desarrollan actividades en grupo, generando
excelentes resultados. En el esquema de educación virtual este componente no puede
perderse, no obstante el trabajo en grupo puede ser mas complejo de llevar a cabo si
no se usan las herramientas TICS adecuadas. En este punto, es importante observar
los requerimientos a nivel de sistema que sobresalen para establecer una mejor
comunicación. Si entre dos estudiantes deben realizar un dibujo, será muy fácil
hacerlo si los dos se encuentran en el mismo lugar, en el mismo tiempo. Pero si la
situación es un entorno virtual, donde se asume que cada estudiante asiste desde un
lugar y en tiempo diferente, entonces se necesitará de una herramienta adecuada para
poder desarrollar esta actividad con éxito. Ya no será tan fácil, sin embargo seguirá
siendo posible y de hecho significara un reto adicional para el proceso educativo del
estudiante.

La interacción
MOORE
JENCI, D.; SALES, J

Anderson e Garrison [ANDGAR98]


añaden además las interacciones
entre
profesor-profesor,
profesor-contenido
contedo-contenido.
Alumno interface
Hillman, Hills y
Gunawardena

Interación según Anderson y Garrison[1]


[1]ANDERSON, T., & GARRISON, D. R., Learning in a networked world: New roles
and responsibilities. Atwood Publishing, 1998

Fig 1: LA INTEACCION, Tomada de ANDERSON, T., & GARRISON, D. R.,


Learning in a networked world: New roles and responsibilities. Atwood Publishing,
1998

Luego del Aporte de Moore y Sales, Anderson y Garrison propusieron tres


interacciones adicionales, las cuales muestran unas relaciones que no son visibles a
priori, pero que si se dan en un aula virtual. Las interacciones adicionales son las
siguientes:

Profesor – Profesor
La relación profesor a profesor supone una realimentación por parte del mismo
profesor sobre sus conocimientos. Aparece aquí el conocido concepto de capacitación
docente, en la cual el profesor hace estudios de profundización generando mayor
conocimiento sobre la asignatura impartida. Esta relación es importante en la
educación virtual ya que permite mostrar el proceso de mejoramiento continuo por
parte del docente.

165
Profesor – Contenido
La relación Profesor a contenido, es una relación importante, ya que muestra la
construcción de un contenido enfocado al estudiante. No se trata del mismo material
que un profesor tiene para impartir sus cátedras cotidianas. Este contenido tiene que
ser orientado y estructurado para el estudiante que no está observando al profesor,
para el estudiante que está en otro lugar del mundo y que está viendo el material sin la
guía ni las aclaraciones del profesor. Luego vendrá por supuesto la resolución de
dudas, pero entre más claro sea el material, más eficiente será la preparación por parte
del estudiante.

Contenido – Contenido
La relación Contenido a Contenido, tiene que ver directamente con la
realimentación que pueda generar el material en sí mismo. Muchas veces se podrá
observar que el contenido tendrá que ser cambiado debido a los cambios sociales,
culturales, etc. De esta forma, el docente se vera forzado a prepararse y tendrá que
acomodarse a los nuevos contenidos que pueda estar exigiendo el mundo académico y
el mundo laboral.

3 Modelo de Interacción de un Aula Virtual

Pese a que el modelo es bastante completo. Quedan algunas cosas fuera de contexto,
con lo cual se consideró necesario complementarlo para generar uno nuevo que
permitiera abordar el problema de las aulas virtuales interinstitucionales.
Se plantea a continuación un nuevo modelo que muestra lazos independientes de
relación unidireccional entre los diferentes entes. Adicionalmente se diferencia
claramente la relación Estudiante- Estudiante mostrando la relación interna que genera
cada estudiante con sí mismo y la relación independiente que se genera entre
diferentes estudiantes:

MODELO DE INTERACCION DE UN AULA VIRTUAL


Rel. P-P Rel. C-C
Profesor
Contenido
PROFESOR CONTENIDO
Contenido
Profesor

Estudiante Profesor Estudiante Contenido


Publicación y Contenido Estudiante
Profesor Estudiante
Realimentación
Asesoría Interactividad

Estudiante
Estudiante
Estudiante
ESTUDIANTE ESTUDIANTE
Estudiante
Estudiante
Rel. E-E Ambiente Rel. E-E
Colaborativo

Fig 2: Modelo de Interacción de un Aula Virtual (MIAV)

El modelo de Interacción al interior de un aula virtual se divide en 4 grandes


secciones:
Publicación y Realimentación

166
Relación Profesor – Contenido
En la relación Profesor a contenido es donde se genera la Publicación del material.
El profesor es responsable de crear los contenidos que serán utilizados por los
estudiantes. Es importante que el contenido no sea plano en ningún sentido y que
permita la interacción, se deben crear foros, Wikis y demás instrumentos que permitan
a los estudiantes agregar información que se genere como resultado de sus propias
investigaciones.
Relación Contenido – Profesor
En esta relación, la interactividad del curso genera nuevo contenido, el cual debe
ser aprovechado y canalizado por el profesor para dirigir el futuro del curso. Este
nuevo contenido es de alta importancia para el docente porque le permite estar en un
ambiente de aprendizaje continuo con los estudiantes
Interactividad
Relación Contenido – Estudiante
En esta relación, el estudiante sencillamente descarga los contenidos publicados
por el profesor y realiza las actividades propuestas.
Relación Estudiante – Contenido
La relación estudiante a contenido es la que permite al estudiante contribuir con
la construcción del mismo. Puede ser a través de foros, wikis, etc. El estudiante
desarrollara las actividades propuestas en el curso y los resultados relevantes que
encuentre, podrá publicarlos para que el profesor y los demás estudiantes puedan
acceder también a ellos.

Ambiente Colaborativo
Relación Estudiante – Estudiante
La relación estudiante a estudiante busca generar los espacios de colaboración,
donde se construya el conocimiento gracias al trabajo en equipo. Las actividades que
debe proponer el profesor deben estar acordes con los rolles que puede desempeñar
cada estudiante de acuerdo a sus aptitudes. Esta relación es de alta prioridad y exige el
buen uso de las Tics, eligiendo las adecuadas herramientas de teletrabajo.
Asesoría
Relación Profesor - Estudiante
Esta relación describe al profesor como un asesor, la cual es una figura más conocida
en la industria. El profesor deja la postura lejana del estudiante, para entrar a
asesorarlo en la construcción de su conocimiento. El profesor ya no será aquel
malvado que quiere ―rajar‖ al estudiante, sino aquel amigo que indica un mejor
camino hacia el logro de los objetivos
Relación Estudiante – Profesor
El estudiante se va dirigir al profesor como si fuera un asesor en su proyecto. Por
lo tanto hará las consultas adecuadas de modo que el profesor pueda guiarlo en un
tiempo adecuado. Como el estudiante primero tiene que tomar la lección, las dudas
que se pueden generar serán verdaderamente valiosas, tanto para la construcción del
conocimiento por parte del estudiante, como para la realimentación del proceso por
parte del profesor.
Las relaciones restantes hacen referencia a la participación de cada ente con sí
mismo:

 Profesor – Profesor (Rel. P - P)

167
 Contenido- Contenido (Rel. C – C)
 Estudiante - Estudiante (Rel. E - E)

Resulta importante aclarar que esta relación estudiante a estudiante se centra en


los procesos internos de cada persona y no en los procesos entre varios estudiantes
como si lo hace la que pertenece a la sección del Ambiente Colaborativo.

4 Modelo de Interacción de Aulas Virtuales Asociadas

MODELO DE INTERACCION DE AULAS VIRTUALES ASOCIADAS

Aula A Aula B

PROFESOR A PROFESOR B
Relaciones
Inmediatas

CONTENIDO A CONTENIDO B
Relaciones
que
requieren
estudio

ESTUDIANTE A ESTUDIANTE B

Fig 3: Modelo de Interacción de Aulas Virtuales Asociadas (MIAVA)

El modelo MIAVA se propone a partir el modelo MIAV, ya que cuenta con todo
lo necesario para modelar la interacción al interior de un aula virtual. Lo que se busca
con la creación del modelo MIAVA es obtener una interacción entre aulas virtuales
que tengan contenidos similares.
El modelo se basa en dos aulas virtuales del tipo MIAV, las cuales deben tener
un contenido temático muy similar.
Por lo tanto, se puede buscar una asociación entre las dos aulas de modo que se
puedan ejecutar los dos cursos paralelamente. No obstante, cada aula debe conservar
su independencia, ya que pueden ser aulas virtuales generadas por instituciones
diferentes.
En cada aula existe un profesor, se desarrolla un contenido y se tiene inscrito un
grupo de estudiantes. Con base en esto se plantearan las siguientes relaciones (Estas
relaciones son las correspondientes al modelo MIAVA, teniendo en cuanta que cada
aula presentara sus propias relaciones presentadas para el modelo MIAV):

4.1 Relaciones para el modelo MIAVA

Relación Estudiante A - Estudiante B


En esta relación, se puede observar una interacción entre estudiantes que no

168
pertenecen al mismo curso. Son estudiantes que están tomando cursos similares con
contenidos similares, pero con profesores diferentes. De esta forma, los estudiantes
pueden intercambiar información obtenida de fuentes diferentes la cual es expuesta
con otros puntos de vista. Esta interacción es de gran importancia para la formación
integral del estudiante, ya que le permite interactuar con estudiantes de otras
instituciones y construir un conocimiento con menos sesgos.

Relación Estudiante B – Estudiante A


Se comporta igual que la anterior
Relación Estudiante A – Contenido B
Los estudiantes del curso A, podrán acceder a los contenidos expuestos por el
profesor del curso B. Esto resulta muy enriquecedor para los estudiantes ya que
permite obtener otra visión del curso y seguramente encontrará más fuentes de
información que conduzcan a una mejor construcción de su conocimiento.

Relación Contenido B – Estudiante A


El contenido del curso B puede ser realimentado de forma directa por los
estudiantes del curso B. Sin embargo, para los estudiantes del curso A, se deberían
tener ciertas restricciones de acceso para modificación de contenido. El nivel de
acceso, dependerá del profesor A y del convenio realizado ente las dos instituciones
propietarias de los cursos.

Relación Estudiante A – Profesor B


El estudiante del curso A, podrá realizar preguntas al profesor del curso B. Es
común que algunos estudiantes realicen preguntas al profesor del curso y este no logre
aclarar la duda de forma satisfactoria. En este caso, sería de gran utilidad que los
estudiantes pudieran acudir a otro profesor para lograr satisfacer la duda.

Relación Profesor B – Estudiante A


El profesor del curso B, podrá eventualmente interactuar con estudiantes del
curso A, no solo para resolver sus dudas, sino también para poner a prueba nuevos
cuestionarios y en general actividades pedagógicas con el fin de mejorar su aula
virtual. También podrá dirigir actividades de investigación, etc. Sin embargo, todo
tipo de interacción grupal, debe ser autorizado por el profesor del curso A.

Relación Contenido A – Contenido B


Se podrían establecer convenios de colaboración, por medio de los cuales los
contenidos tuvieran espacio compartidos entre los dos cursos. Sería un espacio
definido que estaría abierto para la interacción de cualquier estudiante sin restricción
del curso al cual pertenezca.

Relación Contenido B – Contenido A


Se comporta igual que la anterior

Relación Profesor A – Contenido B


El profesor A, puede consultar el contenido B, con el fin de realimentar su
programa de formación. Sin embargo, el profesor B podrá restringir el acceso del
profesor A, para controlar la cantidad de contenido que desea compartir.

169
Relación Contenido B – Profesor A
El Contenido B puede ser realimentado por el profesor A, de acuerdo a las
restricciones de acceso que determine el profesor B

Relación Profesor A – Profesor B


Los profesores de ambos cursos estarán en permanente comunicación,
realimentando sus experiencias educativas para mejorar grupalmente sus
conocimientos en el área y optimizar sus métodos de enseñanza.

Relación Profesor B – Profesor A


Se comporta igual que la anterior

5 Entornos Colaborativos Interinstitucionales

Los diferentes programas educativos en las universidades de todo el mundo


exigen una serie de contenidos similares de acuerdo a la profesión. Por ejemplo, un
programa de ingeniería de construcción en la mayoría de los casos demanda los
conocimientos en el área de matemáticas. Los contenidos de esta materia, son muy
similares en la mayoría de instituciones educativas que dictan esta materia. Lo que se
busca con el modelo MIAVA, es que las diferentes instituciones que dictan materias
similares, puedan asociarse para generar una sinergia de conocimiento. Se puede
establecer un convenio interinstitucional, en el cual los estudiantes de la misma
materia en dos instituciones diferentes, puedan inscribirse en las aulas virtuales de
ambas de forma paralela. De esta forma se puede obtener mayor desempeño en cuanto
a los tres agentes principales del conocimiento en el aula: estudiantes, profesores y
contenidos. El modelo MIAVA aplicado al convenio interinstitucional permite que un
estudiante pueda obtener información y conocimiento de dos fuentes y no solo de una,
como es el modelo tradicional. Este hecho abre las puertas a debates de mayor
magnitud generando un entorno colaborativo más amplio y enriquecedor. Sera
necesario sin embargo establecer límites para que los profesores no pierdan la
soberanía sobre su curso. Cada estudiante podrá aprovechar los alcances que le dan
las diferentes relaciones, pero tendrá que seguir respondiendo de forma directa a las
exigencias individuales de su profesor.
Este modelo puede ser implementado sobre cualquier plataforma de educación
virtual sin ningún prejuicio. Se requiere algún desarrollo de software para establecer
de manera adecuada las relaciones aquí planteadas, de modo que sea posible obtener
el mayor provecho sin violar la privacidad de cada curso.
Para tener estas ventajas se hace necesario que las instituciones generen convenios
permitan realmente llevar a cabo esta actividad. Estos convenios deben incluir
parágrafos acerca de derechos de autor, cantidad de contenido a compartir y cantidad
de contenido que puede ser susceptible de modificación por parte de la otra
institución. Este debe ser un trabajo serio y riguroso por ambas partes ya que puede
ser un punto crítico de conflicto más adelante.
También es claro, que algunas instituciones tienen suficientes estudiantes, como
para abrir mas de un grupo de la misma materia. Y muchas veces, estos grupos de la
misma materia no son dictados por el mismo profesor. Por lo tanto, en este caso, es

170
posible también implementar el modelo MIAVA dentro de la misma institución. No es
necesario entonces recurrir a un convenio interinstitucional para su implementación.
Solo requiere el acuerdo de profesores de la misma institución, cuyo contenido
temático sea muy similar.
Aunque el modelo MIAVA aquí planteado inicialmente solo aplica para dos
cursos en paralelo, debe ser claro que no hay problema en extenderlo a una cantidad
mayor. Las relaciones serán las mismas, solo que la cantidad de actores se
incrementara y definitivamente el entorno colaborativo estará cada vez mas
enriquecido. Se debe tener el cuidado respectivo en el respeto por la independencia de
los cursos, para evitar conflictos entre los individuos participantes.

6 Conclusiones

El modelo MIAV permite modelar las interacciones que se dan al interior de un


aula virtual, estableciendo como actores principales a estudiantes, profesores y
contenidos. Este modelo se basa en el modelo propuesto por Anderson y Garrison [1].
El modelo MIAVA es una extensión del modelo MIAV en el cual se observa una
interacción entre aulas virtuales. En este se observa como dos aulas virtuales, cada una
vista con el modelo MIAV, pueden interactuar juntas dando origen a una sinergia de
conocimiento, donde todos los actores ganan.
El modelo MIAVA propuesto en el presente artículo busca generar un entorno
colaborativo enriquecido por la participación de varios actores, lo cual genera un
mayor debate y exige una profundización en los contenidos. Esta interacción exige un
mayor esfuerzo por parte de los profesores y permite a los estudiantes obtener
información más imparcial ya que tienen dos (o más) fuentes de contenidos.
El modelo MIAVA es un modelo teórico que puede ser utilizado ente
instituciones o al interior de una misma institución. Solo basta con tener materias de
un mismo contenido que sean dictadas por diferentes profesores. Se deben establecer
unas reglas previas al funcionamiento y el resultado será un ambiente colaborativo
enriquecido con mucho debate y participación.
El aprendizaje colaborativo será la principal atracción de este modelo para la
aceptación por parte de las entidades educativas. Esto se debe a que permite un
ambiente interdisciplinario, donde podrán interactuar personas de diferentes líneas de
estudio.
Al permitir la integración académica y el trabajo colaborativo, este modelo
facilitara la participación y el intercambio entre investigadores de la institución,
incrementando los índices de investigación y desarrollo.
Estos modelos son adaptables a la mayoría de las plataformas educativas
existentes en la actualidad. Basta con implementar algunas funciones de usuario para
que los estudiantes y profesores puedan acceder a los contenidos adyacentes
habilitados.

7 Futuras líneas de Investigación

A partir del desarrollo de los modelos MIAV y MIAVA, será posible generar

171
desarrollos directamente sobre plataformas virtuales de código abierto tal como
Moodle. Así, queda abierta la posibilidad de realizar el código fuente relacionado con
los modelos para que pueda ser implementado próximamente en las diferentes
instituciones a nivel mundial.
El modelo MIAVA, puede permitir el trabajo colaborativo no solo a nivel de
aulas virtuales sino también a nivel de grupos de investigación, los cuales podrían
trabajar de forma colaborativa en proyectos conjuntos intercambiando información de
forma controlada.

Referencias

1. ANDERSON, T., & GARRISON, D. R., Learning in a networked world: New roles and
responsibilities. Atwood Publishing, 1998
2. CHRISTIAN STRACKE. Desarrollo de la calidad y estándares de la calidad para E-
Learning. Seminario internacional "Calidad en E-Learning", Bogotá, Col. University of
Duisburg-Essen, Germany.2007.
3. CLAUDIA MARIA ZEA. Uso de Medios y Tecnologías de Información y Comunicación
en Educación Superior Avances (2003-2006) y perspectivas (2007-2010). Ministerio de
Educación Nacional, República de Colombia. 2007.
4. MARITZA RONDON ANGEL. Resultados del estudio ―Modelos virtuales en las IES
colombianas‖. Viceministra de educacion superior (E), Ministerio de Educacion
Nacional, Republica de Colombia. 2007.
5. MARIO ARIAS Y GUSTAVO MATÍAS. La gestión virtual del aprendizaje
Organizativo. Revista del ministerio de trabajo y asuntos sociales. 2006.
6. JAVIER MARTINEZ ALDANONDO. e-learning y los 7 pecados capitales. 2008
7. JOSÉ RAMIRO GALEANO LONDOÑO. El diseño de guiones curriculares para la
educación virtual. Facultad de Educación de la Universidad de Antioquia Medellín –
Antioquía Colombia. VIII Congreso de Educación a Distancia CREAD
MERCOSUR/SUL 2004 - Córdoba – Argentina
8. RESOLUCION 2755 DE 2006. Por la cual se definen las características específicas de
calidad para la Oferta y desarrollo de los programas académicos en la metodología a
distancia. Ministerio de educación nacional 2006.
9. GUILLERMO CARDONA OSSA. Tendencias educativas para el siglo XXI Educación
Virtual, Online y @learning, elementos para la discusión

172
Complejidad de información en fuentes de datos RSS,
un nuevo enfoque: RSS2SOM

Fredy Orlando Bello Pérez, José Nelson Pérez Castillo

Estudiante de la Maestría en Ciencias de la Información


y las Comunicaciones de la Universidad Distrital Francisco José de Caldas.

Resumen. El presente trabajo se presenta un acercamiento a la


complejidad relacionada con el conocimiento y específicamente con la
visualización del mismo. Se plantean los orígenes del mapeo de
conocimiento mediante conceptos. También se toca el tema de
indexación de textos como base para la espacialización y se propone un
método para generar mapas auto organizados de noticias rss.

Palabras clave: complejidad, conocimiento, rss, auto organización,


mapas auto organizados, visualización.

Abstract. The present work shows an approach to the complexity


related to knowledge and specifically with knowledge visualization. The
origins of knowledge mapping are reviewed and related to cartographic
concepts. Document indexing is also reviewed in a general way as
basement for spatialization and a method is proposed for generating self
organizing maps from rss news.

Key words: complexity, knowledge, rss, self organization, self


organized maps, visualization.

1 Introducción

En la actualidad internet se ha convertido en una de las principales fuentes de


información para comunidades de toda índole. Normalmente un usuario explora la red
navegando a través de distintos portales de acuerdo a sus intereses particulares en
busca de las noticias más recientes. Para solventar la problemática que implica el
navegar de portal en portal buscando las novedades o cambios surgió el formato RSS,
dicho formato permite al usuario suscribirse a los diferentes sitios y recibir
información de las novedades publicadas automáticamente.
Al estar suscrito a muchas fuentes de datos RSS un usuario normalmente empieza
a recibir una serie de noticias que debido a la cantidad o a la falta de tiempo dejan de
ser leídas. El presente trabajo plantea la implementación de un método que espacialice
los documentos ( en este caso son las noticias en formato RSS ) mediante un mapa
bidimensional auto organizado en torno a los temas de interés del usuario de tal forma

173
que sirva como apoyo para obtener las noticias relevantes en un menor tiempo y con
mayor precisión.
La espacialización de los documentos implica una asociación tácita con la
geografía, puesto que se llevan objetos n dimensionales hacia representaciones
espaciales bidimensionales o mapas, ampliamente trabajados en las ciencias
geoespaciales.

1.1 El mundo de la geografía: visualizando dominios de conocimiento con


medios cartográficos

La representación del conocimiento es un tema complejo, debido a sus intrincadas


estructuras y a lo borroso de su naturaleza. Una herramienta que puede ser
aprovechada para visualizar es el mapa, que tiene sus orígenes en la necesidad de
representación de los elementos físicos que nos rodean en un entorno espacial.
Es frecuente encontrar referencias a la naturaleza siempre cambiante de lo que los
geógrafos llaman "realidad geográfica infinitamente compleja" [1], que implica
vigilancia constante para mantener actualizadas las bases de datos geográficas; al
margen de estas actividades algunos cartógrafos han comenzado un intento de
combinar siglos acumulados de conocimiento cartográfico con enfoques
computacionales modernos y visiones cognitivas, la visualización de información no
geográfica. Los investigadores de un área interdisciplinaria conocida como
visualización de información están comprometidos con el esfuerzo de hacer que las
estructuras altamente dimensionales sean más accesibles al sistema cognitivo humano.
Desde una crítica informada de los métodos existentes para el desarrollo de
herramientas originales, la cartografía puede proveer una perspectiva única en
visualización de dominios de conocimiento.

1.2 Mapas para el despliegue de Información

El mundo en el que vivimos es un mundo visual, sin embargo cuando buscamos


información mediante el uso de computadores todas las cosas, información, medios,
ubicaciones, y sus relaciones se vuelven invisibles, todas las pistas para la percepción
y asociación visual desaparecen [2]. Adicionalmente las interfaces de consulta
disponibles presentan una serie de problemas que reducen la efectividad y eficiencia
en la búsqueda de información.

1.3 Problemas de la recuperación de información en el marco del despliegue


visual

En la recuperación de información clásica existen básicamente dos tipos de


problemas. El primero es la formulación de consultas; la mayoría de los usuarios
tienen dificultad expresando sus necesidades mediante una consulta específica, incluso
si tienen éxito en esta formulación los sistemas tienen dificultades encontrando todos
los documentos relevantes sin sobrecargar a los usuarios con documentos que no son
relevantes
El segundo problema es el despliegue lineal. En la mayoría de casos los

174
documentos respuesta a la consulta son desplegados en forma lineal, como una lista de
títulos o de autores. Incluso cuando se consideran las relaciones entre documentos la
visualización usualmente simplifica todas las relaciones en un orden unidimensional,
lineal, presentado cronológicamente, alfabéticamente o de acuerdo a un peso
determinado.

1.4 Despliegue visual y navegación.

Al utilizar mapas se ponen en funcionamiento distintas habilidades del ser humano,


navegar en los mapas es una aplicación directa de la percepción humana para la
recuperación de información, tanto en ambientes electrónicos como no electrónicos y
con base en esto se puede pensar en aprovechar esa capacidad de navegación en
contextos diferentes al geográfico.

1.5 Mapeo de dominios de conocimiento

La expresión "mapear dominios de conocimiento" fue escogida para describir una


nueva área interdisciplinaria de la ciencia que se ocupa del proceso de visualizar,
minar, analizar, ordenar, facilitar la navegación y desplegar el conocimiento[3].
El conocimiento típicamente está organizado a lo largo de miles de dimensiones,
pero un mapa con miles de dimensiones no puede ser usado con eficiencia por los
seres humanos. Por esta razón, la visualización de dominios y la habilidad para
interactuar con el conocimiento y verlo desde una variedad de perspectivas juega un
rol importante.

1.6 Geografías de información personal

Los mapas geográficos estándar son herramientas cognitivas muy efectivas para
organizar nuestro conocimiento espacial. Tiene la ventaja de aprovechar nuestro
agudo sentido del espacio y nuestra habilidad para diferenciar finamente formas e
imágenes.
El desafío es identificar y representar una geografía de la información, la cual es
diferente para cada persona[4]. Es la interacción a mediano y largo plazo con los
mapas lo que les da su significado, por tanto debería ser una interacción a mediano y
largo plazo con el espacio de información la que sirva como base a su geografía.

2 Auto Organización de mapas y de Información

2.1 Métodos de especialización: Agenda de investigación cartográfica para


visualización de información no geográfica

Entre las influencias específicas sobre la visualización de información, es

175
particularmente notable la primera ley de la geografía, que se resume en que todo está
relacionado con todo lo demás, pero las cosas más cercanas están más relacionadas
que las lejanas[5]. Es sorprendente que mientras que las metáforas de mapeo han sido
tan populares en visualización de información, décadas de investigación cartográfica
las han ignorado.
Los cartógrafos y geógrafos podrían ser criticados más que cualquier otro por
fallar en participar con la comunidad de visualización de información demostrando la
relevancia de su experiencia acumulada.

2.2 Métodos para reducción de la dimensionalidad y diseño espacial

La tarea de elegir una técnica de espacialización es compleja por el hecho de que cada
método requiere procesos computacionales preparatorios para la técnica elegida con el
fin de afrontar sus peculiaridades. La técnica puede diferir en términos de las
propiedades deseables y de escalabilidad y robustez. Por ejemplo los mapas auto
organizados son aplicables a conjuntos de datos que tengan un gran número de
muestras y/o dimensiones, mientras que el escalado multidimensional (MDS) es poco
usado con tales tipos de datos.

2.3 Mapas auto organizados

El método de mapas auto organizados ha recibido mucha atención en años recientes


con aplicaciones tan diversas como imágenes médicas, reconocimiento de voz,
análisis de mercados, e incluso instalaciones artísticas. Algunos usos de los mapas
auto organizados ahora son populares en espacializacion cartográfica, tal como la
visualización de documentos de texto.
Los mapas auto organizados pertenecen a una categoría especial de las redes
neuronales basadas en aprendizaje competitivo. En estas redes las neuronas de salida
compiten entre ellas para ser activadas, con el resultado de que solamente una es la
ganadora en cada periodo de tiempo.

2.4 Organización automática de documentos de texto en categorías utilizando


mapas auto organizados

En el ámbito de la recuperación de información generalmente se utilizan algunas


palabras clave y expresiones de búsqueda simples para documentos. Sin embargo,
formular una buena consulta es difícil y así la mayor parte del tiempo se obtienen
largas listas de resultados sin un orden significativo, y su revisión llega a ser
dispendiosa[6].

2.5 Mapas auto organizados para minería de texto

Hacen falta herramientas para enfrentar con éxito el flujo actual de información. El
stress asociado a la información es una realidad y es normal por ejemplo invertir gran

176
parte del día en la lectura de correos electrónicos[7]. La búsqueda de información en
internet no es una tarea que consuma menos tiempo, los motores de búsqueda aunque
rápidos y globales continúan presentando sus resultados como listas a través de las
cuales el usuario debe navegar para descubrir los ítems relevantes entre la basura. Se
necesitan nuevos métodos para traer algo de orden al caos actual.

2.6 Mapa de documentos como filtro

Una ventaja clara de usar un mismo mapa de documentos por un periodo de tiempo es
que a medida que el usuario se familiariza el mapa puede ser usado como una
herramienta para interpretar nueva información al asociarla a la estructura existente.

2.7 Construcción de mapas para visualización. Mapa auto organizado de


Kohonen

El algoritmo toma un conjunto de objetos de entrada, cada uno representado por un


vector N dimensional y los convierte en nodos de una grilla bidimensional. El proceso
de conversión es un aprendizaje recursivo que se lleva a cabo de la siguiente forma:
Se selecciona aleatoriamente un vector de entrada del conjunto de todos los vectores
de entrada.
Se encuentra el nodo (el cual es representado mediante un vector n-dimensional
llamado pesos) más cercano al vector de entrada en el espacio N dimensional.
Se ajustan los pesos del nodo (llamado el nodo ganador) tal que probablemente fuese
seleccionado si fuera presentado nuevamente.
Se ajustan los pesos de aquellos nodos dentro del vecindario del nodo ganador tal que
los nodos dentro de este vecindario tendrán patrones de peso similares.
Este proceso se realiza iterativamente hasta que converja, por ejemplo llevando
todos los ajustes de peso hacia cero. Para asegurar la convergencia se imponen dos
mecanismos de control. El primero es la tasa de aprendizaje, la cual se acerca a cero a
medida que el número de iteraciones aumenta. El segundo es la estructura del
vecindario que se encoge gradualmente.

2.8 Indexación de documentos

Es necesario un pre procesamiento para convertir los documentos en vectores antes de


que el algoritmo de kohonen pueda ser aplicado a cualquier documento. Un
procedimiento general para tal fin basado en el modelo de espacio-vector incluye los
siguientes pasos:

 Identificar una lista de palabras de una colección de documentos; pueden


incluirse palabras de los títulos, del resumen o del texto completo.
 Comparar la lista contra una lista de palabras de palabras comunes para ser
eliminadas tales como "y", "de", "o", "el".
 Usar un procedimiento de palabras madre para reducir la lista a una forma madre
y remover duplicados
 Remover algunos de los términos más y menos frecuentemente encontrados en la

177
lista.
 Indexar la colección basándose en la lista restante. se crea un vector para cada
documento donde cada componente del vector puede ser:
 Un dígito binario, cada componente será 1 o 0 dependiendo de si el término
correspondiente aparece o no en el documento.
 Un peso basado en la frecuencia (el número de veces que un término aparece en
un documento)
 Un peso basado en la frecuencia y la frecuencia inversa (el inverso del número
de documentos en los cuales aparece el término)
 El escoger determinado tipo de indexación puede resultar en una representación
de espacio de documentos completamente diferente. Los mapas basados en
diferentes tipos de indexación pueden también mostrar diferentes características
del espacio de documentos. Se presenta a continuación un listado de algunas de
las técnicas de indexación de documentos más renombradas.

3 Enfoques para la indexación semántica y la recuperación de


Información[8]

La rama de la ciencia computacional que se ocupa del almacenamiento y recuperación


automatizada de documentos es llamada recuperación de información. Esta ha
cambiado considerablemente en los últimos años con la expansión de internet y el
advenimiento de interfaces de usuarios gráficas modernas y dispositivos de
almacenamiento masivos. En la recuperación de información el problema principal es
que los usuarios desean obtener información con base en el contenido conceptual y las
palabras individuales proveen evidencia no confiable acerca del tópico conceptual o el
significado del documento. Para tratar de determinar las palabras que describen mejor
al documento o al concepto sobre el cual trata se han creado diferentes técnicas de
indexación, que son mencionadas a continuación.

Técnicas de indexación simples


La técnica de indexación más sencilla se basa en proveer un conteo de cada
ocurrencia de un término en un documento

3.1 Categorización de documentos en términos de relevancia

El peso asociado con un término de índice indica la relevancia del término para
representar un cierto dominio y su habilidad para distinguir entre documentos. Los
pesos son generados de acuerdo a los siguientes principios:

 Términos que ocurren en pocos documentos son más útiles que aquellos que
aparecen en un gran número de documentos.
 A medida que la ocurrencia de un término en un documento se incrementa es
más probable que el término sea relevante para ese documento
 Un término que ocurre el mismo número de veces en un documento corto y en

178
un documento extenso probablemente es más relevante para el documento corto.

3.2 Modelo Espacio-Vector

El modelo espacio-vector está basado en la representación de documentos y consultas


como vectores con peso, en el espacio de términos de índice, cuya dimensionalidad
está determinada por el tamaño del vocabulario usado en el proceso de indexación.

3.3 Modelo probabilístico

El modelo probabilístico es un enfoque nuevo para la indexación automática de


documentos y se basa en un modelo de clases latentes estadístico para análisis de
factores de conteo de datos.

3.4 Medidas de Similaridad y diferencia y métodos de agrupación

Los términos y los pesos asociados a ellos son usados para clasificar los documentos
de acuerdo a su relevancia, logrando así la correcta categorización que facilite su
consulta.

3.5 Indexación semántica latente

En años recientes una técnica sofisticada para indexación automática ha sido


propuesta. Esta técnica, conocida como Indexación Semántica Latente es una
herramienta avanzada para recuperación de información y fue desarrollada por
científicos de Telcordia Technologies hace cerca de diez años. LSI es una variante del
método de recuperación por vectores que explota dependencias o "similaridad
semántica" entre términos. Se asume que existe alguna estructura oculta o latente en el
patrón de uso de palabras entre documentos y que esta estructura puede ser
descubierta estadísticamente.

3.6 Indexación semántica

El objetivo de la indexación semántica es usar la información semántica (dentro de los


objetos indexados) para mejorar la calidad de la recuperación de información.
Comparado con otros métodos tradicionales de indexación, basados en
correspondencia de palabras claves, el uso de índices semánticos significa que los
objetos son indexados por los conceptos que contienen más que solo por los términos
que usan para representarlos.
El enfoque de indexación semántica emplea un conjunto de relaciones semánticas
entre los términos índice, determinado por medio de un diccionario específico. Los
sistemas de clasificación tales como Dewey o el de la Librería del congreso
norteamericano se enfocan en relaciones jerárquicas.

179
4 RSS2SOM

Teniendo en cuenta los temas tratados en el presente artículos el autor propone un


método denominado RSS2SOM que tiene como finalidad permitir la auto
organización de noticias RSS en torno a los temas de interés del usuario en forma
visual. El método RSS2SOM está compuesto por los siguientes pasos:

 Obtención de las noticias RSS de las fuentes que se determinen.


 Indexación de las noticias RSS mediante el uso de vectores semánticos
 Definición de clases de interés del usuario con sus palabras clave asociadas ( se
sugiere el catálogo Library of Congress Subject Headings )
 Generación de mapa auto organizado de Kohonen tomando como entrada los
vectores semánticos y visualizando la organización en función de las clases de
interés definidas.

5 Conclusiones

La complejidad del conocimiento hace necesario que se piense en nuevos enfoques


respecto a la forma de administrarlo, de consultarlo y de visualizarlo.
La visualización de información es un área de las ciencias de la información que
puede generar amplios espacios investigativos ya que se relaciona con todas las
actividades que realiza el ser humano.
Existe un puente entre los sistemas de información geográfica y los sistemas de
gestión del conocimiento que es susceptible de ser investigado.
El procedimiento planteado (rss2som) es susceptible de ser implementado como
trabajo futuro.

Referencias

1. Skupin, A., The world of geography: Visualizing a knowledge domain with cartographic
means. Proceedings of the National Academy of Sciences, 2004: p. 5274–5278.
2. Lin, X., Map Displays for Information Retrieval. JOURNAL OF THE AMERICAN
SOCIETY FOR INFORMATION SCIENCE., 1997: p. 40–54.
3. Shiffrin, R.M. and K. Borner, Mapping knowledge domains. Proceedings of the National
Academy of Sciences, 2004: p. 5184-5185.
4. Bauer, D., Personal Information Geographies. CHI, 2002: p. 528-539.
5. Skupin, A. and S.I. Fabrikant, Spatialization Methods: A Cartographic Research Agenda for
Non-geographic Information Visualization. Cartography and Geographic Information
Science, 2003. 30(2): p. 95-115.
6. Shah, C. (2002) Automatic organization of text documents in categories using self-
organizing map (SOM). Volume,
7. Lagus, K., et al. (1998) WEBSOM FOR TEXTUAL DATA MINING. Volume,
8. Barón, M.S. and S.V. Kathleen, An approach to semantic indexing and information retrieval.
Revista Facultad Ingeniería Universidad de Antioquia, 2009(48): p. 165-187.

180
Tecnologías de información y terminología asociadas al
área de desastres.

Beatriz Elisa Jaramillo Moreno 1, Julio Barón Velandia1


1
Facultad de Ingeniería, Universidad Distrital ―Francisco José de Caldas‖,
Bogotá D.C., Colombia
1
{bjaramillo, jbaron}@udistrital.edu.co

Resumen.El presente artículo realiza una revisión acerca de la


terminología asociada al área de desastres, los trabajos actuales y las
proyecciones futuras, con respecto a las tecnologías de información
presentes y al campo específico de la sociedad de la información y el
conocimiento, como parte de la investigación que se viene realizando en
este tema, para el desarrollo de una base de conocimiento en el área de
desastres.

Abstract. This article develops a review of disaster terminology, the


present job, and the future work associated to information technologies,
and the specific area of the information and knowledge society as part
of an investigation for the develop of a Knowledge Base for the disaster
area.

Keywords: desastre, tesauro, tesaurus, ontología, base de datos de


conocimiento

1 Introducción

Según el CRID – Centro Regional de Información de Desastres, la definición de


desastre es la siguiente: ―Una interrupción seria en el funcionamiento de una sociedad
causando vastas pérdidas a nivel humano, material o ambiental, suficientes para que la
sociedad afectada no pueda salir adelante por sus propios medios. Los desastres se
clasifican frecuentemente, de acuerdo a su causa (natural o antropogénica)‖ [1]. Esta
es una definición que se encuentra registrada en el documento ―Vocabulario
Controlado de Desastres‖, desarrollado gracias a una iniciativa regional. Sin embargo,
existen muchas organizaciones encargadas de la atención y prevención de desastres
que manejan su propia terminología. Aunque en un desastre se enfocan los esfuerzos
en la atención médica y humanitaria de la sociedad afectada, la falta de una
terminología común, puede generar un impacto negativo a la hora de superar esta
situación. Por ejemplo, el sólo hecho de clasificar un desastre de manera adecuada, es
decir en su concepto, permitirá o no establecer su real magnitud, lo que redunda en
declarar estados de emergencia, petición internacional de ayudas, gestión de recursos,
manejo de protocolos, etc.
En principio el esfuerzo se ha dado para llegar a un concepto común de los

181
términos asociados al área de desastres, lo que ha permitido pensar en la generación y
utilización de tecnologías de información que permitan mejorar aún más lo existente,
como las ontologías y las bases de datos de conocimiento. Existen al respecto
desarrollos de diferentes fuentes (gubernamentales, privadas e individuales) que han
trabajado en subáreas muy particulares, básicamente en sistemas de información.
En el presente documento, se hará una revisión de las tecnologías de información que
se han utilizado en el área de desastres y de los proyectos de desarrollo propuestos,
particularmente en el uso de ontologías.

2 Tecnologías de información utilizadas en el área de desastres

Existe una gran variedad de proyectos relacionados con la necesidad de automatizar la


información que se presenta en los tres momentos de un desastre: antes, durante y
después, la cual tiene características diferentes.
Previo a un desastre la información corresponde a la organización de los datos
resultantes del monitoreo de una zona, ya sea por rutina o porque se tiene
conocimiento de que puede ocurrir un evento. Esto se hace para establecer un riesgo
posible o para disminuir la magnitud del mismo.
Posterior a un desastre los datos obtenidos son categorizados, de manera que
brindan información muy particular. Lo que se busca es clasificar los desastres a
través de diferentes variables y así establecer algunos patrones de comportamiento que
permitan tomar mejores decisiones y a su vez retroalimentar el sistema para
monitorear y atender con más eficacia y eficiencia un futuro desastre. En la actualidad
esto se hace en su gran mayoría con sistemas de información geográfica.
Tal vez la parte más compleja en el manejo de información es en el momento de
un desastre, ya que aunque existen protocolos para ello, lo que prima sobre la
situación de desastre es la ausencia de control. Sin embargo se han generado debates
sobre la importancia de recabar los datos, con respecto a la importancia de atender la
situación. En el informe mundial sobre desastres de la Federación Internacional de la
Cruz Roja y la Media Luna Roja se registra: “Faltan datos exactos y fidedignos sobre los
desastres en general, y las guerras y las hambrunas en particular. Sin ellos, miles de víctimas
mueren antes de que las organizaciones hayan registrado siquiera sus necesidades. Los datos
inexactos pueden dar lugar a decisiones erróneas que, a su vez, pueden costar vidas o
contribuir al despilfarro de recursos valiosos...” [2]. En otro párrafo se menciona:
“Recolectar y utilizar datos sobre desastres también plantea importantes retos éticos.
Inmediatamente después de un desastre, cuando las necesidades de orden humanitario son
urgentes, ¿se debería gastar un tiempo precioso y recursos valiosos en recolectar datos o en
salvar vidas? Algunos afirman que es inmoral postergar intervenciones que permiten salvar
hasta que no se haya recolectado datos. Otros, estiman que la ayuda debería basarse en
evaluaciones objetivas de las necesidades... Cuando no se dispone de datos fidedignos,
tampoco se pueden hacer llamamientos ni sensibilizar, entonces, la ayuda no llega. Todo esto
crea una espiral viciosa de sufrimiento que puede pasar desapercibido” [2]
Aun así, los organismos encargados de la atención y prevención de desastres tienen
clara la necesidad de generar sistemas de información que permitan almacenar y
gestionar la información en el área de desastres.

182
2.1 Recolección de información

Algunas entidades de atención y prevención de desastres tienen protocolos


establecidos para la recolección de datos, por ejemplo, la OPS – Organización
Panamericana de la Salud [3] determina un nivel jerárquico de orden bidireccional
donde fluyen los datos que posteriormente serán analizados (ver figura 1) los cuales se
reflejan posteriormente en políticas y planes que permiten tomar decisiones o generar
estrategias para manejar un próximo evento de manera más adecuada.

Fig.6. Manejo de la información en situaciones de desastre para la toma de decisiones


a nivel local – Fuente [3]

Organizaciones como la antes mencionada incluso tienen técnicas para la adquisición


de ésta información, la definición de los atributos que debe tener la misma, así como
la clasificación de los diferentes métodos para recolectarla de acuerdo al escenario del
desastre, como se muestra en la siguiente tabla [3]:

Tabla 6. Técnicas de levantamiento de información de acuerdo a los diferentes


escenarios de un desastre – Fuente [3]

Requerimientos Técnicas de obtención de datos


Método de
evaluación Tiemp
Recursos Indicadores Ventajas Desventajas
o
Reporte desde Ofrece
las datos
instalaciones basales para
1. de salud y de la detección
Personal
Anteceden En quienes de
entrenado Ninguna.
tes del curso brindan problemas y
.
desastre atención. la
Patrones y evaluación
estacionalidad de
de tendencias.

183
Requerimientos Técnicas de obtención de datos
Método de
evaluación Tiemp
Recursos Indicadores Ventajas Desventajas
o
enfermedades.
Rápido: útil
Observación cuando no
Costoso;
2 Remoto; directa, hay
gran error
aviones, Minut cámaras. transporte
objetivo;
helicópter os/ Equipos. Edificios por tierra;
mínimos
os, Horas destruidos, útil para
datos
satellite vías, diques, identificar
específicos.
inundaciones. el área
afectada.
Sin datos
Observación cuantitativos
directa, charlas ; sesgos
Rápido;
con líderes potenciales;
visible, no
3 locales y alta tasa de
Horas/ Transport requiere
Recorrido trabajadores de error; las
días e, mapas antecedente
a pie salud. Muertes, áreas más
s técnicos
personas sin afectadas
(en salud).
hogar, número pueden ser
y tipo de inalcanzable
enfermedades. s.
Datos
cuantitativo No siempre
Estudios s rápidos; son muestras
rápidos. puede aleatorias;
4 Estudios Poco
Muertes, prevenir trabajo
"rápidosau 2-3 personal
número malos intenso,
nqueimper días entrenado
hospitalizados, manejos; riesgo de
fectos" .
estado puede sobre
nutricional. brindar interpretació
datos para n.
vigilancia.

Sin embargo, todavía existen muchas necesidades en cuanto al manejo de


información en una situación de desastre. Algunas de estas deficiencias son
enunciadas en un artículo de la Estrategia Internacional para la Reducción de
Desastres (EIRD), donde se muestra que gran parte del problema es la socialización
de las experiencias, aunque algunas instituciones estén trabajando por ese objetivo. Se
menciona que algunas organizaciones “...han permitido que se brinde atención al hecho,
que muchas de esas “lecciones aprendidas” a través de los desastres no son incluidas en la
mayor parte de la literatura médica y de salud. Ello se debe a que frecuentemente la
experiencia de muchos de los profesionales de la salud involucrados con el trabajo en materia
de desastres no se publica, o bien consiste en la evaluación de necesidades por parte de las
ONGs o instituciones dentro del sistema de la ONU, las cuales son frecuentemente de
circulación limitada...”[4].

184
Por otro lado, muchas de las redes sociales y sistemas de información generados
nacen de la necesidad de masificar y compartir la información relacionada con
desastres, como DesInventar que en su sitio WEB manifiesta que “...la ausencia de
registros sistemáticos, homogéneos y comparables sobre la tipología de los desastres, como
efectos de la ocurrencia de eventos amenazantes en las condiciones de vulnerabilidad en cada
región, país, o ciudad, por un lado,..., han contribuido a hacer menos visibles los miles de
pequeños y medianos desastres que anualmente ocurren en los países de regiones como
América Latina y El Caribe, Asia y África...”[5]

2.2 Sistemas de Información

En la actualidad los desarrollos existentes se basan en tecnologías de sistemas de


información que involucran algunas bases de datos y en una medida más compleja
sistemas de información geográfica. No se encuentra registrado por alguna de las
organizaciones mundiales y locales la existencia de un sistema de información que
gestione todas o por lo menos un a gran parte de las áreas que involucran un desastre.
Por otro lado, estos sistemas se han enfocado en la gestión de información previa y
posterior a un desastre. Entre algunos desarrollos se tienen:

 DesInventar: Es la herramienta diseñada para ingresar información concerniente a


los desastres, las causas y los efectos. Permite almacenar datos para la construcción
de inventarios de manera estándar y homogénea. Es un sistema de información
geográfica [5]
 DesConsultar: es un instrumento de consulta, una herramienta de análisis espacio-
temporal de inventarios altamente vinculado con DesInventar. DesConsultar es
apto para develar las características y efectos de los desastres.Es un sistema de
información geográfica.[5]
 EM-DAT – EmergencyEventsDatabase: Es una base de datos desarrollada por el
CRED - Centre forResearchontheEpidemiology of Disasters – Centro para la
investigación sobre epidemiología de desastres, con el apoyo de la OFDA - Office
ForeingforDisasterAssistance en Europa y el sistema de inventario de desastres
DesInventar de la RED – Red de Estudios en prevención de Desatres en
Latinoamérica.
 SIRE - Sistema de Información para la gestión de Riesgos y la atención de
Emergencias: es un sistema de información cuyo diseño y desarrollo adelantó el
Fondo de Prevención y Atención de Emergencias – FOPAE en conjunto con
INGEOMINAS y que se pone a disposición de la ciudadanía de Bogotá
(Colombia), con el fin de contribuir con la misión de la Dirección de Prevención y
Atención de Emergencias (DPAE) facilitando el acceso a la información
relacionada en primera instancia con la gestión de riesgos y en segunda con la
atención de emergencias.[6]
 Red de estudios sociales en prevención de Desastres en América Latina: es un
grupo que pretende impulsar la creación de un sistema de información a nivel
latinoaméricano, de manera que se puedan reunir los diferentes proyectos que se
vienen desarrollando con respecto al campo de los desastres. La Red administra y
desarrolla las bases de datos relacionadas con DesInventar y DesConsultar. [7]
 CRED - Centre forResearchontheEpidemiology of Disasters – Centro para la

185
investigación sobre epidemiología de desastres: Es un centro perteneciente a la
Universidad Católica de Lovaina en Bélgica, que se encarga de administrar la base
de datos internacional EM-DAT, ya mencionada anteriormente. Por otra parte,
desarrolló una base de datos específica para desastres en el territorio asiático, la
EM-SIANET – EmergencySouthEast Asia Network. [8]

En cuanto a desarrollos para el momento de un desastre el más representativo es:

 SUMA – Sistema Unificado para el Manejo de Ayudas: es una herramienta para el


manejo de ayudas humanitarias, desde el momento en que se ofrecen, hasta que
llegan a la zona de desastre, se almacenan y distribuyen. Permite clasificar e
inventariar los suministros entrantes y salientes de manera que se pueda procesar
rápidamente la ayuda recibida y distribuirla a quien más la necesita. Actualmente
SUMA puede tener como centro de control un país diferente al de la emergencia y
enviar reportes, a través de Internet, al país afectado. Colombia es uno de los países
que más apoyo le ha dado a SUMA, por medio de la Defensa Civil y la Cruz Roja
Colombiana (organización que ayudó a la creación del sistema SUMA).SUMA es
administrado por FUNDESUMA y la OPS (Organización Panamericana de la
Salud).[9]

2.3 Bases de conocimiento en el área de desastres

De acuerdo a la investigación, se encontró una base de conocimiento bastante


formalizada y estructurada en el CLAMED- Centro Latinoaméricano de medicina de
Desastres, que focaliza sus esfuerzos en Cuba y Latinoamérica y pretende almacenar
todas aquellas experiencias médicas que permitan actuar en una situación de desastre
adecuadamente.
La licenciada en información científico técnica y bibliotecología del CLAMED,
Vivian María Céspedes Mora, hace una descripción del CLAMED y su función, en un
artículo de la revista Cubana de Medicina General, el CLAMED es “institución del
Ministerio de Salud Pública (MINSAP) que se ocupa de coordinar, en un solo conjunto de
conocimientos y acciones los diversos elementos de la Medicina de Desastres” [10]
El CLAMED además posee un Centro de Información y Documentación que
permite a los usuarios consultar en diferentes formatos y fuentes lo relacionado con la
medicina de desastres y está muy enfocado a los profesionales de las ciencias médicas,
promoviendo el conocimiento en los tres momentos de un desastre y su principal
objetivo es mitigar el riesgo y mejorar la toma de decisiones. Usa y está altamente
vinculado con referentes de terminología de desastres como los son el Vocabulario
Controlado de Desastres (VCD) y el Descriptor de Ciencias de la salud (DeCS).

3 Términos de desastres

La terminología asociada a una situación de desastre, aún no se ha estandarizado, sin


embargo se han iniciado esfuerzos en dos frentes: la consolidación de los trabajos

186
existentes y la materialización de la necesidad de usar una terminología única para el
tratamiento de los desastres, en cualquiera de sus momentos.
Las diferentes organizaciones manejan una serie de términos desde los diferentes
puntos de vista de los actores y de las mismas organizaciones, que hasta ahora se están
formalizando, como conceptos propios de un desastre. Como lo dice Patricia Diskette
en su informe mundial sobre desastres: “la palabra desastre tiene diferentes definiciones y
para la palabra damnificado aún no hay un acuerdo” [2].
Sin embargo en algunos sectores ya existe alguna terminología técnica,
particularmente en el sector de la medicina para desastres, la cual ya se encuentra de
alguna manera estandarizada.

3.1 Vocabulario Controlado de Desastres (VCD)

Consiste en una lista de términos que han sido analizados y recopilados de diferentes
fuentes con el fin de estandarizar y utilizar la misma definición para el tratamiento de
un desastre, realizada por el CRID – Centro Regional de Información sobre Desastres
América Latina y el Caribe a partir del año 1999. Esta iniciativa en primera instancia
ha sido desarrollada por expertos tanto en gestión y manejo de la información, como
por expertos en el área misma de desastres. A partir del último año, esta lista se ha
hecho pública y se ha dispuesto a través de una wiki para que otras personas
relacionadas con los términos de desastres aporten y actualicen el VCD en línea.
Allan Lavell, quien es el responsable de la creación y revisión del VCD, publica en
el prólogo lo siguiente: ―…El Vocabulario que aquí se presenta tiene el objetivo de
establecer o sugerir un conjunto de términos y definiciones en torno al problema del
riesgo y desastre, considerando tanto los aspectos físicos como sociales y que captan
la esencia de muchos de los nuevos (y viejos) términos que se han introducido en
nuestro léxico, o, cuando menos, en nuestros oídos, en particular, durante los últimos
10 años. Su contenido está basado en una revisión de múltiples fuentes, llegando a una
definición que pareciera ser conveniente y más y más común entre los profesionales
en esta rama del conocimiento. No por eso pretende ser exhaustivo o excluyente.
Como todo proceso y producto de la ciencia debe ser abierto a modificación y
mejoramiento en el futuro.‖[11]

3.2 Descriptor de Ciencias de la salud (DeCS).

Fue creado por BIREME – Biblioteca Regional de Medicina, que en su origen fue
conocido como el Centro Latinoamericano y del Caribe de Información en Ciencias
de la Salud, el cual es un centro especializado de la Organización Panamericana de la
Salud y la Organización Mundial de la Saludy trabaja particularmente este campo en
el Área de Información y Gestión del Conocimiento.
El DeCS pretende unificar el lenguaje utilizado en el campo de las ciencias de la
salud mediante un concepto llamado ―vocabulario estructurado‖, y que de acuerdo al
BIREME se define como “… colecciones de términos, organizados según una metodología
en la cual es posible especificar las relaciones entre conceptos con el propósito de facilitar el
acceso a la información. Los vocabularios son usados como una especie de filtro entre el
lenguaje utilizado por el autor y la terminología del área y también pueden ser considerados
como asistentes de investigación ayudando el usuario a refinar, expandir o enriquecer sus

187
investigaciones proporcionando resultados más objetivos.”[12]
La función básica del DeCS es la recuperación de documentos, artículos, y otra
literatura relacionada con el área de ciencias de la salud, mediante búsquedas en bases
de datos especializadas entre las cuales se encuentran: BVS – Biblioteca Virtual de la
Salud, LILACS y MEDLINE y en tres idiomas: portugués, inglés y español.

3.3 UMLS – Unified Medical Language System

Es un proyecto de desarrollo de terminología única y red de semántica de la salud, en


el cual participa DeSC, cuyo lenguaje principal es el inglés y tiene la responsabilidad
de actualizar y enviar los términos al DeSC en portugués y español.
El UMLS maneja dos formas para la administración de los términos:
MethaThesaurus y The UMLS Semantic Network. Esta última, la red semántica o red
de ontologías de alto nivel, como es conocida para los usuarios de la misma,
actualmente interrelaciona 60 términos en el dominio de la biomedicina y maneja 134
tipos semánticos que categorizan los conceptos representados en el UMLS. La
estructura de la red está compuesta de 54 enlaces entre los diferentes tipos semánticos
que brindan y relacionan términos en el área de las ciencias de la vida.
Actualmente se está trabajando en otro tipo de ontologías como lo son: las
ontologías genéticas y la taxonomía de los organismos.

4 Conclusiones

Si bien es cierto que existen algunos conceptos formalizados y muchos procesos y


procedimientos estandarizados, este no es el mayor reto que tienen las organizaciones,
ya que los desastres tienen una característica de alto impacto: las numerosas y
diferentes variables que se presentan. En el área de desastres se maneja una gran
cantidad de terminología que debe ser utilizada de forma adecuada para atender el
desastre. Como se manifestó en el presente documento, el sólo concepto que implica
la palabra desastre, puede generar una buena o mala toma de decisiones para superar
esta situación.
El área que más ha avanzado en la estandarización de conceptos es la
biomedicina, la cual ya se encuentra utilizando tecnologías de información del nivel
de ontologías y redes semánticas, sin embargo, y aunque está relacionada con el área
de desastres, ha focalizado su desarrollo en términos eminentemente médicos.
En el área de desastres, el esfuerzo realizado llega hasta el momento, a una lista de
términos alimentados y retroalimentados por diferentes organizaciones cuyo primer
objetivo es la estandarización de algunas definiciones.
Como se ha registrado en los proyectos que vienen desarrollando los autores, se
hace necesario la construcción de ontologías y una base de conocimiento para el área
particular de desastres que redunda en la atención adecuada de una situación primaria
como lo es una emergencia.

188
Referencias

1. Centro Regional de Información de Desastres, Vocabulario Controlado de


Desastres, http://www.crid.or.cr (2009)
2. Diskett, P.: Capítulo 7: Medición de los desastres: retos, posibilidades y ética.
Informe Mundial sobre Desastres.(2003).
3. Organización Panamericana de la Salud.:Capítulo 4: Manejo de la información
en situaciones de desastre para la toma de decisiones en el nivel localVigilancia
Epidemiológica Sanitaria en Situaciones de Desastre, Guía para el nivel
Local,OPShttp://www.helid.desastres.net. (2010)
4. Scott, J.; Pérez, R.;Arnensen, S.: Mejorando el acceso a la información de la
salud y los desastres en Honduras y Nicaragua. Revista EIRD Informa. No. 2.
(2006)
5. Metodología, http://www.desinventar.org
6. http://www.sire.gov.co
7. http://www.desenredando.org
8. http://www.cred.bepa
9. http://www.disaster-info.net/SUMA
10. Céspedes, M.: Lecciones aprendidas en desastres y la gestión del conocimiento
en salud y desastres. Revista Cubana de medicina general. Vol. 19. No.
3.Ciudad de La Habana – Cuba. Mayo – Junio (2003)
11. Lavell, A.:Vocabulario Controlado sobre Desastres – VCD, CRID (2009)
12. Biblioteca Virtual en Salud, Descriptores en Ciencias de la Salud,
decs.bvs.br/E/aboutvocabe.htm (2010)

189
Servicios de Geolocalización, el enfoque de las Redes
Sociales

Sandra Yanet Velazco Florez1, Luis Joyanes Aguilar2, Antonio Rafael


Roman1 Jayguer Vásquez1
1
DEA. Universidad Pontificia de Salamanca – Madrid, Paseo Juan XXIII, 3, 28040
Madrid - España
2
Facultad de Informática. Universidad Pontificia de Salamanca – Madrid. Paseo
Juan XXIII, 3, 28040 Madrid - España.
Sandra.velazcof@gmail.com, luis.joyanes@upsam.net, aromanv@yahoo.com,
jayguer@hotmail.com

Resumen. La integración de tecnologías para servicios en línea de uso


colaborativo, junto con los servicios que proponen y disponen las
populares redes sociales como es el caso de Facebook, Twitter,
Foursquare, entre otras muchas, que sirven de escenario para la tan
anhelada Geolocalización, y si a esto se le suma la constante evolución
de la telefonía móvil y su arrollador impacto y utilización, dando paso a
aplicaciones móviles centradas en la ubicación del usuario, permitiendo
compartir su posición con otros y a su vez, poder visualizar en un mapa
dónde se encuentran ellos, facilitaría tanto a usuarios como a empresas,
el compartir datos concernientes con su ubicación en un área
determinada. Con la Geolocalización, los usuarios pueden combinar su
posición geográfica, con datos online disponibles en sitios como
Google Maps, Yahoo! Maps o Bing Maps y que a la vez contienen
datos sobre la ubicación de comercios, hoteles, restaurantes,
gasolineras, y demás servicios en una zona especifica tiempo real.

Palabras Clave: Geolocalización, Redes Sociales, GPS, Tecnologías


móvil, integración de servicios, Foursquare, Facebook.

Abstract. The integration of technologies for services on line of


collaborative use, together with the services that propose and arrange
the popular social networks since it is the case of Facebook, Twitter,
Foursquare, between great others, which use as scene for such a longed
Geo-location, and if to this there adds the constant evolution of the
mobile telephony and his sweeping impact and utilization, giving I go
on to mobile applications centred on the location of the user, allowing
to share his position with others and in turn, to be able to visualize in a
map where they are, it would facilitate both to users and to companies,
to share relating information with his location in a certain area. With the
Geo-location, the users can combine his geographical position, with
information online available in sites like Google Maps, Yahoo! Maps or
Bing Maps and that simultaneously contain information on the location

191
of trades, hotels, restaurants, gas stations, and other services in a zone it
specifies real time.

Key words: Geo-location, Social Networks, GPS, Technologies


mobile, Integration of services, Foursquare, Facebook.

1 Introducción

La constante evolución de la tecnología, la ha llevado al desarrollo de nuevas


herramientas y sus diferentes aplicaciones, permitiendo incluso la transformación de
ciertos instrumentos de orientación que van desde la brújula, pasando por los sistemas
de posicionamiento global (GPS), que captan información a través de satélites siendo
esta registrada por medio de los Sistemas de información geográfica (GIS), como eje
de partida para el desarrollo de nuevos prototipos y sus aplicaciones en materia de
localización geográfica, y su consecuente implementación en sistemas de
Geolocalización.

2 La Llegada de la Geolocalización

La Geolocalización es un término relativamente nuevo, que se ha venido abriendo


espacio desde mediados del año 2009 y que hace referencia al conocimiento de la
ubicación geográfica de lugares, objetos o personas mediante el uso acérrimo de
diferentes herramientas tecnológicas, tales como, Internet, navegadores, satélites,
telefonía móvil, PDA, etc. Es por ello, que la llegada de de la Geolocalización es un
tema a tratar en la actualidad, como tecnología que se basa en los Sistemas de
Información Geográfica, y que permite entre otras cosas informar a los usuarios de
cual es su situación con respecto a, la de los demás, y a su vez asociarla a lugares del
mundo real.
La Geolocalización muestra un gran despliegue de aplicaciones, tanto para
empresas, como instituciones, al igual que para cualquier persona. Variadas son las
formas para que esto suceda, y entre ellas, los dispositivos móviles marcan una pauta
interesante, ya que dan mayor facilidad al momento de actualizar una posición, por su
portabilidad. La telefonía móvil de última generación trae integrados receptores GPS
que utiliza la información del satélite para calcular la posición exacta de la persona.

3 Las Redes Sociales

Son variadas las definiciones para expresar lo que es en sí, el fenómeno de las Redes
Sociales, una de ellas es la dada por el diccionario de la Web 2.0 54, las Redes en cuya

54 Gobierno Sociedad Empresa 2.0. Web 2.0: Adaptación a las Nuevas Tecnologías.
Diccionario de definiciones para entender la Web 2.0.
http://gobiernosociedadempresa20.blogspot.com/2009/09/web-20-

192
estructura los nodos individuales son personas que mantienen relaciones, tales como
amistad intereses comunes o fines comerciales.
El concepto de Red Social, creado por la antropología inglesa para superar
análisis estructurales obsoletos, parte de un abstracto, esto es, se toma un punto de
partida de estudio y se establecen las distintas relaciones entre los individuos. Por
cada punto de partida se crea distintas redes y por supuesto distintos modelos de
relación, y que dentro de un mismo momento espacio-temporal, se pueden
redimensionar y redefinir esas Redes Sociales55
En un artículo de Larissa Adler Lomnitz para REDES (Revista hispana para el
análisis de redes sociales) las define como construcciones abstractas que el
investigador define de acuerdo al criterio que le interese; es decir, estas relaciones se
determinan por algún criterio subyacente, lo que permite identificar estructuras
sociales que generalmente no están formalmente definidas por la sociedad y que de
otra manera no serían identificables [1].
El concepto de Red Social ha abarcado siempre todos los ámbitos de la vida,
llegando a, agrupar diversas actividades que integran tecnología, interacción social y
la construcción de palabras, imágenes, videos y audio. ¿Por qué se han vuelto tan
importantes?, el uso dado por los usuarios de la Internet es cada vez mayor,
mostrándose como una de las actividad más populares en la red.

4 La Geolocalización y las Redes Sociales

Actualmente la Geolocalización tiene un impacto sociológico de gran magnitud, dado


a su acción sobre los contenidos sociales presentes en el mundo [2]. Por ello sin duda
el boom del momento en las redes sociales, es la Geolocalización, despertando gran
interés entre los usuarios por saber en donde están ahora mismo. Actualmente son
muchas las redes sociales que emplean Geolocalización, estos son algunos ejemplos
de aquellas que prestan éste tipo de servicio o por lo menos han adaptado sus
funcionalidades a este tipo de tecnologías:
Twitter (twitter.com), creada en 2006, le llevo varios meses el probar distintos
sistemas para añadir o integrar Geolocalización en su servicio56, hasta anunciar en
definitiva Twitter Places57, que permite al usuario ver resultados generados en torno a
un lugar determinado.

diccionario

55 Microsoft. Qué son y cómo funcionan las Redes Sociales I: Introducción. Microsoft SB
Portal https://www.microsoft.com/business/smb/es-
es/rrpp/redes_sociales_intro.mspx

56 ―Location, Location, Location‖, publicado en su blog oficial el 20 de agosto de 2009.


Disponible en http://blog.twitter.com/2009/08/location-location-
location.html

57 ―Twitter Places: More Context For Your Tweets‖, publicado en su blog oficial el 14 de junio
de 2010. Disponible en http://blog.twitter.com/2010/06/twitter-places-more-
context-for-your.html

193
Tuenti (tuenti.com), insignia de las redes sociales para la juventud española,
creada en 2006 y asociada actualmente a Telefónica58, empresa también de origen
español, llevaba ya algún tiempo anunciando esta funcionalidad y trasladando la
experiencia completa de ―Tuenti Sitios‖ a la versión móvil de la página, el pasado 20
de mayo, presento su nueva herramienta de Geoposicionamiento 59, la cual permite a
los usuarios compartir ubicación con sus contactos de forma privada.
Facebook (Facebook.com), compañía fundada en febrero de 2004 por Mark
Zuckerberg, es sin duda la mayor red social con más de 500 millones de usuarios
alrededor del mundo60. Le llevo un tiempo trabajar en el desarrollo de este nuevo tipo
de servicios, hasta anunciar Places en Facebook61. Este nuevo elemento de su servicio
permite a los usuarios hacer público el lugar dónde se encuentran a través del sitio.
Inicialmente, Places sólo está disponible en los EEUU, asegurando que tiene intención
de ofrecer pronto el servicio en más países y plataformas.
Foursquare (foursquare.com), lanzado el 11 de marzo de 2009, ―Foursquare es
como Facebook o Twitter, pero con localización, somos una mezcla de localización,
herramienta social y entretenimiento‖, palabras de su fundador Dennis Crowley en
entrevista concedida al diario Español El País62. estudio realizado por IAB Spain
(www.iabspain.net/index.php) y Cool Insights (www.coolinsights.com), con datos de
usuarios españoles, sobre ―Geolocalización, movilidad y recomendación, a propósito
de Foursquare‖ [3], la muestra como una nueva red social a través de la cual,
mediante teléfonos dotados de conexión a Internet y GPS, los usuarios comparten con
sus amigos su ubicación geográfica.
Gowalla (gowalla.com), fundada en agosto de 2007, es una red social al estilo de
Foursquare, lanzada con anterioridad y que ahora busca consolidarse por medio de sus
nuevas versiones, anunciadas por su presidente en una entrevista con Om Malik63,

58 ―Telefónica compra el 90% de Tuenti por 70 millones‖, según información dada por Diario
Expansión, que adelantó la noticia con todos sus detalles, Telefónica tendrá también
presencia en el consejo, aunque no de forma mayoritaria. Disponible en
http://www.expansion.com/2010/08/03/empresas/tmt/1280869139.html

59 ―De las listas de amigos a los mapas sociales‖, la posibilidad de geolocalizar a los usuarios,
―la posibilidad de que los usuarios compartan su ubicación local con el resto de sus amigos",
comenta el cofundador de Tuenti Zaryn Dentzel en el blog oficial. publicado el 20 de mayo
de 2010. Disponible en http://blog.tuenti.com/de-las-listas-de-amigos-a-
los-mapas-sociales

60 ―500 Million Stories‖, por Mark Zuckerberg, publicado el día el miércoles 21 de julio de
2010. Disponible en http://blog.facebook.com/blog.php?post=409753352130

61 ―Who, What, When, and Now...Where‖, por Michael Eyal Sharon, responsable de Place en
Facebook, publicado el 18 de agosto de 2010 y disponible en el blog oficial de Facebook.
http://blog.facebook.com/blog.php?post=418175202130

62 Entrevista a Dennis Crowley, publicada por el diario El País, el 13 de mayo de 2010.


Disponible en
http://www.elpais.com/articulo/portada/Dennis/Crowley/Foursquare/Facebook/Twitter/localizacion/elpe
putec/20100513elpcibpor_4/Tes

63 GigaOM Video: Gowalla CEO Josh Williams on Foursquare, Yelp & the Future of Location,
su presidente comenta sobre las aplicaciones para BlackBerry y para Android que están por

194
aplicaciones que les podría dar un impulso importante frente a Foursquare.
Google Latitude (google.com/latitude), el servicio de Google para
Geoposicionamiento, viene integrado en la aplicación Google Maps para el móvil.
FourWhere (fourwhere.com), es una nueva aplicación creada por Sysomos
(www.sysomos.com) es una red que utiliza a Google Maps para mostrar los lugares
que han recomendado los usuarios de otras redes como Foursquare, Gowalla y Yelp 64.
Loopt (loopt.com), creada en enero de 2005, es una aplicación que acaba de
lanzar una nueva versión65 que permite a los usuarios actualizar automáticamente su
ubicación a medida que se mueven. Es una novedad frente a lo que ofrecen sus
rivales, como Foursquare y Gowalla, que requieren que el usuario registre
manualmente su ubicación al visitar los sitios.
Miso (gomiso.com), nueva red social creada por Bazaar Labs
(www.bazaarlabs.com), en los que los usuarios pueden recomendar sus series
televisivas favoritas. Miso es algo así como un Foursquare, no indica el lugar dónde se
encuentra el usuario, sino lo que hace es mostrar qué está viendo.

5 Tecnología Móvil

La industria de la tecnología móvil se prepara a diario para prestar un apropiado


servicio basado en la localización, como atributo fundamental de la vida móvil. Un
constante enfoque comercial mostrado tanto por operadores como por fabricantes de
teléfonos móviles, ha llevado a que esta tecnología de la comunicación sea una de las
más adoptadas en el mundo. La firma Estadounidense de investigación Wireless
Intelligence reveló que para principios de julio de 2010, fue superada la barrera de las
5.000 millones de conexiones móviles en el mundo, dando actualmente a 7 de cada 10
personas un móvil en sus manos [4]. Buena parte de este crecimiento corre por cuenta
de Asia-Pacífico, región que concentra el 47% de los abonados móviles del mundo,
mostrando a China y la India como los dos más grandes mercados del planeta.
Wireless Intelligence prevé que el mercado llegará a los 6.000 millones de conexiones
para el primer semestre del 2012. Por otro lado la firma inglesa Gartner reveló en un
informe que los teléfonos inteligentes (smartphones) equipados con el sistema
operativo Android representaron el mayor crecimiento en ventas durante el primer
trimestre del 2010. Por supuesto, Android no fue el único sistema operativo para
celulares que creció en el escenario mundial. También lo hizo el iPhone OS, de Apple,
aunque a un ritmo mucho menor [5].
Son muchas las razones por las que, a los servicios de Geolocalización se le vaticina
gran éxito, primero porque el teléfono móvil es el dispositivo tecnológico que más

llegar, lo que les puede dar un impulso importante frente a Foursquare. Disponible en
http://gigaom.com/2010/01/22/gowalla-williams-video/

64 FourWhere: la suma de Foursquare, Gowalla y Yelp. Disponble en


http://www.fourwhere.com/

65 Geolocalización, el futuro de tu móvil, publicado el 29 de junio de 2010. Disponible en


http://www.cnnexpansion.com/tecnologia/2010/06/29/geolocalizacion-el-
futuro-de-tu-movil

195
tiempo pasa con el usuario, y segundo, porque que la tendencia en la informática es el
acceso generalizado a la Red, en cualquier lugar independiente y en permanente
movilidad [6].

6 Integración de Servicios.

Para poder aplicar a las bondades que ofrece la Geolocalización, se hace necesario
contar con un dispositivo electrónico con funcionalidades de un teléfono móvil con
características similares a las de un ordenador personal y que tenga GPS, como puede
ser un iPhone, Nokia, Nexus One o una Blackberry, Palm, Android, WebOS,
YouTube, entre otros. Ésta nueva tendencia, sin duda alguna facilita la integración
entre servicios, que permitirá a los usuarios acceder y visualizar todas las
actualizaciones de algunos de sus sitios web y redes sociales más populares, como es
el caso de Facebook, ó como muestra Foursquare o Gowalla, una vez seleccionado un
lugar determinado para uno de nuestros tweets, es posible ver los check-ins
producidos en ese mismo sitio por parte de usuarios de Gowalla y Foursquare. Por
otro lado Gowalla puede añadir a tus amigos de forma rápida a partir de las listas de
amigos de otras redes sociales, como Twitter, Facebook, listas de contactos de Gmail
o de Windows Live o simplemente de forma tradicional buscando en la red.

7 Geolocalización y la privacidad

Compartir la ubicación personal a través de una red social, inicialmente parece una
buena idea, sin embargo, compartir este tipo de información con desconocidos, es
considerado por algunos como una invitación a invadir su privacidad, llegando a
convertirse incluso en un problema, ya que esa información puede estar disponible
para todo el mundo de forma abierta y continua.
La mayoría de redes sociales basadas en Geolocalización, como es el caso
Foursquare, BrightKite y Gowalla animan a sus usuarios a registrarse al llegar a un
sitio, con el fin de poder saber adonde están en un momento dado. Aunque estas
aplicaciones disponen de ciertos controles de privacidad que permiten entre otras
cosas, enviar actualizaciones de localización tan sólo a un grupo selecto de contactos,
muchas veces éstas actualizaciones son enviadas por toda la red.
En este sentido se hace importante que tanto las grandes compañías que ofrece
estos servicios como las que disponen de medios de integración social, trabajen en
aquellos aspectos que estén relacionados con la privacidad de cada uno de los
usuarios y su querencia por mantener ciertas barreras, que más allá de impedir develar
información veraz o tipo de identidad personal, sirvan para frenar una mayor
intrusión de su intimidad, en la que se considera su ubicación actual y real.
Aunque el tema de la privacidad interesa a muchos usuarios, a otros puede no
importadles demasiado, sobre todo las nuevas generaciones, aquellas que crecieron en
la era del Internet y que no muestran ningún reparo a la hora de dar información
personal, llegando en ocasiones a excederse sobre donde andan y lo que hacen a cada
instante. No pensando en términos de si está bien o está mal, sino la forma de llegar a
la creación de una nueva identidad digital.

196
8 Geolocalización sus pros y sus contras

Si tomamos en consideración que la ubicación de una persona puede ser parte


determinante en la elección de un restaurante, de un supermercado, de una gasolinera,
de una farmacia, de sitios de ocio, e incluso, de sus propios amigos, las redes sociales
basadas en Geolocalización pueden verse como una herramienta útil en el diario vivir
de las personas.
Las aplicaciones que ofrece la Geolocalización en combinación con los servicios
de las redes sociales, tanto a empresas, entidades y personas del común, son cada vez
mayores. Esto puede suponer un gran avance en la mejora de estrategias y acciones de
comunicación y marketing. Con una información útil, actualizada y debidamente
almacenada, se hace posible acceder a cualquier lugar de forma instantánea.
Aun así, hay que tener en cuenta la posibilidad de que cualquiera pueda
localizarte, el usuario que informa constantemente de sus acciones y de sus lugares de
mayor interés, puede estar facilitando a terceros demasiada información sobre su
quehacer diario, como a dónde suele ir a comer, de compras, o adonde va a tomar un
café.

9 Tecnología a manos del usuario

En el mundo de las tecnologías de última generación, los dispositivos electrónicos


para la comunicación y las aplicaciones para dispositivos que se utilizan en movilidad,
marcan una tendencia importante, siendo los móviles los que con mayor rapidez y
entrega han penetrado en la sociedad, sobre las demás tecnologías, con posibilidades
de convertirse a futuro, en herramienta indispensable e imperiosa para los usuarios.
Aun así, mucho más allá de lo que significan las tecnologías en sí mismas, se hace
más interesante especular sobre qué hacen los usuarios con estas tecnologías, qué
facilidades tienen para adquirirlas, porqué y para qué las adquieren, qué costos deben
pagar para adquirirlas, y así muchos otros interrogantes, sobre las razones que llevan a
los usuarios a hacer uso de estas herramientas tecnológicas.
Las aplicaciones para los móviles inteligentes, el acceso a Internet, la televisión en
directo, la publicidad geolocalizada, la lucha entre operadoras por imponer sus tarifas,
todo tiene un precio, cada año sacan cientos y cientos de nuevos terminales en el
mercado, para todos los gustos, bolsillos y perfiles de usuarios. En la actualidad, una
de cada tres búsquedas en Internet desde el móvil tiene una intención local y algunos
estudios apuntan ya que la inversión en márketing móvil basado en la localización
pasará de los 34 millones de dólares (26,4 millones de euros) en 2009 a 4.000
millones de dólares en 2015 (3.108,5 millones de euros) [7]

10 Conclusiones

Lo práctico, lo útil y lo benéfico que pueden llegar a resultar algunas herramientas,


son aspectos de gran importancia a tener en cuenta por los usuarios a la hora de
disponer de ellas, independientemente cuan conocida sea.
Las redes sociales han provisto a los usuarios de servicios que facilitan la ya tan

197
anhelada y aceptada Geolocalización, en muchos casos basados en patrones de
comportamiento mostrados por los mismo usuarios, como una forma de interactuar
entre ellos, en lo posible en tiempo real. Tanto las redes sociales como las empresas
que ofrecen los servicios de Geolocalización, tienen la gran particularidad de estar
íntimamente ligadas con la evolución y popularización de las tecnologías móviles,
caso especial con los llamados móviles inteligentes, provistos de terminales con
mayor capacidad, junto con la generalización del uso de cartografía online.
La constante evolución e incremento de estas Webs sociales, están cambiando, de
cierta manera nuestra forma de vivir, ahora nos pueden decir en donde están nuestros
amigos y a ellos donde estoy yo, gracias a la integración de las tecnologías, sabemos
donde nos encontramos y que camino tomar. Ya no solo importa el que, y el como,
sino el donde. Mas sin embargo, independientemente del fin que se busque con la
utilización de estas herramientas, y en la medida en que cada vez se crean mas y
mayores aplicaciones que van asociadas a información geográficas y ésta a su vez
relacionadas con mensajes provistos por nosotros mismos, nos llevan a pensar en
temas relacionados con la intimidad y privacidad de los usuarios, temas que seguirán
siendo objeto de discusión.
Las aplicaciones móviles basadas en Geolocalización han sido una tendencia
importante en lo que va del 2010. Esto en combinación con los servicios que ofrecen
la mayoría de redes sociales, hace pensar que existe una necesidad innegable por la
cual la gran mayoría de usuarios, se muestren en disposición de desvelar información
relacionada con su ubicación actual, llegando inclusive a suponer importantes
problemas de privacidad.

198
Referencias

1. Adler Lomnitz, Larissa. Redes Sociales y partidos políticos en Chile. Articulo para REDES-
Revista hispana para el análisis de redes sociales. Vol.3, #2, sept-nov. 2002. (disponible en:
http://revista-redes.rediris.es/html-vol3/vol3_2.htm)
2. Lucian E. Marin. (2010). Geolocalización: presente y futuro en redes sociales. [en línea] [on
line] http://amaruxs.blogspot.com/2010/02/geolocalizacion-presente-y-futuro-en.html,
[consultado 30 Junio, 2010].
3. IAB Spain research, Cool Insights. (2010). Geolocalización, movilidad y recomendación. A
propósito de Foursquare. Informe hottopic_foursquare. 13 de abril de 2010, [en línea] [on
line] http://www.iabspain.net/index.php
4, 5. Álvaro E. Sandoval. Google quiere ser líder en celulares. Redacción tecnología, edición
impresa, El Tiempo 13 de julio de 2010. [en línea] [on line]
http://www.eltiempo.com/enter/actualidad_a/google-quiere-ser-lider-en-
celulares_7801661-1, [consultado 13 de julio de 2010]
6. Fundación eroski. (2009). Geolocalización: asistente personalizado en el móvil, Actualidad y
ocio, nuevas tecnologías. Geolocalización en el móvil. [en línea] [on line]
http://revista.consumer.es/web/es/20091001/internet/75113.php, [consultado 30 Junio de
2010]
7. Diario Expansion. 2010. ¡Quiero ser el ‗alcalde‘ del bar de la esquina!. [en línea] [on line]
http://www.expansion.com/2010/08/19/empresas/tmt/1282250361.html. [consultado 26 de
agosto de 2010]

199
Modelo de Gestión del Conocimiento en Docencia
Universitaria: Caso Universidad Distrital

Oscar Mayorga Torres1, Alexis Adamy Ortiz Ortiz1


1
Universidad Distrital Francisco José de Caldas, Cra 7 No 40-53 Piso 10°
Bogotá - Colombia
oscar.mayorga@umb.edu.co, alexisadamyortiz@udistrital.edu.co

Resumen: El presente artículo describe un modelo de gestión del


conocimiento en docencia universitaria el cual integra cinco aspectos en
su arquitectura denominados nodos: Académico, tecnológico,
investigación, organizacional y extensión (proyección social) los cuales
se dividen en redes de conexión lógica y consecuente para alcanzar la
gestión del conocimiento en la universidad y cuerpo docente objeto de la
investigación. En este mismo sentido, el modelo permite su permanente
evaluación, monitoreo y seguimiento por medio de indicadores los
cuales muestran las brechas en cada uno de los nodos de la estructura
para de esta forma realizar los ajustes pertinentes en términos de los
recursos, estrategias e interrelaciones contempladas para el caso.

Palabras clave: Gestión del conocimiento, docencia universitaria,


arquitectura, indicadores.

Abstract: This article describes a model of knowledge management in


university teaching which integrates five points called nodes in their
architecture: academic, technological, research, organizational and
outreach (social projection) which networks are divided into logical and
consistent connection to reach knowledge management at the university
and to faculty research. In this sense, the model allows for continuous
assessment, monitoring and tracking by means of indicators which show
the gaps in each of the nodes of the structure thereby making
adjustments in terms of resources, strategies and relationships referred to
the case.

Keywords: Knowledge management, university teaching, architecture,


indicators.

1 Introducción

Las personas, como componente del capital intelectual de las organizaciones están
pasando de ser un recurso intangible a constituirse en uno de sus más importantes
activos, en razón a lo anterior, las rígidas estructuras jerárquicas de forma piramidal
que muchas empresas han optado como modelo de gestión sufren una transformación
integral y mutan para constituirse en redes, comunidades o equipos basados en el
conocimiento de sus integrantes, movilidad y flexibilidad en la comunicación,
dinámica sistémica entre sus componentes, visión compartida y capacidad de
interpretar, adaptar y apropiar las exigencias del entorno interno y externo.
Por lo tanto, una de las formas más útiles para entender, estudiar y representar el
fenómeno de la Gestión del Conocimiento en cualquier tipo de organización, es a
través de un modelo, ya que ofrece una visión más o menos unificada, integral y

201
completa sobre lo que se quiere plantear y abstraer de la realidad de la Gestión del
Conocimiento [8], [9].
La literatura presenta diferentes modelos de Gestión del Conocimiento en los
cuales muestra los elementos, actores, interrelaciones y escenarios que componen su
arquitectura; de esta se encuentran tres dimensiones básicas: Recursos basados en el
conocimiento, actividades de la Gestión del Conocimiento que actúan sobre estos
recursos, e influencias de la Gestión del Conocimiento que facilitan y limitan la
manifestación de estas actividades; sin embargo el presente estudio integra dos
dimensiones por la naturaleza de la investigación: el Nodo Investigación y Nodo
Extensión, los cuales refieren a producción intelectual del cuerpo docente en el primer
caso y aplicaciones de orden tecnológico, industrial, social, ambiental, económico
entre otras en el segundo.

2 Conceptualización del Modelo

El Modelo de Gestión del Conocimiento en docencia Universitaria que se propone


para la Universidad Distrital, se basa y se estructura de acuerdo a la analogía de un
modelo en red, con el fin de darle la mayor dinámica, flexibilidad y funcionabilidad
posible, lo que permite compartir y tener acceso desde diferentes puntos o nodos al
conocimiento.
El que las universidades puedan adaptarse al modelo de funcionamiento en red,
constituye un gran avance hacia la integración con la sociedad de la información y el
conocimiento [4] las redes producen una nueva organización social para las
actividades del conocimiento, basadas en la innovación, la descentralización y la
globalización; y la transformación del espacio y el tiempo, mediante la constitución de
un espacio de flujos y del tiempo [6]. Entre las razones que se tuvieron en cuenta para
proponer la estructura en red, se pueden mencionar:

 Conectividad: Integración y navegabilidad con todos los nodos de conocimiento


de la red.
 Colaboración: Vía redes de nivel académico, investigativo, docente, social y
económico.
 Tecnologías de redes: Implica efectividad, dinámica, flexibilidad y velocidad de
la red.
 Tecnologías de comunicación: Aplicaciones tecnológicas en hardware y software
para canales de comunicación.

El modelo en red es un sistema que permite compartir y tener acceso remoto de


forma ágil, oportuna y clara a los recursos, para el caso del modelo de gestión del
Conocimiento en docencia universitaria se trata de tener acceso a recursos que
facilitan la adquisición o difusión del conocimiento, por medio de la creación, captura,
transformación, distribución, compartición o reutilización de él.
El modelo de gestión de conocimiento en docencia universitaria bajo la tipología
de red, representa los medios de generación de conocimiento simbolizado en forma de
nodos en un grafo, y las interrelaciones entre estos, se simboliza mediante arcos que
unen dichos nodos. En principio, esta representación no impone restricción alguna
acerca del tipo y el número de nodos y arcos que puede haber, con los que se pueden
modelar estructuras de conocimientos tan complejas como sean necesarias. En este
tipo de modelo, se dispone de una componente estática y otra dinámica:
La componente estática estaría compuesta por los objetos (agentes o nodos y
atributos), las interrelaciones o arcos y las restricciones, que a su vez pueden ser
inherentes (no se presentan en este modelo) y de usuario (pueden ser reconocidas por
el modelo de conocimientos o de responsabilidad exclusiva del usuario). Dentro de
esta componente estática se puede citar un elemento más que atendería a la
representación, y son los grafos detallados [8], [9].
Por otro lado, la componente dinámica estaría compuesta por el aspecto
navegacional es decir por las interrelaciones entre los nodos de conocimiento, que

202
permitirían acceder a él.
El esquema en si representa los aspectos estáticos, es decir, la estructura de los
conocimientos que se podrían disponer, que comprende los tipos de agentes,
interrelaciones, etc. Una ocurrencia del esquema son los valores que toman los
elementos del esquema en un determinado momento. Estos valores irán variando a lo
largo del tiempo debido a la aplicación de los operadores de manipulación de
conocimientos a una ocurrencia del esquema.
La topología de una red es la forma en que esta se organiza y hay diferentes modos
o modelos de organización, pero en el presente modelo solo se tienen en cuenta
básicamente dos: Estrella y Anillo.

Estrella: Esta es una red centralizada, una red estrella es un modo de disponer los
nodos de una red, de tal forma que todos los accesos o transmisiones pasan por un
dispositivo central de control. Para efectos de representación del modelo propuesto,
solo se aplica esta topología para representar el nodo principal y esencial,
constituyendo lo que podríamos denominar como el núcleo del modelo.
Anillo: El tipo de red anillo es distribuida, y se da básicamente conectando cada nodo
de la red en un ciclo cerrado con cada nodo enlazado a los nodos contiguos a la
derecha y la izquierda. La ventaja de esta red es que se puede trabajar a grandes
velocidades, en caso de implementarse a través de un sistema de gestión de base de
conocimiento.

2.1 Modelo Organizacional

Dentro de la estructura en red del modelo organizacional, se representan las siguientes


componentes que se conciben de acuerdo al siguiente nivel de estructuración:

Recursos
Nodos

Acciones
Agentes facilitadores

Comportamiento
Indicadores

Fig 1. Componentes de la estructura en red del modelo organizacional.


Fuente: Medina [9].

Siguiendo el enfoque de estructuración del modelo Intelect (Medición y Gestión de


Capital Intelectual) de Eduardo Bueno [2], la adaptación del siguiente esquema
permite una apreciación más detallada y resumida de las componentes del modelo:

Nodos Agentes facilitadores Indicadores


Definición: Los nodos Definición: Los agentes Definición: Los
son los recursos basados facilitadores son los indicadores son la
en el conocimiento, elementos que nos van a forma de medición o
donde se genera o se permitir impulsar las acciones evaluación de los
transfiere conocimiento, de la política de la agentes facilitadores o
realizan diversas organización universitaria, elementos. Son
funciones de gestionando los indicadores unidades de medida
procesamiento o de que nos facilitarán identificar, que permiten registrar
tratamiento requeridos desarrollar y retener el la dinámica de los
internamente o a través conocimiento. procesos y los
de los enlaces de la red. desempeños, y por
Características: Cada tanto, verificar el
Características: organización en función de su cumplimiento de los

203
Proveen agrupaciones de estrategia y de sus factores objetivos de una
conocimiento con críticos de éxito, discriminara institución, en pos de
enlaces físicos y virtuales dentro de los elementos su misión.
entre diversos nodos que intangibles propuestos por el
conforman la red de modelo, cuales son relevantes Características: La
conocimientos. y valiosos. definición de
indicadores debe
Facilitadores: hacerse en cada caso
Nodos Principales: Facilitadores externos: particular para cumplir
Conocimiento Entorno social su objetivo. Pueden ser:
Cualitativos, cuando
Académico Cultura del refieren a la existencia
conocimiento o al cumplimiento de
determinadas
Organizaciona
Estrategia cualidades,
l características o
Autoevaluación procesos; casi siempre
Tecnológico se responden con un sí
Facilitadores internos: o un no y los
Investigación Acreditación cuantitativos, se
expresan en números,
Institucional
Extensión los cuales son valores
absolutos o son
Estructura
resultados de cálculos
organizacional proporcionales entre
variables. Pueden ser
Contemporanización estáticos, cuando
TIC’s describen un momento
en el tiempo, como
Captación de especies de fotografías
conocimiento instantáneas, o
dinámicos cuando
Facilitadores: Nodo miden
Académico comportamientos y
Calidad académica tendencias entre un
tiempo y otro. También
Enseñanza- se pueden distinguirse
Aprendizaje otras clasificaciones,
tales como:
Productividad Indicadores de
Investigativa estructuras:
Cuando
Calidad de reflejan la
programas información
académicos cuantitativa
de la
Consultoría organización y
interinstitucional los recursos
con que ésta
Facilitadores: Nodo
Organización cuenta
Desempeño
Indicadores de
organizacional y
procesos:
competencias
Miden el tipo
Modernización y de servicio
mejoramiento ofrecido en

204
continúo relación con
patrones de
Facilitadores: Nodo referencia
Tecnológico
Despliegue y Indicadores de
articulación de impacto o
tecnologías resultado:
Miden la
Fortificación e
incidencia del
innovación técnica
programa en
la población
total o en la
seleccionada
como grupo
objetivo

Fig 2. Definición de las componentes de la estructura en red del modelo


organizacional. Fuente: Medina, 2004

3 Modelo de Gestión del Conocimiento en Docencia Universitaria.

3.1 Estructura General

El Modelo de Gestión del Conocimiento en Docencia Universitaria representa en su


arquitectura dos contextos: El primero explica en un nivel general la relación del
entorno interno con el externo, mediante un proceso basado en el conocimiento; el
segundo detalla las redes que componen los cinco nodos del modelo.
En el primer caso, la universidad debe ser capaz de demostrar su capacidad de
adaptación, flexibilidad y dinámica entre ambos entornos (interno-externo) y así lograr
un balance mediante una serie de agentes facilitadores que se asocian al conocimiento
y se gestionan de forma efectiva (ver figura 3).

Entorno Cultura del


Social conocimiento
Nodo Académico

Nodo Nodo
Investigación Tecnológico
Conocimiento
Entorno Entorno
Económico Tecnológico

Nodo
Nodo Extensión
Organizacional

Entorno
Gubernamental

205
Fig 3. Modelo de Gestión del Conocimiento en Docencia Universitaria: Estructura
general. Fuente: Los autores

El modelo se fundamente en cinco nodos interconectados: Académico,


Investigación, Extensión, Organizacional y Tecnológico; los cuales explican el entorno
interno de la universidad, además concibe un eje central el cual funge como el núcleo
del modelo en razón que este es la concepción y propósito del mismo: El
conocimiento. La estructura de los nodos vértices forman lo que se podría denominar
el ―Pentágono del Conocimiento‖ en los cuales sus nodos siempre se encuentran en
permanente contacto y estos a su vez con el entorno externo (Gubernamental,
tecnológico, social, económico y cultura del conocimiento).

3.2 Estructura Específica

Con el fin de facilitar la interpretación de la arquitectura del modelo, su


conceptualización y contextualización entre los entornos internos y externo, se definen
otros niveles de abstracción más elaborados que actúan como sub-nodos los cuales se
conectan de forma directa y entre sí conformando diferentes niveles de apreciación en
cada caso, es decir, de los nodos de la estructura principal (red principal) se forman
sub-redes por cada nodos que forman una representación gráfica más entendible (ver
figura 4) y en la cual se entiende que la jerarquía no prevalece como mecanismo
regulador para gestionar el conocimiento.

Entorno Cultura del


Autoevaluación Aprendizaje y
Social curricular capacitación conocimiento
Indicadores Indicadores

Procesos Desarrollo
... ...
académicos docente
Calidad de los Calidad
programas académicos Docente
Indicadores Indicadores
Proyectos Indicadores Apoyo Intranet -
Acreditación Docencia
curriculares docente Internet
Calidad
Académica
Indicadores Plataforma Fortalecimiento e Canales y
Centros de
... virtual innovación técnica Redes
información
Indicadores

Redes de Investigación
Investigación Docente Sistemas de Comunicaciones ...
Nodo Académico Información TIC’s

Calidad
Semilleros Nodo Nodo Gestión de
Investigativa ...
Indicadores Investigación Tecnológico tecnologías
Indicadores
Conocimiento
Indicadores
Grupos ... Campus Salas de
Virtual Computo
Entorno Entorno
Económico Tecnológico
Nodo
Indicadores Nodo Extensión Indicadores
Organizacional
Centro de Gestión Relaciones
Universidad -
Estudios de administrativa Institucionales
Empresa
Competitividad
Gestión Efectividad organizacional:
...
Humana Desempeño, competencias,
Extensión Consultoría habilidades
Centros de
universitaria Institucional Consultoría Indicadores
Indicadores Desarrollo
Institucional
Publicaciones ... Bienestar Modernización y
...
Universitario mejoramiento continuo
Indicadores

Gestión Recursos Físicos


financiera y tecnológicos
Entorno
Gubernamental
Indicadores

Fig 4. Modelo de Gestión del Conocimiento en Docencia Universitaria: Estructura


específica. Fuente: Los autores

Nodos

Son los recursos basados en el conocimiento, donde se genera o se transfiere


conocimiento, y pueden realizar diversas funciones de procesamiento o de tratamiento
requeridas internamente o a través de los enlaces de la red. Desde el punto de vista
topológico, los nodos proveen agrupaciones de conocimiento con los enlaces físicos y
virtuales entre los diversos canales que conforman la red de conocimientos. Los nodos
principales del modelo son: Nodo de Conocimiento (Núcleo), Nodo Académico, Nodo
Organizacional, Nodo Investigación, Nodo Extensión y Nodo Tecnológico.

 Nodo de Conocimiento: Conforma el núcleo del modelo de Gestión del


Conocimiento en Docencia Universitaria; convirtiéndose en el eje esencial y

206
fundamental. Analógicamente se puede asociar a un repositorio de
conocimiento66, que facilita su efectividad en diferentes áreas de
conocimiento, en entornos diferentes y con perfiles de usuario diferentes.
Explica de manera funcional la forma como se genera y difunde el
conocimiento entre los miembros de la organización y sus relacionados.
 Nodo Académico: Hace referencia a las actividades propias del área
académica; la producción del saber-hacer-ser, la formación de profesionales,
la universalización de la cultura. Articula la calidad de la docencia y la
calidad de los programas buscando una formación más integral y holística.

La función docente es un proceso permanente, flexible, dinámico y crítico de la


producción y asimilación del saber, en el que participan activamente Docentes y
Estudiantes para lograr una formación profesional, laboral y personas de excelentes
calidades, habilidades y competencias (ver figura 5)

Autoevaluación Aprendizaje y
curricular capacitación

Procesos Desarrollo
... ...
académicos docente
Calidad
Calidad de los Docente
programas académicos
Indicadores Indicadores
Proyectos Apoyo
Acreditación Docencia
curriculares docente
Calidad
Académica
Indicadores
Centros de
...
información

Nodo Académico

Fig 5. Nodo Académico.


Fuente: Los autores

 Nodo Organizacional: Este se encarga de posibilitar y apoyar las actividades


específicamente universitarias que corresponden a la dirección, orientación,
vigilancia y control de los asuntos económicos y administrativos de la
Universidad y sus distintas dependencias. Conocimiento y organización son
dos aspectos centrales de la actual reflexión sobre la necesaria transformación
de la universidad. Pero algo que debe destacarse es el hecho de que estos dos
ámbitos, que debieran verse como indisolublemente interrelacionados, son
tratados en la realidad como mundos aparte. Se puede argumentar, en cambio,
que es imposible innovar la manera de producir (comunicar, adaptar, aplicar)
conocimientos sin cambiar la organización de la universidad: se requerirán de
nuevas formas de relación entre los actores universitarios; de una concepción
diferente de la administración de los recursos, incluyendo el conocimiento; de
articulaciones creativas entre la investigación, la enseñanza y la extensión; de
nuevas formas de aprehender y de vincularse con el entorno; de nuevos
liderazgos, procesos de trabajo y formas de gobierno [7].

De la misma manera, las esferas de la producción (transmisión, preservación,


adaptación y aplicación) del conocimiento y de la organización debieran estar
estrechamente acopladas. La organización debiera despojarse de la perspectiva
tradicional de lo administrativo, para vehiculizar, facilitar y promover el conocimiento,

66
Conjunto de datos/información que representan experiencias, problemas y
soluciones relacionadas entre sí. Incluyen programas para buscar y recuperar
información.

207
construyendo un ambiente que se funde con la producción misma del conocimiento: la
organización como ambiente cognitivo. Dentro de este nodo se muestran los sub-
nodos que apoyan la gestión del conocimiento en la organización (ver figura 6).

Nodo
Organizacional
Gestión Relaciones
administrativa Institucionales

Gestión Efectividad organizacional:


...
Humana Desempeño, competencias,
habilidades
Indicadores
Desarrollo
Institucional

Bienestar Modernización y
...
Universitario mejoramiento continuo
Indicadores

Gestión Recursos Físicos


financiera y tecnológicos

Fig 6. Nodo Organizacional


Fuente: Los autores

 Nodo Tecnológico: Corresponde al conjunto de infraestructuras que permiten


crear, acceder y difundir documentos, ideas o conocimientos a todos los
miembros de la organización. Esta infraestructura incluyen ordenadores,
programas estándar y desarrollos a la medida, acceso a telecomunicaciones,
intranet, internet y soporte al usuario; todo ello de forma local o remota. Es
decir que son los canales o herramientas mediante las cuales los
colaboradores podrán participar, comunicar y compartir contenidos en los
procesos de trabajo diario.
 También facilitan el proceso de aprendizaje al permitir la organización y
almacenamiento del conocimiento. Son cuatro las funciones de las TIC‘s: a)
Codificar el conocimiento, de modo que sea sencillo identificar los atributos
o características que le hacen relevante, b) Distribuir el conocimiento al
objeto de garantizar un rápido acceso al mismo, c) Facilitar su transferencia y
d) permitir el análisis y la interacción necesarios para su desarrollo [Revilla.
2003]. Dentro de este nodo se puede a su vez, esquematizar otros sub-nodos
que apoyan la gestión del conocimiento en el contexto tecnológico (ver figura
7).

Intranet -
Internet

Plataforma Fortalecimiento e Canales y


virtual innovación técnica Redes
Indicadores

Sistemas de Comunicaciones ...


Información TIC’s

Nodo Gestión de
...
Tecnológico tecnologías
Indicadores

Campus Salas de
Virtual Computo

Fig 7. Nodo Tecnológico.


Fuente: Los autores

 Nodo Investigación: Su función principal es la búsqueda permanente de una

208
mayor comprensión y profundización del saber-hacer-ser, permite la
ampliación del mismo y su proyección hacia condiciones concretas del país.
La investigación aplicada recibirá especial atención dada las condiciones
particulares del entorno social-científico-económico de la Universidad sin
perder de vista la investigación formativa de sus miembros organizacionales.
Dentro de este nodo se puede a su vez, esquematizar otros sub-nodos que
apoyan la gestión del conocimiento en el contexto de Investigación como lo
son grupos y semilleros (ver figura 8).

Redes de Investigación
Investigación Docente

Calidad
Semilleros Nodo
Investigativa
Indicadores Investigación

Grupos ...

Fig 8. Nodo Investigación. Fuente: Los autores

 Nodo Extensión: Su función principal es articular la producción, difusión y


aplicación del conocimiento en el entorno externo y a su vez buscar los
mecanismo de apropiación, transferencia y desarrollo de conocimiento entre
los dos entornos (interno y externo); por el hecho mismo la universidad es un
escenario de implementaciones éticas, ambientales, sociales, económicas e
industriales que rehúndan en los dos entornos, dicha connotación hace que la
relación sea más efectiva, dinámica, flexible y funcional en términos de los
indicadores y recursos establecidos en el modelo (ver figura 9).

Nodo Extensión

Centro de
Universidad -
Estudios de
Empresa
Competitividad

Extensión Consultoría Centros de


universitaria Institucional Consultoría
Indicadores

Publicaciones ...

Figura 9. Nodo Extensión. Fuente: Los autores

Agentes facilitadores

Las organizaciones obtienen unos resultados a los que se llega a través del
comportamiento de sus agentes facilitadores, es decir, las actuaciones de su personal y
el funcionamiento de sus procesos [1]. En las Universidades, los agentes facilitadores,
son los elementos que van a permitir impulsar las acciones de la política de la
organización universitaria, la gestión o cumplimiento de dichas acciones se evalúa de
acuerdo al comportamiento de una serie de indicadores que facilitarán la
identificación, desarrollo y retención del conocimiento, y que en definitiva permitirán
mantener o cumplir la misión de la organización.
Los agentes facilitadores se asocian a un nodo determinado con el fin de
proporcionar un área delimitada de conocimiento y en ellos se puede aglutinar los
distintos indicadores que facilitaran la decisión sobre las propuestas para la
consecución de la estrategia. Teniendo en cuenta la incidencia directa en la
organización, se pueden clasificar los agentes facilitadores en:

209
 Facilitadores externos o interinstitucionales: Están relacionados con su
entorno social, cultural e institucional, proporcionando los elementos para la
regulación o gestión de actividades en el sector educativo, y suministrando
los indicadores que facilitan la rendición de cuentas de los componentes de la
educación superior, ante la sociedad. Éstos, a su vez, permiten la
comparación con otras entidades homólogas del país y del exterior.
 Facilitadores internos o de gestión interna de la Institución: Son propios de
cada institución, y han de servirle a ésta para definir sus políticas y acciones;
además, de ser la base para el seguimiento y control de los planes de
desarrollo de cada una de las universidades. Cada uno de estos agentes
facilitadores contienen una serie de indicadores asociados a ellos.

Indicadores

Por indicadores se entiende el proceso sistemático de medir y valorar el


conocimiento de la organización en relación a sus resultados económicos, sociales, de
producción intelectual y del cumplimiento de sus objetivos estratégicos. Es necesario
desarrollar un conjunto de indicadores que puedan incorporarse al cuadro de mando
habitual de la organización y que proporcionen información periódica sobre el
funcionamiento de los procesos puestos en marcha [8], [9].
Estos indicadores serán una fuente de información adicional al diagnostico periódico
del estado de la gestión del conocimiento en la organización. También se puede
entender los indicadores, como unidades de medida que permiten registrar el
desempeño, dinámica y movilidad de los procesos, y por tanto, verificar el
cumplimiento de los objetivos de la Universidad.
Los indicadores se construyen con el fin de registrar los eventos significativos de
un área determinada de desempeño y así tener un argumento racional y concreto, una
visión clara y precisa de la gestión de cada dependencia. Permiten realizar un control
adecuado de las actividades desarrolladas, con el fin de que éstas se realicen conforme
a los intereses corporativos; sirven, además, para definir políticas, objetivos,
estrategias y metas que aseguren la consolidación de los objetivos de la organización,
en el medio y en el sector que le corresponde.
Sin duda alguna, en su diseño intervienen diferentes concepciones acerca del papel
del Entorno Gubernamental, en el conjunto de la economía, del sentido de lo público,
de la relación entre educación y desarrollo, y también en visiones particulares sobre
calidad y equidad en la educación; por lo tanto, la discusión de cualquier propuesta de
indicadores debe examinar cuidadosamente estos temas.
Con base en los anteriores conceptos, se concluye que hasta hace muy poco tiempo
y aún todavía, solo se tiene en cuenta la aplicación de indicadores convencionales de
gestión, que apenas permiten evaluar solo una parte de la organización; pero la
integración o combinación de éstos con indicadores de gestión del conocimiento y la
evaluación de la calidad, pretende considerar las habilidades individuales, la
inteligencia, el medio cultural, las capacidades de construcción de conocimiento, la
coherencia de los planes de estudio, la flexibilidad de los programas, la visión de los
planes desde la óptica de nuevas tecnologías y modalidades pedagógicas y la
pertinencia de la investigación, entre otros.
Por tanto, el enfoque de los indicadores que se proponen, se conciben desde la base
de integración en la consecución de un mismo fin: el fortalecimiento inteligente de la
organización educativa. Se insiste, en que no se trata de aplicar indicadores para
realizar una descripción exhaustiva de la gestión de todos los activos humanos,
estructurales, relacionales o tecnológicos posibles, sino de determinar aquéllos que
realmente son susceptibles de aportar valor o ventaja competitiva a la organización y
de apoyar acciones, en el cumplimiento de una adecuada gestión del conocimiento.
Con lo anterior y como base para enunciar y definir una guía de indicadores de
apoyo a la gestión del conocimiento en docencia universitaria, se describen los
criterios sobre los cuales operan dichos indicadores, ellos son elementos valorativos
que inspiran la apreciación de las condiciones iniciales de la institución educativa y la
evaluación de las características de la calidad de un programa académico.

210
Estos criterios son considerados como una totalidad. No hay entre ellos jerarquía
alguna ni se establece predilección de uno sobre otro; ellos se complementan y
potencian entre sí en cuanto a principios que sirven de base al juicio sobre la calidad:
Universalidad, Integridad, Equidad, Idoneidad, Responsabilidad, Coherencia,
Transparencia, Pertinencia, Eficacia y Eficiencia. Los anteriores criterios, son una
expresión de la postura ética del Consejo Nacional de Acreditación frente al tema de la
acreditación en Colombia y, en una perspectiva más amplia, en relación con el
cumplimiento de la función social de la educación superior y con el logro de altos
niveles de calidad por parte de instituciones y programas académicos de ese nivel [5].

4 Conclusiones

El presente trabajo plantea un modelo de gestión del conocimiento en docencia


universitaria el cual se basa bajo una estructura de funcionamiento en red la cual surge
de la necesidad de cambiar de las tradicionales estructuras por una que sea más ágil,
flexible, dinámica, efectiva y funcional la cual permite la producción, difusión,
transferencia y apropiación de conocimiento, en tal sentido, la universidad debe optar
por una reforma integral de su estructura la cual apunte a las exigencias de los
miembros del entono interno y las consecuencias causales y de relación del entorno
externo.
A su vez, se presenta una estructura denominada ―pentágono del conocimiento‖ la
cual presenta cinco nodos: Académico, Organizacional, Tecnológico y los
Investigativo y Extensión aporte significativo de la presente investigación la cual se
vale del modelo de red para explicar el fenómeno del conocimiento en una dinámica
que asocia personas e instituciones con el fin de producir, difundir y transferir
conocimiento; además se plantea la transversalidad y uninivel del modelo, es decir,
ningún nodo posee gobernabilidad, jerarquía o prioridad sobre cualquier otro y los
conocimientos fluyen desde cualquiera de los nodos o sub-nodos del modelo.
Para fortalecer el modelo este se vale de la estructura nodo, agentes facilitadores e
indicadores, los cuales muestran la funcionalidad, seguimiento y control de la brecha
cuando se gestiona conocimiento en la docencia universitaria.

Referencias

1. Benavides Velasco, C. y Quintana García, C., Gestión del Conocimiento y Calidad Total,
Ed. Díaz de Santos, Madrid, 2003.
2. Bueno, E., ―Proyecto Intelect‖, en Boletín del Club Intelect, Madrid. 1998.
3. Camisón, C., Palacios, D. y Devece, C., 1999. ―Nova Club de Gestión del Conocimiento y la
Innovación de la Comunidad Valenciana‖, en Universitat Jaume I de Castellón, 1999.
[Consulta: 7.05.03] <http://www.gestiondelconocimiento.com/modelo_valencia.htm
4. Castells, M., La era de la información. Economía, cultura y sociedad, Alianza Editorial,
Madrid. 1998, I, 471.
5. CNA, Consejo Nacional de Acreditación de Colombia, ―Lineamientos para la Acreditación
de Programas‖, Bogotá. Agosto de 2003.
6. Donini, A. O. y De Donini, M. C., ―La gestión universitaria en el siglo XXI: Desafíos de la
sociedad del conocimiento a las políticas académicas y científicas‖, en Documentos de
Trabajo Nº 107, Universidad de Belgrano, Argentina. Julio 2003.
7. Guillaumín Tostado, A., ―Complejidad, transdisciplina y redes: hacia la construcción
colectiva de una nueva Universidad‖, en Revista online de la Universidad Bolivariana,
Volumen 1. 2001.
8. Joyanes Aguilar, L., ―Un paso hacia los Modelos de Gestión del Conocimiento desde un
Enfoque de Procesos‖, en Libro de Actas del CISIC 2002: I Congreso Internacional de
Sociedad de la Información, McGraw-Hill, Madrid. 2002.
9. Medina, Víctor H., Modelo Organizacional y Tecnológico para la Gestión del
Conocimiento en la Universidad: Aplicación en la Universidad Distrital - Colombia. Tesis
Doctoral. Universidad Pontificia de Salamanca. Madrid. 2004.

211
Evolución de los códigos de barras a redes wireless
NGN ― RFID‖, computación ágil, inteligente y móvil.

Roberto Ferro Escobar 1,Carlos Albero Escobar De Lima2,


1
Universidad distrital Francisco José de Caldas. Candidato a PHD UPSAM Par
MEN.
2
Universidad distrital Francisco José de Caldas.Bogotá, Colombia 2010.
cescobar@delimaing.com, ferro.roberto@gmail.com

Resumen: Los sistemas de identificación por radio frecuencia (RFID)


hacen parte de las tecnologías emergentes que nuestro país necesita
implementar en múltiples sectores empresariales como la identificación
en tiempo real de pacientes para centros hospitalarios, control de
inventarios, control de acceso, control de activos e inventario on line,
control de tele peaje, anti hurto de elementos, control e identificación
vacunas en bobinos, porcinos y animales domésticos, cadenas de
seguimiento de abastecimiento, entre otras aplicaciones. Actualmente el
mercado de tecnología esta avanzando debido a su reducción de costos
en la etiquetas de identificación, lectores y antenas. En este articulo
deseamos vislumbrar como esta tecnología de nueva generación esta
siendo implementada en un sin fin de aplicaciones a nivel mundial en
países altamente desarrollados e industrializados.

Palabras clave: RFID, sistemas de identificación por radio frecuencia,


tecnología emergente.

Abstract: The identification systems for radio frequency (RFID) are


part of emerging technologies that our country needs to implement in
many business sectors such as the identification of patients to hospitals,
inventory control, access control, control of assets, control tele toll, anti-
theft elements, control and identification vaccine, supply chain, among
other applications. The current markets advance this technology because
of its cost reduction in the identification tags, readers and antennas. In
this article we want to publicize this technology is being implemented as
endless applications worldwide.

Key words: Clinical histories, critical information, RFID, systems of


identification by radio frequency, emergent technology.

1 Introduccion

Las redes de área personal PAN RFID (En ingles: Radio Frequency Identification) es
una de las tecnologías que hoy en día se están probando por medio de prototipos para
nuevas y prometedoras aplicaciones en muchos campos de investigación y desarrollo
de aplicaciones. Nació por la necesidad de identificar aviones en la segunda guerra
mundial por los británicos, existen referencias de 1960 donde se afirma su aparición en
la industria armamentista americana, pero por sus elevados costos no se había
popularizado en otras áreas del comercio. [1].
Ahora encontramos que el nivel de producción y adquisición se esta incrementando
al punto de que en Colombia empieza a posicionarse en el mercado en importantes
empresas de mercadeo.
Hoy en día los RFID están siendo implementados en múltiples organizaciones,
simulando actividades a través de nuevos dispositivos inalámbricos con gran potencial

213
de comunicación; como lo fue desarrollado en dos de las compañías más exitosas de
Colombia. [2]
La aceptación de los RFID como tecnología innovadora de actividades y procesos,
esta evolucionando positivamente, ya que cuenta con sistemas sofisticados que
funcionan desde identificación de animales (Ganado vacuno), personas, equipos hasta
la seguridad y control de acceso en organizaciones. ―La tecnología RFID tiene el
potencial de brindarnos una ventaja competitiva real, ayudar a mejorar el
cumplimiento de los pedidos e incrementar la satisfacción del cliente”. [3].
Con la cultura de globalización y libre comercio en los productos y servicios, es
importante destacar la necesidad de que nuestras PYMES (Pequeñas y medianas
empresas) conozcan este tipo de información para conectar sinergicamente la
tecnología con el talento humano a través de la identificación por radiofrecuencia, para
mejorar su calidad y así mismo nivel de competitividad. En plena revolución del
conocimiento y de tecnología, es indispensable fomentar el proceso de actualización
o adquisición de nuevos sistemas para la prestación de servicios por parte de las
organizaciones a través de dispositivos que permitan el mejoramiento continuo en la
organización, atacando los problemas que generan la incertidumbre y el riesgo
informático. Como se ve reflejado en la siguiente distribución del presupuesto
promedio de las empresas nacionales. [4].

2 Características del sistema de identificación por radio


frecuencia

La tecnología RFID, permite asignar a cualquier producto una identificación por


medio de tags (―chips únicos de identificación‖) ocupando el lugar de productos que
están implementados como estándares empresariales. En la actualidad el código de
barras por su precio y manejo, esta posicionado en el mercado de una manera fuerte;
pero sin embargo, se esta atacado sus fortalezas a través de cambios en los paradigmas
, ejemplo claro de ello es la revolución de los sistemas de RFID que poseen
características únicas; como la capacidad de ser programable y su robustez en los
niveles de seguridad, además de que logra ser capaz de suplir muchas más
aplicaciones actuales y barreras que otros sistemas de identificación enfrentan ante la
complejidad de las organizaciones empresariales. [5]
Cuando un código de barra no es leído adecuadamente desde la primera vez genera
tiempos extra de espera, colas en los puntos de pago, aumentos de costos de
operación, reducción de los beneficios y la verdadera eficiencia que el código de
barras en óptimas condiciones ofrece. En cambio un sistema basado en radiofrecuencia
tiene una cobertura mayor y un porcentaje de error mucho menor debido a sus
prestaciones activas pues allí es posible ir cambiando los datos almacenados por datos
reales y actualizados en la medida que el sistema lo requiera [6]

2.1 Ventajas y desventajas de RFID:

TABLA 1
Ventajas Desventajas
Automatiza eliminando el error humano la A diferencia del código de barras,
identificación, conteo, rastreo, RFID puede ser rastreado a distancia
clasificación y ruteo de cualquier objeto. después de salir del supermercado.

Elimina errores por irresponsabilidad. El alto costo de los equipos lectores y


del software, la poca precisión en el

214
ingreso de datos (mientras el código
Elimina errores y por consecuencia el de barras supera el 99,9 por ciento de
desperdicio de recursos. confiabilidad, algunas
etiquetas de radiofrecuencia caen
incluso por debajo del 90 por ciento)

Incrementa el control de calidad.


Dificultades de los lec
Incrementan la tores de radio para detectar algunos
eficiencia y la productos dentro de las cajas, e
interrupciones de la
productividad de la empresa señal cuando es reflejada por el metal
o absorbida por el agua

2.2 Cómo funciona el RFID:

Un sistema de identificación por radiofrecuencia está formado por tres elementos


básicos.
Un tag es un micro-chip incorporado con una antena, que puede adherirse a casi
cualquier medio (madera, plástico, e incluso metales). El microchip almacena datos
dependiendo de las capacidades del fabricante, cada tag tiene un único número que lo
identifica como por ejemplo los códigos electrónicos de cada producto (EPC) que son
desarrollados por estándares internacionales de EPC GLOBAL o como las direcciones
MAC de las tarjetas de red computacionales, dando así una única identificación en el
mundo. [7]
El sistema funciona de la siguiente manera, el lector envía una serie de ondas de
radiofrecuencia, que son captadas cuando el Tag entra en el radio de frecuencia
enviado por el lector, y son obtenidas por la micro antena de éste. Dichas ondas
activan el microchip, el cual, a través de la micro antena y mediante ondas de
radiofrecuencia, transmite al lector los datos solicitados por el lector que pueden ser
desde el CU (―Codigo Unico‖), hasta datos específicos almacenados, como nombres
de equipos, pacientes, muestras entre otros.
Finalmente, el lector recibe el dato o los datos si son varios Tag al mismo tiempo
identificados y los envía al PC, donde son diseccionados hacia una aplicación
desarrollada en .Net, para la autenticación en la aplicación dependiendo del tipo de
dato o código que contenga el Tag (―Pacientes, Muestras, Equipos, etc.‖), de manera
que se pueda acceder a la base de datos y ver los datos previamente registrados, y así
procesar la información de forma efectiva ante las necesidades del entorno específico.
[8]

TABLA 2
DIFERENCIAS ENTRE RFID Y CÓDIGO DE BARRAS
Lectores RFID:
Característica RFID CÓDIGO DE BARRAS

Capacidad Superior cantidad de información Limitación de información


Identificación Depende del Producto Estandarizada.
Actualización Lectura y Escritura Solo lectura
No requiere línea de visión para Requiere línea de visión para
Flexibilidad
la lectura. la lectura
Lectura Múltiple lectura Una lectura por vez
Tipo de Lee a través de diversos
Lectura
Lee solo en superficie
materiales y superficies.
No requiere intervención humana, Si Requiere Intervención
Precisión
100% automático Humana
Soporta ambientes agresivos
Durabilidad (intemperie, químicos, humedad, Puede dañarse fácilmente
215 temperatura).
Los lectores son un dispositivo encargado de transmitir y receptar los datos por
medio de radio frecuencia mediante una antena, los lectores poseen un modulo de
acoplamiento entre el tag y el lector, una unidad de control y un Terminal para la
comunicación con el computador.

Transponders ó Tags Pasivos y Activos:

Los trasponders o Tag son unos dispositivos compuestos por una microchip y una
antena, utilizados para la transmisión de datos en RFID. Se pueden encontrar en varias
formas y tamaños como (etiquetas, manillas, tarjetas) las cuales son implantadas en el
objeto o persona que se va a identificar.

TABLA 3
Diferencias entre las clases de los Transponders

Clase 0 y 1 Clase 2 Clase 3 Clase 4

Identificación
Tag de pasiva y Tag con Tag asistidas por Tag de batería
identificación memoria (usable batería pasivas activas (tags
Pasivo (usable en un rango de 3 trasmitir portadora)
en un rango de metros)
3 metros)
Transmisión Activa
Mas
Backscatter Backscatter funcionalidad en (Permite Tag-
(Habla de (Habla de primero el chip – Hablar- Primero
primero el el interrogador) memoria, modos de operación)
interrogador) sensores, etc
Backscatter
(Habla de
Muy bajo costo Seguridad primero el 100 metros de rango
interrogador)
Muy bajo costo Costo Moderado Alto Costo

Cuando se inicia comunicación con el lector el Tag por medio de la antena envía una
serie de datos del objeto identificado, como (Temperatura, parámetros, número de
identificación), los cuales entran a una base de datos específica que depende de la
aplicación. Una característica importante es que cada uno de los Tag tiene un único
número de serie, de fábrica que es inalterable y distinto a los demás, comúnmente
llamados como Lectura de Número Único (Read only number). El rango de banda de
frecuencia en el que trabaja varía entre de 60 kHz a 5.8 GHz, existen dos tipos de
bandas, la de baja frecuencia (LF) que está entre 125 y 134 KHz y la de alta
frecuencia HF 13.56 MHz. En la RFID los Tag han sido clasificados por la EPC
(―Electronic Code Product‖), dependiendo su forma de funcionamiento en cuatro
clases:

Clase 0, 1 y 2: Estos tipos de Tag pasivas no poseen una batería propia, entonces lo
que realizan es la obtención de la energía de RF que envía al lector y la extraen.
Clase 3: Este tipo de tag Asistido por Batería Pasivo, son Tag que ofrecen un mayor
rango y grado de fiabilidad que la Clase 0, 1 y 2 de los tag pasivos.
Clase 4: A diferencia de los Tags pasivos, los activos tienen la propiedad de que
cualquiera de los dos componentes pueden iniciar la comunicación ya sea el lector o el
Tag, la etiquetas activas tienen una radio onboard, lo que es indicador de un rango
mucho mayor que el de las pasivas.[9].

216
2.3 Software:

El sistema de RFID es flexible al software de programación que se implemente ya que


únicamente se comunica a través de variables definidas por tramas de información;
esta ventaja absoluta crea de esta tecnología un núcleo infinito de futuras aplicaciones
a desarrollar, en donde sea viable la utilización de la identificación de elementos. Ref
.[10]
El Tag envía datos al lector, el lector recibe esos datos y los direcciona hacia el
computador donde pueden ser manipulados y almacenados en aplicaciones que existen
actualmente y/o que se desarrollan para una aplicación especifica.
Por ejemplo los Sistemas de bases de datos en Oracle , MySQL y lenguajes de
programación como Java, Visual.net, BizTalk son algunas de los sistemas de
desarrollo en las cuales el RFID interactúa sin ningún problema, seleccionándolos
según los requerimientos y características de la organización.

3 Conclusiones

Los sistemas de identificación por radio frecuencia básicos están compuestos por un
chip que contiene información del producto que se quiere identificar , además se
necesita de un lector ( Con antena) que permita capturar todos y cada uno de los
objetos utilizados.
Actualmente la tecnología de identificación por radiofrecuencia es una herramienta
muy importante para el control, identificación y seguimiento elementos, animales,
personas etc. RFID ya no es una tecnología futurista, es una tecnología que ya esta
siendo implementada por múltiples sectores empresariales del país.
Los códigos de barras y la tecnología RFID están llamados a funcionar en sistemas
hibridos que permitan potencializar cada una de sus capacidades y características
técnicas con el macro objetivo de la optimización tanto de la identificación como la
gestión de datos dentro de un contexto sistémico de una organización.

Referencias

1. Bhattacharya, Shaoni;. "Electronic tags for eggs, sperm and embryos" en New
Scientist.com, 2 de abril de 2005, http://es.wikipedia.org/wiki/RFID
2. Carla Lambertini , Noel SA completó con éxito el piloto de tecnología RFID utilizando
soluciones Oracle
La fábrica de galletas colombiana encuentra dulces recompensas en el piloto de RFID,
anticipándose a las exigencias de los clientes, 13-FEB -
2006,http://www.oracle.com/global/lad/corporate/press/2006_feb/noel_completo_rfid.htm
l
3. Pedro Alfonso Blanco, Gerente de Logística de Noel S.A, Estudio de RFID en Noel,
2006,http://www.oracle.com/global/lad/corporate/press/206_feb/noel_completo_rfid.html
4. www.fundacioncorona.org.co/descargas/PDF_publicaciones/Salud/Salud_Doc8.pdf
5. www.iworld.com.mx/iw_SpecialReport_read.asp?iwid=4413&back=2&HistoryParam=R
6. www.gslcr.org
7. www.quiminet.com.mx/ar2/ar_%259FU%258D%251D%253A%25FD%25CD%25DC.ht
m
8. Dargan, Gaurav; Johnson,Brian; Panchalingam, Mukunthan; Stratis, Chris, The Use of
Radio Frequency Identification as a Replacement for Traditional Barcoding
9. Tags activos vs. tags pasivos: Comparación técnica, http://www.rfid-spain.com/
10. http://www.ericel.com/

217
Cloud Computing en redes sociales de telefonía móvil
¿En dónde está el límite entre las relaciones sociales
tradicionales y virtuales?

Antonio Román Villarroel1, Luis Joyanes Aguilar2,


Alicia Ramos Sanchez3, Sandra Velazco Florez4

1
DEA Universidad Pontificia de Salamanca - Madrid,
2
Universidad Pontificia de Salamanca - Madrid,
3
DEA Universidad Pontificia de Salamanca - Madrid,
4
DEA Universidad Pontificia de Salamanca - Madrid,

aromanv@yahoo.com, 2luis.joyanes@upsam.net,
1

3
a_ramos_sa@yahoo.com, 4sandra.velazcof@gmail.com

Resumen. Las redes sociales se han establecido de facto en Internet.


Millones de personas dependen ellas para su interacción diaria con el
resto de la sociedad. El gran salto en la redes lo proporciono el avance
en la telefonía móvil. Ahora es necesario dar un paso más, el cual
consiste en liberar las limitaciones de almacenamiento y potencia de
procesamiento de los teléfonos móviles usando como apoyo a los
proveedores de Cloud Computing. En este articulo se hace un estudio de
las alternativas existentes para solventar las limitaciones momentáneas
de la telefonía móvil de cara a la redes sociales, la integración gradual
de servicios en las redes sociales más populares; como la tecnología de
Cloud Computing puede colaborar con la integración de redes móviles,
y que debe esperarse de los terminales móviles para desvanecer la línea
de lo real y lo virtual en la redes sociales.

Palabras Clave: Cloud Computing, Redes Sociales, Tecnología Móvil,


Geolocalización, Microblogging, Virtualización, Sistemas Operativos,
Grid Computing, Integración de Servicios, Productividad.

1 Introducción

Desde que se iniciaron las redes sociales alrededor del año 2001, Internet no ha vuelto
ser la misma. Pasó de ser una posible opción de información y negocios a ser un centro
clave en la agrupación social mundial. Cada día aparecen nuevas y mejores
aplicaciones y servicios enfocados a una mayor y mejor integración de las redes
sociales con sus respectivos usuarios. Un factor clave y decisivo en este auge lo ha
proporcionado la telefonía móvil. Gracias a los terminales móviles, más
específicamente a los smartphones67, la conectividad a las redes sale de la casa, del PC
de escritorio, a la libertad y movilidad del teléfono móvil personal.
No obstante, y a pesar los grandes avances en telefonía móvil, aun existen claras
limitaciones, en aspectos como la autonomía, la potencia de procesamiento y la
capacidad de almacenamiento.
Si bien es cierto que los actuales smartphones son comparables en potencia
respecto a PC de escritorio de gama baja, aun es necesario recorrer cierto camino para
lograr tener un ordenador potente y completo en la palma de la mano. Mientras eso

67
http://en.wikipedia.org/wiki/Smartphone

219
ocurre, las deficiencias actuales pueden ser subsanadas con el apoyo de servicios de
terceros [1]. Esto puede ser posible hoy día gracias en gran medida al relativo
abaratamiento, con restricciones, en los planes de datos de las redes de internet móvil,
aunque aún hay opiniones encontradas [2], y las subsecuentes mejoras en velocidad
de acceso a la red y servicios68, aunque aun necesita algo más de apertura [3].
En el presente artículo se presentara una breve descripción de los avances en
telefonía móvil, el estado actual de las redes sociales, los servicios más importantes
que ofrecen estas y sus continuas mejoras en integración, las posibilidades que ofrece
las redes móviles, como los servicios de Cloud Computing69 colaboran en gran medida
a estas mejoras y un análisis de cómo el teléfono móvil se ha convertido en un
elemento que mas que comunicar es un elemento clave de la cultura digital y el
progresivo desvanecimiento de las barreras físicas hacia la integración de una sociedad
virtual.

2 La telefonía móvil

El teléfono móvil ha pasado de ser un simple dispositivo de comunicación de voz a un


completo equipo multifuncional en donde ya es posible concentrar una gran cantidad
de funciones en un pequeño equipo que cabe perfectamente en la palma de la mano 70.
Los últimos adelantos en almacenamiento de energía, microprocesadores,
almacenamiento de memoria, pantallas, sensores y sistemas operativos móviles
embebidos71, han permitido que en teléfono móvil sea un equipo de múltiples usos [4].
Uno de los pasos más importantes ha sido, entre otros, las mejoras en las redes de
telefonía móvil digital [5], el relativo abaratamiento de los costos de los servicios de
datos [2] y las grandes mejoras en interfaz de usuario [6].
El teléfono móvil no solo es un dispositivo para conversar, escuchar música o ver
un video. Es un equipo que gracias a las redes móviles digitales (3G, 3.5G, LTE) [7]
lo han convertido de facto en un ordenador de mano, desplazando así a las PDA [8].
Debido a la cantidad de funciones y su versatilidad, hoy día a estos dispositivos se
les conocen como smartphones.
Los mayores fabricantes de software, junto a los sitios de redes sociales han visto
en el smartphone un mercado emergente con grandes beneficios a explotar [9]. Casi
todos los sitios populares en las redes sociales han diseñado y adaptado aplicaciones
móviles de acceso a sus sitios a los sistemas operativos móviles más populares
(Symbian72, iPhone OS73, Android74, etc.).
Otro aspecto clave ha sido la integración gradual de funcionalidades en el
smartphone. Funciones como cámara de fotos, cámara de video, receptor radio FM,
GPS, WIFI, Bluetooth, 3G, video acelerado y pantallas de alta definición, han
colaborado a que los sitios de redes sociales proporcionen una experiencia rica al
usuario, dándole la posibilidad de colocar en línea en forma simple fotos, videos,
música y ubicación, además de los ya tradicionales servicios de acceso web y correo
electrónico.

3 Las redes sociales

Aun hoy día existen deferentes opiniones sobre lo que es una red social
[10][11][12][13], no obstante podemos definir que una red social es ―la unificación de

68
http://es.wikipedia.org/wiki/Telefon%C3%ADa_m%C3%B3vil_3G
69
http://en.wikipedia.org/wiki/Cloud_computing
70
http://en.wikipedia.org/wiki/Mobile_phone
71
http://www.xataka.com/moviles/tendencias-2010-telefonia-movil
72
http://www.symbian.org/
73
http://developer.apple.com/devcenter/ios/index.action
74
http://www.android.com/

220
diversos grupos o entes individuales, entre las cuales ocurre un intercambio de
información, intereses y problemas que permiten en su conjunto mejorar la calidad de
vida de los individuos que conforman dicha red‖.
Gracias a las redes sociales, internet se ha convertido en el elemento que permite
recortar las distancias entre sus usuarios. Permite la interacción en tiempo real entre
diferentes personas, conocidas o no, y ha logrado que el mundo sea cada día un sitio
más pequeño y alcanzable.
Redes sociales bien establecidas como Facebook75, My Space76, Twitter77,
LinkedIn78, Flickr79, Youtube80, Picasa81, solo por citar algunas, han establecido redes
y grupos sociales que comparten desde cosas muy especificas hasta información
general e intima de cada usuario.
Al margen de las diferentes posiciones respecto a la privacidad de la información
personal [14][15][16], las redes sociales han tenido un gran empuje gracias a la
proliferación de aplicaciones emblemáticas de dichos sitios en los smartphone y a las
facilidades y mejoras en estructura móvil celular, red de datos y calidad de servicio,
aunado a un incremento en potencia y prestaciones de los dispositivos móviles [17].
Este último aspecto ha sido decisivo. Los actuales smartphone poseen como mínimo
cámara de fotos y GPS. Estos aditivos han permitido que la información que circula en
las redes sociales se haya enriquecido exponencialmente ya que no solo es texto, es
imagen, sonido y la posibilidad de poder conocer en tiempo real lo que ocurre o
acontece en cualquier parte del planeta, siempre y cuando haya cobertura de red móvil
[18].
La congregación de toda esta avalancha de información ha multiplicado como
nunca antes los requerimientos de espacio y ancho de banda para satisfacer estas
necesidades de compartir [19]. El potencial de esta información es tan alto que hoy día
se investiga que modelos de minería de datos son los más idóneos para obtener
beneficios de estos datos [20][21].
Aun no está claro cuál será el modelo comercial ideal [22]. El actual esquema de
obtener beneficios por publicidad esta algo gastado y quien lo domina con maestría es
Google [23]. No obstante, dilemas morales y legales aparte, el uso de la información
individual de cada usuario de las redes sociales permitiría abrir nuevos horizontes en
el comercio electrónico, estudiando y analizando tendencias grupales, incidencias de
eventos, y preferencias de grupos.

4 Las redes sociales como herramienta comunicacional

Las redes sociales se alimentan principalmente de los datos que aporten sus usuarios
[24]. Si bien su uso directo desde sus respectivos portales en el navegador es muy
cómodo, el verdadero poder de estas redes se libera en los teléfonos móviles. Existen
diferentes aplicaciones móviles que permiten realizar esta tarea de intercambio de
información entre grupos sociales muy fácilmente. Cosas como publicar fotos, videos,
la posición actual vía GPS y streaming82 de audio y/o video, etc, es solo cuestión de
seleccionar el archivo y subirlo a la red. Un ejemplo de esto ocurrió el día 13 de Junio
de 2009 en Irán83 84 85, en donde el gobierno local de ese país prácticamente clausuro
el acceso a la web para evitar que se filtrara a la opinión pública información sobre los

75
http://www.facebook.com/
76
http://www.myspace.com/
77
http://twitter.com/
78
http://www.linkedin.com
79
http://www.flickr.com/
80
http://www.youtube.com
81
http://picasaweb.google.com
82
http://es.wikipedia.org/wiki/Streaming
83
http://en.wikipedia.org/wiki/2009%E2%80%932010_Iranian_election_protests
84
http://futureoftheinternet.org/could-iran-shut-down-twitter
85
http://www.foxnews.com/story/0,2933,526403,00.html

221
eventos que allí ocurrían86. Esto quizá ayude a apoyar la afirmación del fundador de
Twitter, Jack Dorsey: "Twitter no es una red social sino una herramienta de
comunicación"87.
Las redes sociales en conjunto con estas extensiones software en los teléfonos
móviles, dan la oportunidad al usuario común a ser protagonista de los eventos que
ocurren en su entorno. Suerte de reportero accidental, el uso de estas herramientas, han
permitido la creación del microblogging88 89, cosa que incluso las grandes
corporaciones de noticias y prensa internacional han tenido que reconocer lo práctico
y eficiente que puede ser para dar información a la comunidad internacional al
momento90.
Al margen de estos usos, las redes sociales también son útiles para sus usuarios en
su vida diaria, ya que proporcionan una alternativa para reunirse, compartir,
informarse, conocer, y hacer nuevas amistades, todo de forma virtual.

5 Las redes de telefonía móvil

La búsqueda de nuevos modelos económicos y de comercialización es la que ha


empujado en gran medida el crecimiento de las redes móviles [17]. Es cierto que esta
es una inversión con grandes riesgos, dado lo rápido que evolucionan las tecnologías
en telecomunicaciones [25][26][27], pero los resultados lo justifican. El gran auge de
las redes sociales ha empujado de alguna forma esta rápida evolución.
El principal problema hasta hace algunos años era los altos costos en los planes de
datos y lo ineficiente de este servicio en WAP91, GPRS92 y EDGE93 [28]. Con la
llegada de los servicios de datos 3G94 y la tendencia a proveer planes de tarifa plana el
usuario de telefonía móvil se siente más confiado e inclinado a usar los servicios y
ventajas que proporcionan las redes sociales [29].
El teléfono móvil paso de ser de un dispositivo de llamadas y mensajería de texto a
un completo centro de comunicaciones en el cual es posible estar en línea con
diferentes salas de chat (Nimbuzz95, Fring96, MSN Live97, Facebook, etc.) además de
las conversaciones asincrónicas que ofrece Twiitter [30]. A pesar de las diferencias
tecnologías entre las redes de telefonía en las Américas y Europa (CDMA98, GSM99) lo
que es claro es que las redes de telefonía móvil analógicas han sido completamente
desplazadas a otro tipos de uso o servicios, o incluso eliminada. No obstante, estas
tecnologías, a pesar de sus diferencias tecnológicas, ofrecen alternativas de
conectividad de datos a alta velocidad100.
Factores como calidad, disponibilidad, velocidad y capacidad de tráfico de datos,
entre otros, limitan en la actualidad la experiencia y la fiabilidad del servicio. Aun
falta mucho camino que recorrer para que las redes de datos móviles desplacen, que

86
http://www.lanacion.com.ar/nota.asp?nota_id=1141323
87

http://www.elpais.com/articulo/internet/Twitter/red/social/herramienta/comunicacion/elpepute
c/20090325elpepunet_2/Tes
88
http://en.wikipedia.org/wiki/Microblogging
89
http://www.enriquedans.com/2009/07/ecosistema-microblogging-y-mi-uso-del-mismo.html
90
http://www.diariodeibiza.es/opinion/2010/09/09/periodismo-microblogging/431776.html
91
http://en.wikipedia.org/wiki/Wireless_Application_Protocol
92
http://en.wikipedia.org/wiki/Gprs
93
http://en.wikipedia.org/wiki/Enhanced_Data_Rates_for_GSM_Evolution
94
http://en.wikipedia.org/wiki/3g
95
http://www.nimbuzz.com/es
96
http://www.fring.com
97
http://windowslive.com/desktop/messenger
98
http://en.wikipedia.org/wiki/Cdma
99
http://en.wikipedia.org/wiki/Gsm
100

http://hubpages.com/hub/Difference_between_CDMA_EVDO_GSM_and_EDGE_Mobile_P
hones

222
no eliminar, a las redes clásicas cableadas [31][32][33].

6 Cloud Computing como catalizador

La actual tendencia de unificación de servicios de redes sociales y el uso de


smartphone como elemento vinculante en las comunicaciones diarias involucra
necesariamente cierta tecnología de trasfondo, que permita integrar dichas tecnologías
a la vez de proporcionar recursos para que estas crezcan acorde a la demanda de los
usuarios. Detalles que no se ven a simple vista como almacenamiento, procesamiento
de datos, repositorios de aplicaciones y conectividad entre redes, entre otras, tienen un
denominador común, Cloud Computing.
Definir Cloud Computing ha sido algo dificultoso desde el nacimiento de esta
tecnología [34][35][36]. Basada en la tecnología de Grid Computing101, y aunada al
soporte de otras tecnologías como Virtualización102, SaaS103, PaaS104 e IaaS105, la nube
se erige como una forma de tener una internet más manejable. Considerando que
Internet es la Gran Nube, el concepto de Cloud Computing define la posibilidad de
dividir esta gran nube en la suma de otras más manejables, integrables, más fáciles de
controlar y administrar, con los recursos informáticos clave que componen las
necesidades básicas de cualquier empresa de TI, y pueden ser públicas, privadas o
mixtas106, proporcionando de esta forma servicios bajo demanda, similar al uso del
teléfono o la electricidad: pagar por uso, capacidad de demanda variable,
disponibilidad constante bajo garantía del proveedor de servicios y exteriorización de
los costos de mantenimiento y operación de los servicios TI.
Las redes sociales se fundamentan de alguna forma u otra en soporte de tecnologías
de Cloud Computing. Por ejemplo, Facebook, usa sus propios servicios de
datacenters107 y centraliza muchos de sus diversos servicios dentro de sus propios
servidores108. En cambio, el servicio de mensajes cortos Twitter, expande las
posibilidades comunicacionales de sus limitados 140 caracteres gracias a un conjunto
de servicios externos, que permiten integrar otros medios de datos (fotos, videos,
música, geolocalización, etc.)109. En este caso particular, podríamos hablar más bien de
mashup110, pero considerando la forma en que los usuarios aprovechan estos servicios,
y desde un punto de vista netamente práctico, podría ser valido considerar que Twitter
más la suma de sus servicios asociados es una nube.
Por otro lado, en el ámbito de la telefonía móvil, estos dispositivos tienen algunas
limitaciones en capacidad de memoria, velocidad de procesamiento y duración de la
batería. En este caso, exteriorizar parte de los procesos relacionados con el acceso a
redes sociales es una necesidad111, sobre todo, para no depender de la centralización de
datos en el smartphone [37][38].
Exteriorizar los datos es una forma de asegurarse la no dependencia, por parte del
usuario, al terminal móvil, ya que este puede dañarse, perderse o ser robado. Permitir
que los datos únicos generados por el usuario de dicho terminal puedan residir
únicamente en la memoria interna del teléfono es un riesgo. En la actualidad, existen
algunos servicios, gratuitos o de pago, que permiten al usuario de estos terminales
crear una copia de seguridad de los datos almacenados en el teléfono, siendo quizá el

101
http://en.wikipedia.org/wiki/Grid_computing
102
http://en.wikipedia.org/wiki/Virtualization
103
http://en.wikipedia.org/wiki/Software_as_a_service
104
http://en.wikipedia.org/wiki/Platform_as_a_service
105
http://en.wikipedia.org/wiki/Utility_computing
106
http://www.cloudcomputingla.com/2010/cloud-computing/tipos-de-computacion-en-nube-
publica-privada-o-hibrida
107
http://en.wikipedia.org/wiki/Data_center
108
http://techcrunch.com/2010/01/21/facebook-data-center/
109
http://www.maestrosdelweb.com/editorial/herramientas-para-los-adictos-a-twitter/
110
http://en.wikipedia.org/wiki/Mashup_%28web_application_hybrid%29
111
http://www.abiresearch.com/press/
1484-Mobile+Cloud+Computing+Subscribers+to+Total+Nearly+One+Billion+by+2014

223
más popular Dropbox112, que está adaptado a las plataformas móviles más comerciales.
Esto proporciona cierta garantía en el aspecto de la disponibilidad de estos datos en
caso de pérdida o cambio del terminal telefónico. Si bien esto lleva a considerar otros
factores que implican aspectos éticos, de seguridad y privacidad de la información 113,
el uso de estos servicios de exteriorización de datos es un ejemplo más de las
posibilidades de Cloud Computing.
También cabe la posibilidad a futuro de usar servicios externos en la nube para
complementar otros aspectos. Muchos de ellos ya están disponibles, como el
almacenamiento de fotos, video y música (Facebook), bitácoras, microblogging y
ubicación (Twitter) y envió de streaming de audio/video en vivo (Qik114, Ustream115),
pero ninguno de ellos está realmente integrado. Otros aspectos que están por verse es
el uso de aplicaciones de proceso masivo, renderizado 3D en tiempo real, televisión
on-line, y realidad aumentada116 117. Para estos casos, el uso de poder de
procesamiento externo es clave, y allí la Cloud Computing jugara un papel crucial.

7 La sociedad móvil

Los cambios introducidos en las redes de telefonía móvil en los últimos años, han
impulsado el despegue y establecimiento de las redes sociales. La naturaleza gregaria
de la humanidad siempre ha buscado de alguna forma u otra establecer contactos con
los semejantes. Según David Weinberger118, co-autor del libro The Cluetrain
Manaifesto119 expresa que ―el comportamiento social sortea la predictibilidad‖. Las
redes sociales funcionan porque las personas buscan conectar con otras hablando,
construyendo y compartiendo [39].
En la vida cotidiana existen un sin número de momentos, de pocos minutos
(haciendo cola, en el bus, en el metro, etc.), en los que se aprovecha para echar mano
del teléfono y conectar por unos instantes a las redes o sitios de interés. Como reza la
vieja frase de marketing americano, el teléfono móvil puede ser utilizado Anywhere,
Anytime, Everywhere.
Evidentemente, esto no está exento de problemas. Es necesario dar algunos pasos
para homogenizar el uso de los servicios móviles en las redes sociales, entre los cuales
se pueden considerar:

 Unificar el intercambio de información entre redes.


 Evitar la fragmentación de la información por el uso de diferentes servicios.
 Simplificar el control de los datos personales en función de preservar la
privacidad del usuario.
 Dar opciones de almacenamiento alterno de datos, fuera del terminal móvil.
 Mejorar los interfaces de usuario en los teléfonos móviles.

El usuario en forma natural busca liberarse de las ataduras comunicacionales. A la


vista que la telefonía móvil ha superado en muchos lugares del mundo a la telefonía
fija120, el siguiente paso es garantizar la ubicuidad, la calidad y la seguridad de las
comunicaciones móviles. David Weinberger declaró que "las infraestructuras sociales
han cambiado gracias a Internet. No nos comunicamos igual, no creamos igual.
Ahora compartimos de una manera diferente" [40].
Muchos de estos aspectos habían sido discutidos en la Web 2.0 Summit de 2009 en

112
https://www.dropbox.com
113
http://www.readwriteweb.es/tecnologias/cloud-computing-choca-legislacion-europea/
114
http://qik.com/
115
http://www.ustream.tv/
116
http://en.wikipedia.org/wiki/Augmented_reality
117
http://mashable.com/2009/08/19/augmented-reality-apps/
118
http://cyber.law.harvard.edu/people/dweinberger
119
http://www.cluetrain.com/book/
120
http://mensual.prensa.com/mensual/contenido/2007/08/04/hoy/negocios/1069597.html

224
San Francisco121 ―Los dispositivos móviles evolucionarán como controles remotos
para expandir servicios basados en la web en tiempo real, incluyendo servicios
basados en localización, creando oportunidades, dándole poder a los consumidores de
forma disruptiva y transformadora‖ [41].

8 Las redes sociales virtuales

Steve Woolgar122 en su libro Virtual Society? Technology, Cyberbole, Reality123,


discute en forma filosófica todos los aspectos de la vida social, cultural, económica y
política que pueden verse afectados por las nuevas tecnologías electrónicas,
considerando que se debería equilibrar una sociedad virtual inminente, mediante una
revaloración de las conexiones entre lo que se considera real y lo que se considera
virtual [42]. Según su punto de vista, establece cinco reglas con la cuales se posible
encontrar sentido al porvenir de una sociedad virtual:

 La aceptación y utilización de las nuevas tecnologías depende de forma


crucial del contexto social local.
 Los miedos y riesgos asociados con las nuevas tecnologías están distribuidos
socialmente de forma desigual.
 Las tecnologías virtuales son un complemento y no un sustituto de la
actividad real.
 Cuando mas virtual, mas real.
 Cuanto más global, más local.

Bajo este contexto, para definir lo que es una red social virtual, es necesario
preestablecer algunos conceptos:

Red Social: Se define como un conjunto de personas, o entidades que comparten


intereses y están vinculadas por características y objetivos afines.
Comunidad virtual: Es el conjunto de personas, entidades o grupos sociales que
con un mismo objetivo o propósito, se unen para coincidir en relaciones de tipo virtual
y no solo en forma presencial.

De esta forma podríamos definir que una red social virtual es un conjunto de
personas, entidades o grupos sociales que con un mismo objetivo o propósito, se unen
para coincidir, apoyándose en el uso de tecnologías que permitan establecer los lazos
de esta relación.
En este sentido, Niki Panteli124 plantea unos niveles de jerarquía que denomina
niveles de investigación de virtualidad, el cual puede verse en la Fig.1.

121
http://www.web2summit.com/web2009/public/sv/q/102
122
http://virtualsociety.sbs.ox.ac.uk/text/people/woolgar.htm
123
http://informationr.net/ir/reviews/revs112.html
124
http://www.bath.ac.uk/management/faculty/niki_panteli.html

225
Fig. 1. Niveles de investigación de virtualidad [43].

Específicamente, establece cuatro niveles:

 Comunicación mediada por ordenador: Es la comunicación basada mediante


texto interactivo. En esta definición se incluye Internet, mensajería de texto
SMS, mensajería instantánea, interacción multi-usuario, correo electrónico,
servidores de listas y videoconferencias con suplementos de texto.
 Equipos virtuales y organizaciones virtuales: Este nivel se centra en las
interacciones de grupo y asume que en un entorno virtual existen diferentes
actores que necesitan reunirse para trabajar en un proyecto específico.
 Comunidades en línea: Se relaciona con la formación, el desarrollo y la
sostenibilidad de las comunicaciones dentro del entorno virtual.
 Redes sociales virtuales: Este nivel se relaciona con la aparición súbita pero
veloz de los sitios virtuales de múltiples usuarios en forma masiva.

Según Niki Panteli, ―El modelo de cuatro niveles se basa en la naturaleza y


características de la investigación de la virtualidad que se ha desarrollado en la
literatura en los últimos años. En consecuencia, todos los niveles colectivamente son
vitales para nuestra comprensión de la virtualidad. Con las nuevas tecnologías que
emergen todo el tiempo, se requiere investigación para explorar sus usos, los retos y
las oportunidades que traen a nuestras vidas‖ [43].
De aquí podemos inferir que las mejoras tecnológicas buscan difumar la línea
divisoria entre lo real y lo virtual. Tecnologías emergentes como la realidad aumentada
y los interfaces de usuario con detección de movimiento, tal como lo hace Kinect125,
pueden colaborar decididamente a lograr una mayor integración tecnológica entre el
usuario y la red.

9 Conclusiones

El actual concepto de relaciones sociales está siendo revisado. Debido al auge de las
aplicaciones Web 2.0 enfocadas a las redes sociales, las limitaciones físicas ya no son
un impedimento para mantener el contacto con familiares, amigos y compañeros de

125
http://es.wikipedia.org/wiki/Kinect

226
trabajo. La facilidad que ofrecen servicios como Facebook y Twitter, solo por citar los
más relevantes en cuanto a interactividad, rompe con el estándar clásico, impulsando
la creación de grupos sociales virtuales y su integración al modo de vida del ciudadano
actual.
La meta de lograr un sistema de comunicaciones móvil, fiable y seguro, que
potencie las redes sociales virtuales ya está al alcance. Las mejoras en aplicaciones
que aprovechen las bondades de Cloud Computing para el almacenamiento seguro de
la información y la posibilidad de potencia de procesamiento para tareas pesadas, que
actualmente los smartphone no pueden realizar en forma conveniente, están
plenamente disponibles. El aprovechamiento optimo de esta tecnología pasa por
mejorar las prestaciones de los smartphones en potencia hardware, duración de la
batería, sistema operativo y en la adaptación de las aplicaciones móviles, tanto en uso
de la red móvil como en interfaz de usuario.
Las redes sociales son actualmente un punto de referencia en la vida cotidiana para
los usuarios que disfrutan de sus prestaciones. La posibilidad de mantener el contacto
en forma continúa gracias al uso del smartphone ha logrado que limitantes como
distancia, tiempo y disponibilidad hayan pasado a un segundo plano, virtualizando las
relaciones y concentrando todo lo necesario para estar comunicado por medio de un
teléfono móvil.

Referencias

1. Sarah Perez, ―Why Cloud Computing is the Future of Mobile,‖ Read Write Web,
04-Ago-2009. [Online]. Available:
http://www.readwriteweb.com/archives/why_cloud_computing_is_the_future_of
_mobile.php. [Accessed: 16-Sep-2010].
2. Ramón Muñoz, ―¿Tarifa plana en la Red? Ahora ondulada,‖ El Pais.com, 16-
Sep-2010. [Online]. Available:
http://www.elpais.com/articulo/sociedad/Tarifa/plana/Red/Ahora/ondulada/elpepi
soc/20100916elpepisoc_1/Tes. [Accessed: 16-Sep-2010].
3. ―Is mobile Internet really such a good thing?,‖ Joi Ito, 23-May-2008. [Online].
Available: http://joi.ito.com/weblog/2008/05/23/is-mobile-inter.html. [Accessed:
16-Sep-2010].
4. ―8 Mobile Technologies to Watch in 2009, 2010,‖ Read Write Web, 29-Ene-
2009. [Online]. Available:
http://www.readwriteweb.com/archives/eight_mobile_technologies_to_watch.php
. [Accessed: 16-Sep-2010].
5. Guillermo Melis, ―Tecnología 4G, la nueva evolución de la telefonía celular,‖
Tendencias 21, 11-May-2010. [Online]. Available:
http://www.tendencias21.net/Tecnologia-4G-la-nueva-evolucion-de-la-telefonia-
celular_a4423.html. [Accessed: 16-Sep-2010].
6. Andreas Constantinou, ―The Mechanics Behind the Mobile User Interface,‖
Vision Mobile, 26-May-2009. [Online]. Available:
http://www.visionmobile.com/blog/2009/05/the-mechanics-behind-the-mobile-
user-interface/. [Accessed: 16-Sep-2010].
7. Vanessa Marsh, ―Se duplica la implantación de la banda ancha en Europa,‖
Tendencias 21, 03-Jun-2010. [Online]. Available:
http://www.tendencias21.net/Se-duplica-la-implantacion-de-la-banda-ancha-en-
Europa_a4517.html. [Accessed: 16-Sep-2010].
8. Enrique Dans, ―La PDA es cosa del pasado,‖ El Blog de Enrique Dans, 11-Abr-
2007. [Online]. Available: http://www.enriquedans.com/2007/04/la-pda-es-cosa-
del-pasado.html. [Accessed: 16-Sep-2010].
9. ―Smartphones benefit from 'apptastic' programs,‖ Vancouver Sun, 16-Sep-2010.
[Online]. Available:
http://www.canada.com/vancouversun/news/business/story.html?id=da028b84-
27fc-4551-80ad-
70d238dfba0d&k=51182&utm_source=feedburner&utm_medium=feed&utm_ca

227
mpaign=Feed%3A+canwest%2FF261+%28Vancouver+Sun+-+BusinessBC%29.
[Accessed: 16-Sep-2010].
10. Carlos Lozares, ―La teoria de redes sociales,‖ Revista de sociología, págs. 103-
126, 1995.
11. Craig Calhoun, Dictionary of the social sciences in politics and social sciences.
UK: Oxford University Press, Inc., 2002.
12. Barker, Robert L., The social work dictionary, 4º ed. Washington, DC: NASW
Press, 1999.
13. Barry Wellman, Janet Salaff, Dimitrina Dimitrova, Laura Garton, Milena Gulia,
y Caroline Haythornthwaite, ―Computer Networks as Social Networks:
Collaborative Work, Telework, and Virtual Community,‖ Annual Reviews Inc,
4139 El Camino Way, PO Box 10139, Palo Alto, CA 94303-0139, vol. 22, págs.
213-238, Ago. 1996.
14. Ralph Gross y Alessandro Acquisti, ―Information Revelation and Privacy in
Online Social
15. Networks,‖ in Proceedings of the 2005 ACM workshop on Privacy in the
electronic society, págs. 71-80, 2005.
16. B. Zhou y J. Pei, ―Preserving Privacy in Social Networks Against Neighborhood
Attacks,‖ presented at the Data Engineering, 2008. ICDE 2008. IEEE 24th
International Conference on, Cancun, págs. 506-515, 2008.
17. Lior J. Strahilevitz, ―A Social Networks Theory of Privacy,‖ American Law &
Economics Association Annual Meetings, 2005.
18. Antonio Luis Flores Galea, ―Evolución de las redes de telefonía móvil,‖ Sep-
2009.
19. ―¿Serán las redes sociales basadas en la localización el próximo gran
fenómeno?,‖ Universia Knowledge Wharton, 05-May-2010. [Online]. Available:
http://www.wharton.universia.net/index.cfm?fa=viewArticle&ID=1880.
[Accessed: 05-Sep-2010].
20. Ines Leopoldo, ―El nacimiento de la medianet, la red IP del futuro,‖ Techin.es,
26-Dic-2009. [Online]. Available: http://www.techin.es/?p=669. [Accessed: 03-
Sep-2010].
21. David Jensen y Jennifer Neville, ―Data Mining in Social Networks,‖ 2003.
22. Jon M. Kleinberg, ―Challenges in mining social network data: processes, privacy,
and paradoxes,‖ in International Conference on Knowledge Discovery and Data
Mining, págs. 4-5, 2007.
23. Peter Leitner y Thomas Grechenig, ―Scalable Social Software Services: Towards
a Shopping Community Model Based on Analyses of Established Web Service
Components and Functions,‖ in Hawaii International Conference on System
Sciences, págs. 1-10, 2009.
24. Bernard Girard, El modelo Google: una revolución administrativa. Norma, 2007.
25. Emily Steel y Jessica E. Vascellaro, ―Facebook, MySpace Confront Privacy
Loophole,‖ The Wall Street Journal, 21-May-2010.
26. Luis Castejón Martín, ―La globalización de las telecomunicaciones: competencia,
inversion y brecha digital,‖ 30-Sep-2005.
27. Daniel Seva y Marcelo Olguin, ―El mercado de telefonia celular en America
Latina,‖ Universidad de Palermo, Abr-2004.
28. Juan David Correa, ―A invertir en infraestructura de telecomunicaciones para el
país, invita presidente de Telefónica Colombia,‖ Portafolio.com.co, 25-Jul-2008.
[Online]. Available:
http://www.portafolio.com.co/negocios/lecciones_emp_porta/ARTICULO-WEB-
NOTA_INTERIOR_PORTA-4397867.html. [Accessed: 12-Sep-2010].
29. Alexandre Hohagen, ―El alto costo de internet dilata el creciente desarrollo de
América Latina,‖ America Economia, 15-Jul-2010. [Online]. Available:
http://www.americaeconomia.com/analisis-opinion/el-alto-costo-de-internet-
dilata-el-creciente-desarrollo-de-america-latina. [Accessed: 10-Sep-2010].
30. Sandra Parets, ―Redes Celulares 2G y 3G: Su impacto actual en las soluciones
móviles empresariales… y en las futuras estrategias móviles,‖ Boreal
Technologies, 24-Ago-2009. [Online]. Available:
http://borealtech.wordpress.com/2009/08/24/627/. [Accessed: 11-Sep-2010].

228
31. M. Jiménez y S. Millán, ―El fenómeno Twitter engancha a las compañías,‖
CincoDias.com, 06-Feb-2009. [Online]. Available:
http://www.cincodias.com/articulo/empresas/fenomeno-Twitter-engancha-
companias/20090206cdscdiemp_28/cdsemp/. [Accessed: 09-Sep-2010].
32. Ernesto E Quiroz M., Carelia G. Gaxiola P., Jesús N. Leal L., y Isidro Vicente
H., ―Asuntos abiertos en la provisión de calidad de servicio de ip en
33. redes inalámbricas 3G,‖ 2004.
34. Juan R. Coca, ―Llegan las redes de cuarta generación,‖ Tendencias 21, 21-Abr-
2009. [Online]. Available: http://www.tendencias21.net/Llegan-las-redes-de-
cuarta-generacion_a3190.html. [Accessed: 10-Sep-2010].
35. Erica Naone, ―El 4G deja de ser sólo para los teléfonos,‖ Technology Review,
19-Abr-2010. [Online]. Available:
http://www.technologyreview.com/es/read_article.aspx?id=1170. [Accessed: 10-
Sep-2010].
36. Luis Joyanes Aguilar, ―La Computación en Nube (Cloud Computing):
37. El nuevo paradigma tecnológico para empresas y
38. organizaciones en la Sociedad del Conocimiento,‖ icade. Revista cuatrimestral de
las Facultades de Derecho y Ciencias Económicas y Empresariales, nº. 76, Abr.
2009.
39. Michael Armbrust et al., ―Above the Clouds: A Berkeley View of Cloud
40. Computing,‖ UC Berkeley, 10-Feb-2009.
41. Luis M. Vaquero, Luis Rodero-Merino, Juan Caceres, y Maik Lindner, ―A Break
in the Clouds: Towards a Cloud Definition,‖ ACM SIGCOMM Computer
Communication Review, vol. 39, nº. 1, págs. 50-55, Ene. 2009.
42. Steve Hamm, ―How Cloud Computing Will Change Business,‖ Business Week,
04-Jun-2009. [Online]. Available:
http://www.businessweek.com/magazine/content/09_24/b4135042942270.htm.
[Accessed: 05-Sep-2010].
43. Larry Barrett, ―CIOs Embrace Cloud to Manage Smartphones,‖ CIO Update, 04-
Ago-2010. [Online]. Available:
http://www.cioupdate.com/features/article.php/3896816/CIOs-Embrace-Cloud-
to-Manage-Smartphones.htm. [Accessed: 10-Sep-2010].
44. Christopher Locke, Rick Levine, Doc Searls, y David Weinberger, The Cluetrain
Manifesto: The End of Business as Usual. Basic Books, 2001.
45. Pablo Oliveira, ―Las redes sociales se pasan al móvil,‖ Publico.es, 17-Jul-2008.
[Online]. Available:
http://www.publico.es/135289/redes/sociales/pasan/movil/david/weinberger/buon
giorno/blinko. [Accessed: 16-Sep-2010].
46. Dolors Reig, ―La próxima revolución será en 2011, la próxima web es de las
redes sociales móviles,‖ El Caparazon, 22-Oct-2009. [Online]. Available:
http://www.dreig.eu/caparazon/2009/10/22/redes-sociales-moviles-web2-0-
summit-2009/. [Accessed: 16-Sep-2010].
47. Steve Woolgar, ¿Sociedad virtual?: tecnología, "cibérbole", realidad. Uoc, 2005.
48. Niki Panteli, Virtual Social Networks: Mediated, Massive and Multiplayer Sites.
Palgrave Macmillan, 2009.

229
Ontología de la composición geométrica 3D para la web
con el estándar X3D.

Holman Diego Bolívar1, Flor Nancy Diaz1, Rubén González Crespo2


1
Facultad de Ingeniería, Universidad Católica de Colombia, Bogotá, Colombia
2
Facultad de Informática, Universidad Pontificia de Salamanca, Campus Madrid
España
1
{hdbolivar,fndiaz}@ ucatolica.edu.co ,3ruben.gonzalez@upsam.net

Abstract: Currently, practices and tools for computer-aided three-


dimensional design, do not allow the semantic description of objects
constructed in some cases specified notations as handling layers, or
labeling of each development itself. The lack of a standard for the
description of the elements represents a major drawback for using
advanced three-dimensional environments such as the automation of
search and construction processes that require semantic knowledge of its
elements. This project proposes the development the semantic
composition from the hierarchy of three-dimensional visualization of
graphics primitives, taking into account the geometric composition
architecture of standard 19775-1 of the IEC of the IOS. For the
development of semantic composition use the methodology
methontology proposed by the Universidad Politécnica de Madrid,
because it allows the construction of ontologies about specific domains,
limiting the domain by defining classes and subclasses, relationships and
the generation of instances a framework for resource description on
OWL.

Keywords: Computer aided design, Geometry, Artificial intelligence.

Resumen. En la actualidad las prácticas y herramientas para el diseño


tridimensional asistido por computador, no permiten la descripción
semántica de los objetos. La falta de un estándar para la descripción de
los elementos representa una gran desventaja para el uso avanzado, tales
como la automatización de procesos de búsqueda y de construcción.
Este proyecto propone desarrollar la composición semántica de
visualización tridimensional de acuerdo a las primitivas gráficas,
teniendo en cuenta la arquitectura de composición geométrica de la
norma 19775-1 de la IEC de la ISO. Para el desarrollo de la
composición semántica se utilizo la metodología methontology
propuesta por la Universidad Politécnica de Madrid, ya que permite la
construcción de ontologías acerca de los dominios específicos, lo que
limita el dominio mediante la definición de las clases y subclases, las
relaciones y la generación de instancias de un marco para la descripción
de recursos en OWL.

Palabras Claves: Diseño asistido por computador, Geometría,


Inteligencia Artificial.

1 Introducción

En los últimos años el desarrollo de ontologías formales sobre el dominio de un tema


específico ha pasado del campo de la Inteligencia Artificial a los dominios de la World

231
Wide Web que van desde grandes taxonomías para clasificar sitios web hasta
disciplinas que desarrollan ontologías para dominios específicos que se puedan utilizar
para anotar y compartir información [23].
Una de estas disciplinas es la computación gráfica, la cual desde 1994 con
Labyrinth presentado por Mark Pesce en Ginebra Suiza en la primera conferencia
internacional sobre la World Wide Web busca desarrollarle una tercera dimensión al
lenguaje de marcas de hipertexto (HTML) [3]. Con el apoyo del consorcio W3C,
Labyrinth evoluciono a lo que comercialmente se conoció como VRML (Virtual
Reality Modelling Language), el cual como lenguaje basa sus componentes en Open
Inventor del Sillicon Graphics que a su vez es una librería para gráficos en 3D
basados en OpenGL [20]. VRML se encuentra estandarizado por la norma ISO 14772
que define su funcionalidad y la base de codificación de texto, especificando la
construcción de un conjunto de objetos primarios como triángulos, prismas o mallas y
los mecanismos de composición, encapsulamiento y extensión, pero no especifica la
interacción con dispositivos físicos de visualización. Una escena gráfica construida
con VRML contiene nodos que describen objetos y sus propiedades, contiene
geometrías agrupadas jerárquicamente para proporcionar un medio visual que
represente los objetos y los nodos que participan en la conexión de los objetos de
acuerdo a los puntos de referencia [16].
XML (Extensible Markup Language) surgió en 1996 incorporando un subconjunto
del estándar SGML (Standard Generalized Markup Language) diseñado para permitir
el intercambio de información entre distintas plataformas, soportes físicos, lógicos y
diferentes sistemas de almacenamiento y presentación, con independencia de su grado
de complejidad [24].
Al tomar la representación de mundos y objetos 3D para la web lograda con el
lenguaje VRML y llevarlo a una especificación ordenada y rigurosa para su lectura
como XML, se obtiene la especificación X3D (Extensible 3D) que permite
implementación y desarrollo de entornos 3D con diferentes lenguajes de programación
en función script como por ejemplo Java que al utilizar las librerías de OpenGL crea
su framework Java 3D el cual adecuado a la especificación X3D genera Xj3D [15].
La jerarquía VRML/X3D utilizada para describir la composición geométrica no se
adapta bien a la descripción semántica, ya que fue concebida para el modelado de
realidad virtual y no para la descripción de alto nivel de una escena. La mayoría de las
investigaciones relacionadas con semántica de la notación de los entornos 3D se ha
centrado en el alto nivel de descripción de los objetos disponibles en la escena y/o la
descripción de alto nivel semántico de los objetos dada por la composición de los
objetos (por ejemplo, el nivel más alto ―semántica objeto habitación‖ se describe como
la suma de una serie de muros que son más bajos de la categoría semántica de
objetos). Si bien esa anotación es importante, carece de identificación explicita de las
particiones del espacio que se percibe como una unidad morfológica y se asignan a
usos específicos. Tales unidades morfológicas y funcionales son un elemento
fundamental para permitir a los usuarios construir un mapa mental del medio
ambiente, los usuarios de nivel inferior adjuntan objetos semánticos a esas particiones
y dicha asociación concede una manera preferencial de recordar los objetos [22].
La mayoría de ambientes 3D se caracterizan por que sus objetos son construidos
por elementos geométricos de bajo nivel como mallas poligonales o superficies
NURBS [2] y los autores realizan la asociación semántica compartiendo la percepción
de los visitantes hacia los objetos que componen el ambiente, infortunadamente
aunque los usuarios identifican las relaciones y asociaciones semánticas de objetos 3D,
no pueden deducir descripciones de alto nivel de información almacenada en 3D [1].
Las herramientas de moldeamiento 3D en su mayoría fueron concebidas para
permitir una secuencia sencilla de renders que permitan visualizar el modelo,
proporcionando medios limitados para dar una estructura a sus objetos 3D en relación
con su semántica. Además, actualmente las prácticas de modelado no estimulan la
connotación semántica de los objetos 3D, algunos todavía especifican limitadamente
oportunidades de notaciones como el manejo de capas, o el etiquetado de objetos, que
no es constantemente utilizado para el almacenamiento de una manera estándar de las
estructuras de alto nivel y lo presentan a otras personas como un resultado adicional
del trabajo de modelado.

232
La falta de un estándar de alto nivel para la descripción semántica de los elementos
de estos ambientes representa un inconveniente fundamental para el uso avanzado de
descripción de mundos 3D que requieren el conocimiento semántico de estos objetos.
Un rango de posibilidades de uso de ese conocimiento sería:
Los motores de búsqueda web, que procesan solicitudes formuladas en lenguaje
natural refiriéndose a características de alto nivel (ejemplo, encontrar los edificios que
tienen en su interior un patio rodeado de columnas.).
Extracción de objetos semánticos desde grandes archivos para facilitar el examen y
creación automática de bibliotecas de alto nivel que puedan ser utilizadas para crear
diferentes ambientes 3D.
La construcción de agentes de manufactura que por medio del reconocimiento de
las propiedades semánticas de los objetos puedan ensamblar nuevas estructuras
facilitando la construcción de entornos virtuales y potencializando su uso.
La descripción en alto nivel no solo es útil en los entornos virtuales 3D, sino que
incluye todo lo relacionado con la realidad mixta. (Por ejemplo una descripción de alto
nivel de un modelo virtual de un entorno real de mapas puede ayudar a la navegación
en una escena real o mixta al sumar los componentes reales y virtuales.) [22].
Para automatizar el ensamble de objetos 3D de diversa procedencia con el fin de
construir entornos de mayor nivel, es necesario contar con una ontología que defina las
características y relaciones semánticas del objeto de acuerdo a sus dimensiones,
propiedades físicas, identificación con el entorno y composición geométrica,
adecuándose a la especificación X3D, soportando la arquitectura de VRML y demás
estándares de facto propuestos por el W3C para la construcción de entornos virtuales.
Tim Berners-Lee ha denominado la web Semántica a aquella en las que la
búsqueda de contenidos se encuentre caracterizada y descrita de tal menara que pueda
diferenciar los distintos significados de las palabras, deducir e identificar existencia de
relaciones entre palabras sinónimas dependiendo del contenido temático, de manera
que los resultados de las búsquedas arrojen páginas útiles de acuerdo a la necesidad
de información solicitada aunque no se encuentre explicita las palabras introducidas en
la consulta, o que compare datos e información procedente de diversas fuentes y llegue
al punto de emitir juicios sobre la fiabilidad de los datos presentados en las diversas
páginas [4].
Para desarrollar de manera coherente el etiquetado de los contenidos web es
necesario la creación de ontologías sobre un dominio o área de conocimiento
especifico. Por consiguiente, las ontologías infieren directamente en la web semántica,
facilitando la definición formal de las entidades y conceptos presentes en el dominio
especificado, la jerarquía que lo sustenta y las relaciones que los unen entre sí.
Garantizando una representación formal, legible por las máquinas, basado en un
lenguaje común, que puede ser compartido y utilizado automáticamente por cualquier
sistema.
Al tomar como dominio los entornos virtuales de inmersión para la web, se puede
hacer la analogía de las páginas web, con los componentes de Objetos 3D, lo cual
sugiere que de igual manera se puede realizar una composición semántica a partir del
desarrollo de una ontología.
La construcción de Objetos 3D para la web con estructuración semántica, permitirá
su almacenamiento y reutilización para la construcción de entornos de inmersión
virtual complejos y de alto nivel [22].
La estructuración semántica de los objetos 3D para la web y de manera general,
requiere de una caracterización de sus propiedades, jerarquización de sus
componentes y una descripción formal de las relaciones de está jerarquía.
La tecnología 3D basa su construcción y desarrollo en una serie de primitivas
geométricas comunes a los lenguajes de programación que soportan este tipo de
tecnologías [13], por lo tanto este podría ser un punto de partida en pro de la
construcción de una semántica de la composición geométrica de entornos virtuales de
inmersión orientados a la web.
A partir de las consideraciones previas, la hipótesis de partida fue:
Se puede dar una estructuración semántica a la composición geométrica de
entornos virtuales de inmersión para la web por medio del desarrollo de una ontología
que integre y generalice la implementación de las primitivas geométricas de

233
construcción tridimensional de los distintos lenguajes orientados al desarrollo de la
web3D tomando como base la arquitectura propuesta por el estándar X3D.

De esta hipótesis de partida, se deriva el objetivo principal de la investigación


consistente en:
Desarrollar una ontología de la composición geométrica de los entornos virtuales de
inmersión para la web a partir de la estructuración, jerarquización y definición de
clases, de las primitivas geométricas tridimensionales implementadas en los lenguajes
de desarrollo 3D para la web, tomando como base la arquitectura propuesta por el
estándar X3D.
Este objetivo principal se vio cumplido con el desarrollo de los siguientes objetivos
específicos:

Identificar las primitivas gráficas generales y sus atributos en torno a la visualización


tridimensional.
Caracterizar, clasificar, jerarquizar y limitar los componentes geométricos, de un
objeto con base en las tecnologías identificadas y adecuarlas al estándar X3D.
Estructurar semántica y formalmente la composición geométrica 3D de una escena
orientada a la web.
Construir las relaciones y operaciones lógicas que permiten formalizar la semántica de
la composición geométrica 3D.
Desarrollar en lenguaje OWL la ontología que permita la integración de objetos para
la construcción de un nuevo objeto o de una escena 3D.

Extensible 3D se fundamenta en la búsqueda de una especificación para construir


ambientes interactivos 3D, parte de la tecnología XML (Extensible Markup Language)
que surgió en 1996 incorporando un subconjunto del estándar SGML (Standard
Generalized Markup Language) diseñado para permitir el intercambio de información
entre distintas plataformas, soportes físicos, lógicos y diferentes sistemas de
almacenamiento y presentación (bases de datos, edición electrónica, etc.), con
independencia de su grado de complejidad. Con la especificación XML 1.0 se presenta
un tipo especial para la definición de documentos denominado DTD (Document Type
Definition) Los DTDs fueron diseñados para sistemas centrados en documentos, y son
apropiados para aplicaciones de publicación electrónica SGML. Sin embargo, tiene
limitantes al aplicarse a ambientes de desarrollo de software modernos. Las limitantes
más importantes tienen que ver con que el DTD en sí no cumple con el estándar XML
mismo, y que los DTDs no soportan el concepto de ―namespaces‖, tampoco el
concepto de tipos de datos usados en lenguajes de programación (como string, integer,
etc.) y tampoco la definición de tipos de acuerdo a las necesidades del cliente, debido
a estas limitantes surge XML Schema. XML Schema, a diferencia de DTDs, es un
vocabulario basado en XML para describir instancias de documentos XML. Un
―schema‖ describe una clase de documentos, del cual puede haber varias instancias. La
relación es parecida a la que hay entre clases y objetos en los sistemas orientados a
objetos. Una clase está relacionada con un objeto de la misma forma que un schema a
un documento XML. La mayor ganancia al establecer una especificación para la
construcción de documentos se encuentra en la existencia de un árbol etiquetado,
ordenado y normalizado [24].
X3D se encuentra estandarizado por la norma ISO 19775 de 2004 compuesto por dos
partes la primera presenta y detalla los componentes bases y la arquitectura de X3D
mientras que la segunda profundiza en la interfaz de acceso a la escena, ha sido
complementada con 3 normas más, la primera es la norma ISO 19776 de 2005 en la
cual se especifican la codificación de los campos, los nodos y los escenarios en VRML
generados a partir de XML Schema, la segunda norma es la ISO 19777 de 2005 que
presenta un formato para la construcción de servicios interactivos con las escenas 3D a
partir del formato ECMAScript el cual es base para los lenguajes JavaScript de
Netscape y ActionScript de Adobe y en la segunda parte de esta norma presenta el
formato para la construcción a partir del lenguaje Java de SUN Microsystems,
finalmente lo complementa el estándar ISO 19774 nombrado Humanoid Animation
que es una representación abstracta para el modelado tridimensional de figuras

234
humanas, los cuales pueden ser creadas con herramientas de modelación mediante
captura de movimiento de datos [17].
Un mundo X3D se define conceptualmente como una secuencia de estados
organizados como un archivo. El primer tema en el archivo es la declaración de la
cabecera. El segundo tema en el archivo es la declaración del perfil. El perfil
declarado puede ser seguido de uno o más estados componente. El resto del archivo se
construye de los demás elementos que se definen en la norma ISO 19775 como son el
componente núcleo, el componente de tiempo, el componente de render, el
componente de geometría 3D, el componente de geometría 2D, el componente de
textura, el componente de sensores de tecla, el componente de ambiente, el
componente de navegación, el componente de Humanoid animation y el componente
de Script entre otros.
Cualquier otro contenido X3D cargado en la escena en línea a través de nodos o
escenas utiliza createX3DFromStream o createX3DFromUrl, que serán declarados de
acuerdo al conjunto de funcionalidades requeridas en el perfil, lo que implica que un
componente no se puede declarar explícitamente o implícitos en el contenido del perfil
ya que se parte de las funcionalidades requeridas [17].
El recorrido y reconocimiento a través del browser que hace de la escena gráfica un
usuario en X3D es similar al que se hace en VRML por medio de eventos y sensores
entre los objetos geométricos y nodos de la escena. X3D adhiere la interfaz de acceso
a la escena conocido como SAI (Scene Access Interface) El SAI es una interfaz común
que puede ser utilizada ya sea para manipular el browser y la escena por medio de una
aplicación externa o dentro de la escena a través de módulos tipo Script. Sin embargo,
no es posible que el código escrito para una aplicación externa pueda ser utilizado
inmediatamente como un script debido a las limitaciones que puede tener dicho código
externo y las diferencias frente a la interfaz de programación unificada que ofrece SAI
[18].
Toda implementación compatible con X3D debe tener como mínimo los siguientes
componentes básicos:
Tipos de campos X3D heredados del tipo abstracto X3DField que van a tener como
nombres SFXXXX que solo podrán contener un único valor indicado por el nombre
del campo.
La base abstracta de nodos tipo X3DNode y X3DPrototypeInstance.
Interfaces de uso común como X3DBindableNode y X3DUrlObject.
Tipos de servicios públicos tales como X3DRoute y X3DScene que sólo están
disponibles para interfaces de aplicaciones programadas para secuencias de comandos
y de acceso al exterior.

X3D para modelado y enrutamiento.


Estructura de archivos abstractos.
Prototipos.

Los componentes básicos podrán apoyarse en una variedad de niveles, que permiten
una serie de implementaciones compatibles con la arquitectura X3D teniendo en
cuenta los modelos de objetos y de eventos [17].
Varios nodos X3D tales como TextureBackground, Fog, NavigationInfo y Viewpoint
son nodos bindable que heredan del nodo abstracto X3DBindableNode. Estos nodos
tienen el comportamiento particular de que sólo uno de cada tipo puede afectar la
experiencia del usuario en cualquier instante en el tiempo. El browser se mantendrá en
un estado independiente en una pila separada tipo nodo bindable teniendo en cuenta
que cada uno incluirá un campo set_bind inputOnly y un campo isBound outputOnly.
El campo set_bind inputOnly se utilizara para mover un nodo hacia y después de la
parte superior de su pila respectiva por medio de la asignación de un valor TRUE pero
si se le envía un valor FALSE lo elimina de la pila, el evento isBound de salida se da
cuando un nodo:

Se traslada de la parte superior de la pila.


Es eliminado de la parte superior de la pila.
Enviado a la parte inferior de la pila por otro nodo que se encuentre superior a él.

235
En la norma ISO 19775 se define una interfaz abstracta X3DMetadataObject que
identifica como un nodo contiene los metadatos que especifican los valores de
diversos tipos de datos. Los metadatos son información que se asocia con los objetos
del mundo X3D, pero no es parte directa de la representación del mundo. La norma
específica los tipos de datos para los metadatos los cuales pueden ser de tres tipos
String, floats de una sola precisión y de doble precisión y enteros. Cada metadato tiene
dos datos tipo String adicionales que describen:

El estándar de metadatos.
El identificador para el metadato.

El nodo MetadataSet es un tipo especial de dato si se da el caso de que un conjunto


específico de metadatos requiere algo más que un solo tipo de datos [17].
En el apartado numero 11 de la norma ISO 19775 se describe el Renderizado de
componentes. Incluye la prestación fundamental de primitivas de render como
TriangleSets y PointSets, y las propiedades geométricas de los nodos que definen
cómo coordinar los índices, los colores, normales y coordenadas de textura. El nodo
TriangleSet estructura la forma en que se representa cada uno de los triángulos en
X3D.
El campo coord contiene un nodo de coordenadas que definen los vértices 3D que
definen el triángulo. Cada triángulo está formado por consecutivos de un conjunto de
tres vértices. Si el nodo de coordinar no contiene un conjunto de tres valores, los
vértices restantes no se tendrán en cuenta.

Fig. 2. Nodo TriangleSets [17].


La figura 1 representa un nodo TriangleSet con varios triángulos. El orden de los
vértices se muestra donde uno de ellos apunta a un vértice de la pirámide y los vértices
3 y 14 quedan ocultos [17].

La visualización de objetos en un escenario X3D se logra debido a la aplicación de


los principios físicos teóricos de la dispersión y la reflexión de la luz estableciendo un
componente especifico de iluminación el cual permite la asignación de las propiedades
de color en RGB e intensidad que varían entre o y 1 a cada nodo emisor y receptor de
luz. En el campo se especifica si la luz está activada o desactivada. Si el valor es
FALSE, entonces la luz se desactiva y no afectará a ningún nodo en la escena. Si el
valor es TRUE, entonces la luz afectará a otros nodos de acuerdo al alcance
establecido [17].

2 Metodología

Methontology desarrollado en la Universidad Politécnica de Madrid. Propone un ciclo


de vida de construcción de la ontología basado en prototipos evolutivos, porque esto
permite agregar, cambiar y renovar términos en cada nueva versión. Para cada

236
prototipo, el proceso consta de los siguientes pasos esenciales:

1. Especificación: Consiste en delimitar los objetivos de su creación (compartir


información entre personas o por agentes software; permitir la reutilización del
conocimiento de un dominio; hacer explícitas las suposiciones que se efectúan en un
dominio; separar el conocimiento del dominio del conocimiento sobre su fabricación o
forma de operación; o simplemente analizar el conocimiento del dominio), decidir el
dominio de actuación de la ontología (para no modelar objetos poco relevantes en
perjuicio de otros más importantes), quién la usará y para qué, las preguntas a las que
deberá responder (ayuda al establecimiento de las dos anteriores), y quién se encargará
de su mantenimiento (decidiendo si se limitará a introducir nuevas instancias, se
permitirá la modificación de conceptos o atributos, etc.)
2. Conceptualización: Consiste en crear un glosario de términos que pertenecen al
dominio, definirlos y crear una taxonomía (estableciendo una clasificación o jerarquía
entre los conceptos, sus niveles, las relaciones entre ellos, sus instancias, sus
propiedades o atributos, e igualmente los axiomas o reglas).
3. Formalización: Proceso consistente en convertir el modelo anterior en un modelo
formal o semi computable. Se puede emplear en este paso una herramienta como
Protégé.
4. Implementación: Convierte el modelo formalizado en un modelo computable
mediante un lenguaje para construcción de ontologías. Se puede emplear en este paso
una herramienta como Protégé.
5. Mantenimiento: Labor que puede acarrerar desde el borrado de instancias ya
inútiles o la incorporación de nuevas instancias que se han ido produciendo con el
tiempo, hasta las tareas de introducción de cambios en el contenido de la información,
ya sea redefiniendo atributos, relaciones o incluso conceptos.

Fig 2. Tareas de desarrollo de ontologías propuestas por METHONTOLOGY [8]

2.1 Ontología propuesta

Un entorno virtual crea un escenario gráfico, que de acuerdo a lo presentado en la


jerarquía puede ser interno o externo, determinado por los objetos que lo componen.
Un escenario gráfico se crea a partir de objetos dinámicos. El escenario gráfico está
ensamblado desde objetos que definen la geometría, los sonidos, las luces, la
localización, la orientación y la apariencia de los objetos visuales y sonoros
Una definición común de un escenario gráfico es una estructura de datos compuesta
de nodos y arcos. Un nodo es un elemento dato y un arco es una relación entre

237
elementos datos. Los nodos en un escenario gráfico son las clases de objetos. Los
arcos representan dos tipos de relaciones entre ejemplares de objetos.
La relación más común es padre-hijo. Un nodo dinámico puede tener cualquier
número de hijos, pero sólo un padre. Un nodo estático sólo puede tener un padre y no
puede tener hijos. La otra relación es una referencia. Una referencia asocia un objeto
semanticObjeto con un nodo del escenario gráfico. Los objetos primitiva Objeto
definen la geometría y los atributos de apariencia usados para visualizar los objetos.
Un escenario gráfico está construido de objetos nodos con relaciones padre-hijo
formando una estructura de árbol. En una estructura de árbol, un nodo es la raíz. Se
puede acceder a otros nodos siguiendo los arcos desde el raíz. Los nodos de un árbol
no forman bucles. Un escenario gráfico está formado desde los árboles con raíces en
los objetos coordenada. Los semanticObjeto y las referencias a arcos no forman parte
del escenario gráfico.
Sólo existe un camino desde la raíz de un árbol a cada una de los nodos estáticos;
por lo tanto, sólo hay un camino desde la raíz hasta el escenario gráfico de cada nodo
estático. El camino desde la raíz de un escenario gráfico hasta nodo estático
especificado es el camino al escenario gráfico del nodo estático. Como un camino de
un escenario gráfico trata exactamente con un solo nodo estático, hay un camino de
escenario gráfico para cada nodo estático en el escenario.
Todo camino de escenario gráfico en un escenario gráfico especifica
completamente la información de estado del nodo estático. Esta información incluye,
la localización, la orientación y el tamaño en referencia del objeto. Consecuentemente,
los atributos visuales de cada objeto dependen sólo de su camino de escenario gráfico.
El pipeline de visualización se aprovecha de este hecho y visualiza los nodos estáticos
en el orden más eficiente.
Las representaciones gráficas de un escenario gráfico pueden servir como
herramienta de diseño o documentación para las construcciones 3D. Los escenarios
gráficos se dibujan usando símbolos gráficos estándar como se ilustra en la Figura 3.
Para diseñar un Entorno se dibuja un escenario gráfico usando un conjunto de
símbolos estándar. Después de completar el diseño, este escenario gráfico es la
especificación para el programa. Después de completar el programa, el mismo
escenario gráfico es una representación concisa del programa.

Fig 3 Símbolos estándar de construcción

Cada uno de los símbolos mostrados al lado izquierdo de la Figura 3 representa un


sólo objeto cuando se usa en un escenario gráfico. Los dos primeros símbolos
representan objetos de clases específicas: Entorno y Coordenada. Los siguientes tres
símbolos de la izquierda representan objetos de las clases dinámico, primitiva, y
semanticObjeto. Estos tres símbolos normalmente tienen anotaciones para indicar la
subclase del objeto específico. El último símbolo se usa para representar otras clases
de objetos.
Para la composición de la ontología teniendo en cuenta la arquitectura de
composición de un entorno, en primer lugar, es necesario construir un glosario de
términos que incluye todos los términos relevantes del dominio (conceptos, instancias,
atributos, relaciones entre conceptos, etc.), su descripción en lenguaje natural, y sus

238
sinónimos. La tabla 1. Muestra parte del glosario de términos de la ontología de
composición geométrica. Estos términos fueron extraídos de las primitivas gráficas
consideradas en esta investigación.

Tabla 1. Glosario de términos

NOMBRE SINONIMO DESCRIPCIÓN TIPO

intersección de dos vector de ejes x.y,


punto --------------------- líneas z

---------------------
coordenadas de define un punto (0,0,0) vector de ejes x.y,
referencia en el espacio z
vector de ejes x.y,
eje de referencia --------------------- vector de posición z
distancia entre dos matriz con 3
línea --------------------- puntos columnas

figura --------------------- matriz multilineal


Estructura geométrica
bidimensional

árbol de
Objeto estático ---------------------
Estructura geométrica construcción
tridimensional
matriz con 2
cónicas --------------------- función cuadrática columnas
matriz con 2
spline --------------------- función polinómica columnas
matriz con 2
polígono --------------------- figura cerrada columnas
matriz con 3
poliedro --------------------- Polígono espacial columnas

función cuadrática matriz con 3


superficies
espacial compuesto por columnas
--------------------- figuras spline

Objeto árbol de
---------------------
Dinámico Estructura geométrica construcción
tridimensional
funciones de matices
objetos blobby --------------------- probabilidad multilineales
función polinómica matriz con 3
splines de Bézier --------------------- espacial columnas
matriz multilineal
Cualquier cosa en el
Objeto --------------------- u árbol de
espacio
construcción

matriz de
Entorno ---------------------
Objeto de contenedor de movimiento
entornos gráficos
Escenario Entorno limitado por árbol de
interior --------------------- paredes construcción
Escenario Entorno limitado por árbol de
exterior --------------------- paisaje construcción

239
2.2 Taxonomía de Conceptos

Una vez construido el glosario de términos es necesario construir las taxonomías de


conceptos que definen su jerarquía. Methontology propone utilizar las cuatro
relaciones taxonómicas definidas en la Frame Ontology [10] y en la OKBC Ontology
[6]: Subclase-de, Descomposición-Disjunta, Descomposición-Exhaustiva, y Partición.

2.3 Relaciones binarias ad-hoc

Una vez construida y evaluada la taxonomía, la actividad de conceptualización


propone construir diagramas de relaciones binarias ad hoc. El objetivo de este
diagrama es establecer las relaciones ad hoc existentes entre conceptos de la misma o
de distintas taxonomías de conceptos. La figura 5 presenta un sección del diagrama de
relaciones binarias de la ontología de composición geométrica, con las relaciones ―está
compuesta por‖ y ―compone a‖. Estas relaciones conectan dos conceptos de dos clases
diferentes. La ontología debe verificar que el origen y destino de todas las relaciones
delimitan con exactitud y precisión los conceptos apropiados.

2.4 Propiedades de conceptos

Una vez que la taxonomía de conceptos y los diagramas de relaciones binarias ad hoc
han sido generados, se debe especificar cuáles son las propiedades que describen cada
concepto de la taxonomía, así como las relaciones identificadas en el diagrama
anterior y las instancias de cada uno de los conceptos. El diccionario de conceptos
contiene todos los conceptos del dominio, sus relaciones, sus instancias, y sus atributos
de clase y de instancia. Las relaciones especificadas para cada concepto son aquéllas
en las que el concepto es el origen de la misma. Por ejemplo, el concepto punto es el
origen de dos relaciones ad hoc: se compone de y su baricentro se localiza en. Las
relaciones y los atributos de instancia y de clase son locales a los conceptos, lo que
significa que sus nombres pueden ser repetidos en diversos conceptos. La tabla 2
muestra una sección parte del diccionario de conceptos de la ontología de composición
geométrica.

Fig 4. Taxonomía de conceptos geométricos.

240
Fig 5. Diagramas de relaciones binarias ad hoc.

Tabla 2. Sección del diccionario de conceptos de la ontología de composición


geométrica.

ATRIBUTOS ATRIBUTOS DE
CONCEPTO INSTANCIAS DE CLASE INSTANCIA RELACIONES

escala
ubicación
cubo caras
poliedro tetraedro vértices compone a
octaedro aristas
dodecaedro
icosaedro

coordenada x localiza a
punto coordenada y centra a
coordenada z es rotado por
se traslada a

Posición centro
círculo posición foco
cónica compone a
elipse radio
directriz

parábola directriz
spline compone a
hipérbola posición foco
escala
triangulo ubicación
cuadrilátero caras
polígono compone a
pentágono vértices
hexágono aristas

Una vez construido el diccionario de conceptos se debe describir las relaciones


binarias ad hoc, lo cual tiene como objetivo describir en detalle todas las relaciones
binarias ad hoc identificadas en el diagrama de relaciones binarias e incluidas en el
diccionario de conceptos. Para cada relación binaria ad hoc, se debe especificar su
nombre, los nombres de sus conceptos origen y destino, su cardinalidad y su relación
inversa, si existe. La tabla 3 muestra una sección de la tabla de relaciones binarias ad

241
hoc de la ontología de conceptualización geométrica que contiene la definición de las
relaciones compuesta por y compone a.

Tabla 3. Sección de la tabla de relaciones binarias de la ontología de composición


geométrica
Nombre de la Concepto Cardinalidad Concepto Relación
relación origen máxima destino inversa

compuesta por recta N puntos compone a


compone a punto N rectas compuesta por

Luego de la descripción de las relaciones binarias se debe describir los atributos de


instancia, que tiene como objetivo describir en detalle todos los atributos de instancia
incluidos en el diccionario de conceptos. Cada fila de la tabla de atributos de instancia
contiene la descripción detallada de un atributo de instancia. Los atributos de instancia
describen a las instancias del concepto y sus valores pueden ser distintos para cada una
de dichas instancias. Por cada atributo de instancia, se debe especificar su nombre, el
concepto al que el atributo pertenece (los atributos son locales a los conceptos), su tipo
de valor, su rango de valores (en el caso de atributos numéricos), y sus cardinalidades
mínima y máxima. La tabla 4 muestra una sección de la tabla de atributos de instancia
de la ontología de composición geométrica. En el caso de atributos cuyo tipo de valor
es numérico, se suele integrar alguna ontología de unidades de medida. Este es un
ejemplo de cómo Methontology propone integrar ontologías durante la actividad de
conceptualización, y no posponer dicha integración para la actividad de
implementación de la ontología.

Tabla 4. Sección de la tabla de atributos de instancia de la ontología de composición


geométrica
Nombre del atributo de Tipo de Rango de
Concepto Cardinalidad
instancia Valor Valores

caras poliedro entero 1… (1,1)


vértices poliedro entero 1… (1,1)
aristas poliedro entero 1… (1,1)

De igual manera como se han descrito los atributos de instancia se deben describir
los atributos de clase. Para cada atributo de clase, la ontología debe tener: nombre del
atributo, nombre del concepto donde el atributo se define, tipo de valor, cardinalidad y
valor(es). Por ejemplo, los atributos de clase coordenada x, coordenada y y
coordenada z definirían el concepto de punto, así como se presenta en la tabla 5.

Tabla 5. Sección de la tabla de atributos de clase de la ontología de composición


geométrica
Nombre del atributo
Concepto Tipo de valor Cardinalidad Valores
de clase

coordenada x punto coma flotante (1,n) R


coordenada y punto coma flotante (1,n) R
coordenada z punto coma flotante (1,n) R

Una vez realizada toda la conceptualización, es necesario definir los axiomas


formales, Para cada definición de axioma formal, Methontology propone especificar el
nombre, descripción en lenguaje natural, expresión lógica que define de manera formal
el axioma usando lógica de primer orden, y los conceptos, atributos y relaciones ad

242
hoc utilizadas en el axioma, así como las variables utilizadas. La tabla 6 muestra un
axioma formal de la ontología de ontología de composición geométrica, que establece
que ―un objeto estático se compone de poliedros, objetos blobby y superficies‖. Las
columnas que corresponden a conceptos y relaciones ad hoc referidas que contienen
los conceptos y relaciones utilizados en la expresión formal del axioma. Asimismo, las
variables utilizadas son ?X para objeto, ?Y para poliedro ?Z para blobby y ?w para
superficies.

Tabla 6. Sección de la tabla de axiomas formales de la ontología de composición


geométrica.
Nombre del
Descripción Expresión Conceptos Relaciones Variables
axioma

objeto
Existe
Un objeto estatico se estatico ?X
(poliedro(?X),blobby(?Y),sup
Composición de compondra de poliedro forma parte de ?Y
erficie(?Z))y
objeto estático poliedros, objetos objeto compuesto por ?W
todo(objeto(?W)si y solo si
blobby y superficies blobby ?Z
?W=?X+?Y+?Z)
superficie

Una vez que el modelo conceptual de la ontología ha sido creado, se pueden definir
las instancias que aparecen en el diccionario de conceptos. Para cada instancia se
define: su nombre, el nombre del concepto al que pertenece y los valores de sus
atributos de instancia, si se conocen. La tabla 7 presenta algunas instancias de la tabla
de instancias de la ontología de de composición geométrica: tetraedro, hexaedro y
dodecaedro. Todas ellas son instancias del concepto poliedro, tal y como se definió en
el diccionario de conceptos, y tienen valores definidos para algunos de los atributos
caras, polígono que lo forma, aristas y vértices. Estas instancias podrían tener más de
un valor para los atributos cuya cardinalidad máxima es mayor que uno.

Tabla 7. Sección de la tabla de instancias de la ontología de composición geométrica.


Nombre de la instancia Nombre del concepto Atributo Valores
caras 4
polígono triangulo
tetraedro poliedro
aristas 6
vértices 4
caras 6
polígono cuadrado
hexaedro poliedro
vértices 8
aristas 12
caras 12
polígono pentágono
dodecaedro poliedro
vértices 20
aristas 30

Una clase dentro de una ontología es una descripción formal de una entidad del
universo que se quiere representar. Constituye la pieza básica de estructuración del
conocimiento. Teniendo en cuenta la taxonomía desarrollada, las clases fundamental
de un entorno virtual de inmersión es la clase objeto, la figura 6 presenta la
codificación en RDF de la clase Objeto:

243
Fig 6. Definición en RDF de la Clase Objeto

La sintaxis de la clase Objeto en OWL, se presenta en la figura 7.

Fig 7. Sintaxis de la clase objeto

Las propiedades son las características que permite describir más detalladamente la
clase y sus instancias. Establece que la clase o concepto posee una propiedad que se
concretará mediante un valor. Los valores de las propiedades o atributos pueden ser
tipos básicos como cadenas de caracteres o números, pero también pueden ser otras
clases o instancias. Teniendo en cuenta el diagramas de relación binaria, la propiedad
de: ―define localización de” se codifica en RDF de acurdo a como lo presenta la figura
8.

Figura 8. Definición en RDF de la propiiedad ―Define Localizacón‖.

244
3 Conclusiones

Durante el desarrollo de la presente investigación se pretendió hacer una relación entre


la construcción semántica de un objeto 3D y su conceptualización de acuerdo a la
geometría euclidiana que lo compone, teniendo en cuenta las primitivas gráficas
identificadas por la computación gráfica hasta el momento. Este trabajo aporta los
siguientes resultados originales:

 Arquitectura de composición semántica de un escenario gráfico. Cualquier


escenario gráfico tiene una estructura genérica, sobre la ubicación y significancia
de los objetos que lo componen por lo cual es necesario mantener cierta
rigurosidad en cuanto a las propiedades de los objetos que lo componen.
 Diccionario de términos para delimitar los entornos virtuales de inmersión.
Topológicamente una circunferencia y un cuadrado son iguales debido a que
pertenecen al plano bidimensional y son figuras convexas, lo cual permite hacer
una relación entre un objeto como el pentágono y el dodecaedro a partir de las
relaciones e instancias que pueda haber.
 Taxonomía de la composición geométrica de un entorno virtual de inmersión. A
partir del diccionario de términos generado, existen unas relaciones de clase, unas
descomposiciones disjuntas y exhaustivas por las subclases que la componen, la
presente investigación propone una taxonomía basada en la jerarquía propuesta.

La categorización de los objetos constitutivos de un entorno 3D a partir de su


morfología geométrica y de los elementos que componen objetos de mayor nivel, es
insuficiente para aquellos objetos que logran su visualización gracias al uso avanzado
se shaders o sombras, en donde se hace necesario elevar el nivel de categorización a la
geometría euclidiana que se ha contemplado, se propone tener en cuenta la geometría
fractal y la composición topológica de los objetos.
El desarrollo de una ontología de composición geométrica para la web 3D
buscando automatizar los desarrollos se queda corta frente a la complejidad de
cualquier escenario, por lo tanto es necesario que dicha ontología incluya nuevos
criterios de agrupación de conceptos como las relaciones entre los objetos y el
entorno, la relación con los seres humanos, una definición topológica de un escenario
a partir no solo de su composición geométrica sino de la relación con la realidad como
lo propone Pitarello [22].

Referencias

1. ALPCAN T., BAUCKHAGE C., KOTSOVINOS E.; ―Towards 3D Internet: Why, What
and How?‖; Proceedings of the Cyberworlds, 2007. CW`07.International Conference on,
Hannover, October, 2007, IEEE, pp. 95-99, ISBN: 978-0-7695-3005-5
2. ANGEL E.; ―Interactive Computer Graphics: A top-Down Approach Using OpenGL‖;
Addison Wesley, University of New Mexico, 2008, pp. 125-634, ISBN 978-03-2153-5863
3. BENMRAD M., ―First International conference on the World-Wide Web‖; ACM SIGWEB
Newsletter, Volume 3, Issue 2, New York, September, 1994, ACM, pp. 14-15, ISSN: 1931-
1745
4. BERNERS-LEE T., HENDLER J., LASSILA O.; ―The Semantic Web‖; Scientific
American Magazine, abril, 2001. http://www.scientificamerican.com/article.cfm?id=the-
semantic-web&print=true [Consulta 15/06/2009] [Última Actualización Desconocida]
5. BRADBERRY J.; ―Computer graphics environments‖; Sams Publishing, Carmel, 1993, pp.
54-326, ISBN 0672303051
6. CHAUDHRI V., FARQUHAR A., FIKES R., KARP P., RICE J.; ―Open Knowledge Base
Connectivity 2.0.3‖.; Atificial Intelligence Center, SRI International; Knowledge Systems
Laboratory; Stanford University; April 9, 1998; http://www.ai.sri.com/~okbc/okbc-2-0-
3.pdf http://www.scientificamerican.com/article.cfm?id=the-semantic-web&print=true
[Consulta 11/08/2009] [Última Actualización Desconocida]
7. CONTRERAS J., MARTÍNEZ J; ―Tutorial ontologias‖; Universidad Complutense de
madrid, 2008, http://www.sedic.es/gt_normalizacion_tutorial_ontologias.pdf [Consulta
10/07/2009] [Última Actualización Desconocida]

245
8. CORCHO O., FERNANDEZ M, GOMEZ A., LOPEZ A.; ―Construcción de ontologías
legales con la metodología METHONTOLOGY y la herramienta WebODE‖; Facultad de
Informática. Universidad Politécnica de Madrid, 2004,
http://fuencarral.dia.fi.upm.es:8080/114/1/CL08_NonPublishedYet.pdf [Consulta
10/08/2009] [Última Actualización Desconocida]
9. ESCRIBANO M., ―Programación de Gráficos 3D”, Addison Wesley, Madrid, 1994, pp.
56-87, ISBN: 9788478971565
10. FARQUHAR A., FIKES R, RICE J.; ―The ontolingua server: a tool for collaborative
ontology construtction‖; Knowledge Systems Laboratory, Stanford University, 1997,
http://www.eda.org/rassp/documents/atl/KSL_96a.pdf [Consulta 08/08/2009] [Última
Actualización Desconocida]
11. FOLEY J., ―Computer graphics: principles and practice”, Addison Wesley, Boston,
Massachusetts, 1990, pp. 123-756, ISBN: 0201121107
12. GOMÉZ A.; ―Evaluation of ontologies‖; Proceedings of International Journal of Intelligent
Systems: Validation Issues in Databases, Knowledge-Based Systems, and Ontologies ,
Columbia, Maryland, February, 2001, Wiley Company, pp. 391-409, ISSN: 1740-8873
13. HEARN D., BAKER P.; ―Computer Graphics with OpenGL‖; Prentice Hall, Bloomington,
2005, pp. 84-546, ISBN 978-84-205-3980-5
14. HILERA J., OTÓN S., MARTÍNEZ J.; “Realidad Virtual en Internet con VRML”;
Universidad de Alcalá, 2000, pp. 71-181, ISBN: 84-8138-413-5.
15. HUDSON A.. ―An introduction to the Xj3D toolkit”. Proceedings of the eighth international
conference on 3D Web technology, Saint Malo, France ACM. pp. 190. ISBN: 1-58113-644-
7
16. ISO/IEC 14772-1:1997. ―The Virtual Reality Modeling Language (VRML)‖ Functional
specification and UTF-8 encoding. Web3D Consortium International Electrotechnical
Commmission. Cambridge, Massachusetts.
http://www.web3d.org/x3d/specifications/vrml/ISO-IEC-14772-RML97/ [Consulta
15/05/2009] [Última Actualización Desconocida]
17. ISO/IEC 14772-2:2004. ―The Virtual Reality Modeling Language (VRML) External
authoring interface (EAI)‖. International Web3D Consortium Electrotechnical
Commmission. Cambridge,
Massachusetts.http://www.web3d.org/x3d/specifications/vrml/ISO-IEC-14772-
VRML97/#ISO_IEC_14772Part2 [Consulta 25/06/2009] [Última Actualización
Desconocida]
18. ISO/IEC 19775-2:2004. “Extensible 3D (X3D) — Part 2: Scene access interface (SAI)”.
International Web3D Consortium Electrotechnical Commmission. Cambridge,
Massachusetts. http://www.web3d.org/x3d/specifications/ISO-IEC-19775-
X3DAbstractSpecification_+_Amendment1_to_Part1/Part02/SAI.html [Consulta
25/06/2009] [Última Actualización Desconocida]
19. ISO/IEC 19777-2 :2005. Extensible 3D X3D Language Part 2: Java. International Web3D
Consortium Electrotechnical Commmission. Cambridge, Massachusetts.
http://www.web3d.org/x3d/specifications/ISO-IEC-19774-HumanoidAnimation/ [Consulta
2/04/2009] [Última Actualización Desconocida]
20. JIMÉNEZ E., PEREZ M., MARTÍNEZ E.; ―Escenarios Virtuales Web3D: Simulación con
VRML, Java3D y X3D‖ Libro de actas de XVII Congreso Internacional INGEGRAF,
Sevilla, Junio, 2005, INGEGRAF, ISBN: 84-923253-3-X
21. KALYANPUR A., PARSIA B., SIRIN E., HENDLER J.; ―Hypermedia Inspired Ontology
Engineering Environment: Swoop‖; Department of Computer Science, University of
Maryland, MIND LAB, Baltimore, July, 2004: http://www.mindswap.org/papers/SWOOP-
Poster.pdf [Consulta 21/07/2009] [Última Actualización Desconocida]
22. PITTARELLO F., FAVERI A.; ―Semantic description of 3D environments: a proposal
based on web standards‖; Proceedings of the eleventh international conference on 3D web
Technology, Columbia, Maryland, April, 2006,ACM, pp. 85-95, ISBN: 1-59593-336-0
23. RUSSELL S., NORVING P.; “Artificial Intelligence: A Modern Approach”; Prentice Hall,
Los Angeles C.A., 2003, pp. 271-411, ISBN: 0-13-790395-2
24. SKONNARD A.; “The XML Files: A Quick Guide to XML Schema” MSDN Magazine
http://msdn.microsoft.com/en-us/magazine/cc302086.aspx [Consulta 15/04/2009] [Última
Actualización 04/2002]

246
Implementación de Plataformas Virtuales basadas
en Cloud Computing

Luis Eduardo Cano 1, Dr. Luis Joyanes 1, Dr. José Nelson Pérez 2
1
Facultad de Informática, Universidad Pontificia de Salamanca (UPSAM)
28040, Madrid, España
2
Grupo de Investigación GICOGE, Universidad Distrital Francisco José de Caldas
(UDFJC)
1425, Bogotá, Colombia
{luiseduardocano, joyanes, jnperezc}@gmail.com

Resumen: Este paper muestra cómo se puede trabajar con sistemas


operativos orientados al Cloud Computing a través de la virtualización,
en especial, cuando no se cuenta con una infraestructura tecnológica
física. Así como el uso de herramientas informáticas que pueden ofrecer
el servicio de Cloud Computing a un sistema operativo, enfocadas al
software libre o de código abierto.

Palabras Claves: Computación en la Nube, GNU/Linux,


Virtualización, Sistemas Operativos.

Abstract: This paper shows how you can work with operative systems
aimed at cloud computing through virtualization, especially when there
is no physical technological infrastructure. And the use of computer
tools that can provide service of Cloud Computing to an operating
system, aimed to free software or open source.

Keywords: Cloud Computing, GNU/Linux, Virtualization, Operative


Systems

1 Introducción

Hace unos años era popular un modelo tecnológico llamado Redes de Valor Agregado
(Value-Added Networks - VAN), el cual consistía en una forma en que los vendedores
rentaban circuitos entre las ciudades combinándolos con una red de conmutación de
paquetes, los cuales estaban basados en el volumen de mensajes o la cantidad de
tiempo de uso, y eran vendidos a los usuarios [13]. Cuando los vendedores
identificaron algunas de las necesidades de los usuarios, les ofrecieron servicios
adicionales como el correo electrónico (Electronic Mail – E-Mail), el intercambio de
datos electrónicos (Electronic Data Interchange – EDI), la teleconferencia,
videoconferencia y otras características de seguridad, siendo popular en el caso
colombiano Telegan (Telecomunicaciones Ganaderas S.A) del antiguo Banco
Ganadero, y que con el paso de los años y el surgimiento de Internet y las nuevas
formas de comunicaciones móviles han hecho desaparecer dicho esquema de
comunicación y de renta.
Hoy en día, escuchamos términos nuevos como Software como un Servicio
(Software as a Service - SaaS), Infraestructura como un Servicio (Infrastructure as a
Service - IaaS), Plataforma como un Servicio (Plataform as a Service - PaaS), salidos
de la necesidad de las empresas de acceder a sus soluciones con una mayor velocidad
y desempeño pagando únicamente el servicio que necesitan. Dando origen al concepto
de ―computación en la nube‖ (Cloud Computing), y que en resumen consiste en un
modelo de prestación de servicios tecnológicos.
Pensar en un modelo como estos permite tener acceso a la información de una

247
manera descentralizada de forma permanente y que esté disponible e independiente de
la tecnología que se utilice, en donde el proveedor de dicho servicio sea el encargado
de la obsolescencia de dicha tecnología. Sin embargo, implementar una infraestructura
es costosa y lo que se conoce es muy poco pese a que existen empresas que están
ofreciendo productos basados en Cloud Computing como Movistar, Microsoft,
Google, entre otros. E incursionar en un campo como éstos para conocer, investigar e
implementar su estructura y funcionamiento no es del todo fácil, porque los equipos
deben contar con una serie de características técnicas tanto de hardware como de
software.
Para comprender un poco mejor en qué consiste el Cloud Computing, vamos a
utilizar la definición dada por NIST [8] (Véase Fig. 1).
El Cloud Computing es un modelo que permite el acceso bajo demanda a unos
recursos compartidos de cómputo, (por ej. redes, servidores, almacenamiento,
aplicaciones y servicios) que pueden ser rápidamente tomados y liberados con una
mínima administración e interacción del prestador de servicios. Ofreciendo
características esenciales como tener: Amplio acceso a la red, elasticidad y rapidez,
servicio supervisado y autoservicio a la carta. [8]
Dentro de los modelos de los servicios que ofrece el Cloud Computing, están el de
ofrecer el software como un servicio (SaaS), la plataforma como un servicio (PaaS) y
la Infraestructura como un servicio (IaaS), cada uno con un comportamiento,
características funcionales y servicios diferentes. Además, el Cloud Computing cuenta
con unos modelos de despliegue como son el acceso público, privado, híbrido y el de
comunidad. (Véase Fig. 1)

Fig.1. Representación visual de la definición del Cloud Computing dividida por


categorías. Fuente NIST [8]

2 Material y Métodos

Es importante aclarar que el tema de Cloud Computing es bastante extenso, y lo que se


busca con el presente paper es abordar un tópico muy específico, consistente en darle a
conocer a un investigador y/o grupo de personas y/o empresas de una manera clara y
objetiva el funcionamiento e implementación de una Cloud Computing sin tener que
adquirir toda una infraestructura tecnológica o de aprovechar la existente, utilizando
modelos de virtualización y herramientas que permitan emular el comportamiento de
esta tecnología como cuando se hace en un sitio real.
La metodología empleada se basa en el estudio de sistemas operativos y/o
herramientas que permitan implementar servicios de Cloud Computing, y que a su vez
puedan ser analizados dentro de un ambiente y/o escenario controlado para realizar

248
cualquier tipo de pruebas en implementación y/o en seguridad informática, ya sea por
parte de los sysadmin, webmaster, dba, secadmin, programmer u otro profesional
especializado interesado en el tema.

3 Resultados

Cuando un investigador quiere conocer el funcionamiento de alguna tecnología nueva


y desconocida, tiene que recurrir a sus habilidades para no quedarse rezagado en el
tema, y montar una infraestructura es difícil porque no se cuenta ni con los recursos
físicos ni económicos para implementarla. Y una alternativa a seguir es la
virtualización de escenarios y/ó ambientes controlados del sistema operativo de
interés.

3.1 Virtualización

Vemos como la virtualización está ofreciendo ventajas significativas a cualquier


profesional (Véase Fig.2), en donde sobresalen: la fácil migración entre diferentes
plataformas tecnológicas, ofrecer mejores esquema de seguridad, reutilizar los
recursos de hardware, las herramientas existentes en virtualización son fáciles de
administrar y son sencillas para cualquier sysadmin, ofrece una estabilidad y
desempeño buenos, se pueden hacer pruebas de pent test ó de desempeño y
rendimiento sin alterar el esquema real de trabajo, facilita la implementación de
escenarios controlados para evitar el uso de montajes tecnológicos enormes que
puedan causar daño a la infraestructura, se puede hacer montaje de varias máquinas
reales que se conecten en red, se pueden implementar en cualquier plataforma ó
sistema operativo de red con que cuente la empresa, y garantiza una mejor protección
a la información que se utilice.

Fig. 2. Ventajas más sobresalientes de la Virtualización. Fuente los autores.

En el mercado existen múltiples herramientas que facilitan la implementación de un


sistema operativo en un entorno virtual, como son: VirtualPC de Microsoft [5], Oracle
VM VirtualBox [9][10], VMWare [14] y Proxmox basada en Debian [11] entre otras;
mencionando en estos sitios, ventajas en seguridad informática[2]. Escoger algunas de
éstas depende del usuario, y no se puede decir que una sea mejor que la otra, porque
en esencia hacen lo mismo.
La virtualización permite que se puedan incorporar cualquier tipo de solución
informática (Véase Fig. 3), así como los diferentes servicios ofrecidos como el Cloud
Computing como son SaaS, PaaS e IaaS, sobresaliendo en pruebas y desempeño el
SaaS para entornos virtuales pequeños, en vista que implementar un PaaS o un IaaS
consumen bastante recurso tecnológico en CPU, Almacenamiento en Disco Duro, y
Memoria RAM.

249
Fig. 3. Soluciones que se pueden implementar en una virtualización. Fuente Los
Autores.

3.2 Herramientas orientadas al Cloud Computing

En este punto, es bueno aclarar, que se realizó un estudio, prueba e implementación de


algunas soluciones y/o sistemas operativos como Windows Server y GNU/Linux
respectivamente que pudieran soportar Cloud Computing utilizando escenarios
controlados de virtualización como Virtual Box[10] y VMWare[14] respectivamente
para conocer algunos resultados sobre las ventajas, desempeño, funcionamiento y
diferencias que ofrecen, sin olvidar que aunque se sabe que existen muchas más
plataformas en el mercado, se dejaron como las más representativas y no se
alcanzarían a tratar todas en el presente paper:

Cloud Computing de Microsoft: Microsoft cuenta con un entorno llamado


Windows Azure, el cual consiste de un kit de desarrollo de software (Software
Development Kit – SDK) llamado Windows Azure SDK y el Windows Azure Tools
para Visual Studio 2008 SP1 [6], los cuales se pueden descargar y probar algunos
ejemplos basados en servicios (SaaS) [7] sin necesidad de estar conectado a un
servicio de Cloud Computing OnLine, y que se pueden desarrollar en los lenguajes de
programación C# o VB.Net, así como con el motor de MS SQL Server, productos que
se deben de adquirir de manera licenciada.
Trabajar con un esquema de MS Windows Azure presenta inconvenientes dentro de
un Cloud Computing (Véase Fig. 4) y más desde el punto de vista virtualizado además
que no maneja un estándar general para la nube sino que es propietario de esta
organización. En la nube no interesa en donde se encuentra la información pero el
esquema funcional de MS Windows Azure obliga a la compatibilidad de entornos
Microsoft licenciados pero no ofrece una amigabilidad, funcionabilidad e integridad
con soluciones de software libre ó código abierto que se adapten bien al Cloud
Computing.

Fig.4. Inconvenientes de MS Windows Azure en entornos de Cloud Computing


virtualizado. Fuente Los Autores.

eyeOS: Este es quizás uno de los ejemplos más conocidos en Cloud Computing,
consistente en un escritorio virtual multiplataforma, libre y gratuito, aunque, dentro de
su apreciación general consiste en un sistema operativo en línea contando con una
serie de herramientas ofimáticas propias. Es de licencia AGPL, el cual está
desarrollado en PHP5, soportando el motor de base de datos de MySQL y que puede
ser ejecutado en el servidor Web de Apache, además necesita que se tenga un cliente
de correo llamado IMAP y un gestor de base de datos llamado SQLite.[3] (Véase
Fig.5)
El usuario puede almacenar documentos, crear presentaciones, y utilizar un montón

250
de servicios, los cuales quedan almacenados dentro de una carpeta de usuarios llamada
Documents. Por ejemplo para el usuario root, esta sería la carpeta en donde se
almacenarían sus datos users/rt4/root/files/Documents.

Fig.5. Panel de Control de eyeOS en donde se observa aplicaciones con que cuenta
como calendario, juegos,procesos, ofimática, reproductores de multimedia, FTP, etc.
Fuente eyeOS[3]

El eyeOS en entornos virtualizados ofrece buenas ventajas (Véase Fig. 6) porque le


permite a cualquier investigador en el tema realizar cualquier tipo de prueba como
enumeración de objetivos, identificación de banners, pent test, monitoreo, desempeño
y rendimiento arrojando resultados óptimos, sin embargo, es bueno aclarar que en
pruebas de seguridad, éste servicio se debe configurar con el puerto 443 (https) y no
con el puerto 80 (http) porque en caso de lograr incorporar un exploit con
herramientas de hacking convencionales ó a través de metasploit, cualquier
ciberdelincuente tendría acceso no sólo a la información de un usuario ofrecida por
éste SaaS sino a la de todos los que adquieran este servicio. De igual forma, se tiene
que estar revisando los boletines en seguridad ó incorporar los parches de seguridad
que salgan tanto para el lenguaje de programación PHP como para el motor de base de
datos de Mysql. También es bueno resaltar que MySQL cuando tiene un volumen de
información grande, el rendimiento se opaca generando bloqueos u abrazos mortales
por lo que se requiere estar realizando migración a futuras versiones, y puede afectar
el servicio de la nube.

Fig. 6. Aspectos encontrados en pruebas realizadas al eyeOS. Fuente Los Autores

Amazon EC2: Amazon Elastic Compute Cloud (Amazon EC2) es un servicio Web
que proporciona una capacidad de cómputo variable [1]. Cuenta con una serie de
imágenes de máquina preconfiguradas (AMIs) y que para los sistemas operativos
libres como GNU/Libre el servicio es gratis pero para otros sistemas operativos como
Windows se debe pagar, (Véase Fig. 7)
De Amazon EC2, se resalta que ha servido de modelo para otros proyectos en Cloud
Computing, y que pese a sus costos, muchas empresas han optado por adquirir sus
servicios. Para éste entorno, no existe una manera de instalarlo en un entorno virtual o
servidor propio porque ellos no suministran los instaladores. Lo que entregan es un
cliente de herramientas desarrolladas en Java para que se puedan conectar al servidor
de Amazon EC2; librerías suministradas por ejemplo como: activación-1.1.jar, ec2-
api-tools.jar, ec2-java-client.jar, commons-httpclient.jar entre otros.

251
Fig.7. Consola de Amazon para visualizar AMIs. Permite la instalación de diferentes
sistemas operativos y se puede especificar si el acceso es de tipo público, privado,
híbrido ó comunidad. Fuente Amazon EC2[1].

Dentro de los hallazgos encontrados dentro del entorno de Amazon EC2 (Véase Fig.
8), no se puede analizar por ningún lado como es el desempeño y rendimiento de los
AMIs, ni tampoco se puede implementar en escenarios virtuales, siendo una
desventaja. Lo único que se puede realizar es identificación de banners, enumeración
de objetivos y pen test para probar la seguridad ofrecida por el AMI.

Fig. 8. Evidencias encontradas en Amazon EC2. Fuente Los Autores

Eucalyptus: Uno de los proyectos que ha permitido la incorporación del Cloud


Computing en Clusters dentro de las diferentes distribuciones existentes del Sistema
Operativo GNU/Linux, llámese Debian, Ubuntu, CentOs, Red Hat, Fedora Core, Suse
entre otras, se llama EUCALYPTUS-CLOUD, un proyecto Open Source, el cual es
compatible con Google App, Amazon EC2, etc, permitiendo soportar múltiples
interfaces, y de licencia FreeBSD.[4]
Eucalyptus está implementado usando herramientas de GNU/Linux y servicios web
para facilitar la instalación y mantenimiento, disponibles a todo el mundo, y sus
interfaces de gestión basándose en Servicios Web, dentro del modelo de despliegue
del Software como un Servicio – ―SaaS‖ y que se puede apreciar de manera gráfica el
entorno visual de esta tecnología (Véase Fig. 9).

252
Fig. 9. Entorno Visual Gráfico de Eucalyptus-Cloud. Fuente Eucalyptus [4]

Es bueno resaltar que aunque es compleja la configuración de eucaliptus, su


administración es bastante fácil de asimilar, y es recomendado para utilizar en
entornos virtuales personalizados con sistema operativo GNU/Linux. (Véase Fig. 10).
En temas de seguridad, se debe utilizar otro puerto diferente al 80, y se recomienda el
443, aunque el sitio recomienda el uso de puertos como el 8443.

Fig.10. Propiedades evidenciadas en Eucalyptus-Cloud. Fuente Los Autores

Al utilizar esta herramienta de Cloud Computing, se puede mejorar la seguridad


implementando un firewall como iptables. Se pueden hacer todo tipo de pruebas
relacionadas con desempeño, rendimiento y monitoreo, sin embargo, se recomienda el
uso de buenos recursos físicos tecnológicos.

3.3 Procedimiento para implementar Cloud Computing en Escenarios Virtuales

Para que un investigador pueda trabajar con entornos de Cloud Computing se


recomienda el siguiente procedimiento después de realizadas varias pruebas (Véase
Fig. 11):
Instalar máquinas virtuales (se recomienda por lo menos tener 5 máquinas virtuales
montadas) con diferentes sistemas operativos (recomendados Windows, GNU/Linux y
MAC OS tanto como servidor como cliente) para hacer diferentes tipos de pruebas
como funcionabilidad, desempeño, rendimiento y seguridad.
El recurso en hardware en almacenamiento lo ideal es tener de 20 GB en adelante y
memoria RAM de 3 GB, pero puede funcionar con menos, pero no se puede realizar
bien las pruebas de desempeño y rendimiento porque el servicio de Cloud Computing
se puede ralentizar al ejecutar varios procesos de manera simultánea.
Montar un firewall y definir bien las políticas de seguridad.

253
En temas de seguridad, utilizar herramientas como back track, samurái test ó
metasploit para analizar el servicio de Cloud Computing en el escenario virtualizado.
Instalar diferentes motores de bases de datos como Oracle, Postgres, MySQL, y otros
para analizar el comportamiento funcional
Utilizar software de análisis, monitoreo y desempeño en redes.
Instalar aplicaciones de producción para analizar comportamientos, almacenamiento y
rendimiento

Fig. 11. Elementos necesarios para implementar servicios de Cloud Computing en


escenarios virtuales. Fuente Los Autores

4 Discusión

Si bien es cierto que muchos servicios y usos del Cloud Computing son ofrecidos por
empresas y/o instituciones al usuario de la red, la disposición y funcionalidad de las
aplicaciones y sus usos comunicativos se pueden configurar e implementar en
escenarios virtuales, permitiendo a cualquier persona interesa en el tema profundizar
en dicha tecnología.
Para el aprendizaje y la enseñanza, estos escenarios son bastantes prácticos para
que se asimilen bien los conceptos teóricos, pero es bueno aclarar, que el Cloud
Computing está creciendo y evolucionando constantemente, y las empresas y/o
instituciones que ofrezcan estos servicios deben realizar inversiones tecnológicas
enormes para poder garantizar las ventajas ofrecidas por el Cloud Computing.

5 Conclusiones

Para cualquier investigador estas herramientas ofrecen una familiaridad y aprendizaje


en el Cloud Computing, término que ha sido confuso por parte de muchos sectores.
Al tener estos escenarios basados en Cloud Computing se pueden probar esquemas de
configuración y seguridad para analizar y comprender problemas futuros que se
puedan presentar, en desempeño e implementación.
Las herramientas de software libre ó de código abierto facilitan la incorporación de
infraestructuras de Cloud Computing utilizando los modelos de despliegue SaaS, PaaS
o IaaS.
Las empresas y/o instituciones que cuentan con una infraestructura tecnológica
actual, la pueden convertir en un SaaS, PaaS o IaaS sin invertir en muchos recursos
tecnológicos.
Para éstos servicios no se encontraron vulnerabilidades en el sitio oficial de exploit
database, y que no se puede especular el motivo si es que en verdad ofrecen buena
seguridad o que los ciberdelincuentes aún no están interesados en incursionar en este
tema.

6 Agradecimientos

Al Dr. José Nelson Pérez por sus aportes y gestión administrativa realizada en la
Universidad Distrital Francisco José de Caldas de Bogotá, Colombia, porque gracias a
él se cuenta con el Laboratorio del Centro de Computación de Alto Desempeño

254
orientado al Cloud Computing.
Al Dr. Luís Joyanes Aguilar, por sus aportes y conocimientos en estos temas de
interés e innovación que día a día van a apareciendo, y que no podemos ser ajenos a
los mismos.

Referencias

1. AMS - AMAZON WEB SERVICES (2010) . Amazon Elastic Compute Cloud (Amazon
EC2) <http://aws.amazon.com/ec2/>
2. CSA–CLOUD SECURITY ALLIANCE (2009). Security Guidance Critical Areas of
Focus in Cloud Computing V 2.1 < http://www.cloudsecurityalliance.org/>
3. EYEOS (2010). Escritorio Virtual Multiplataforma basado en el Cloud Computing <
http://eyeos.org/>
4. EUCALYPTUS (2010). Eucalyptus Cloud < http://www.eucalyptus.com/>
5. MICROSOFT (2007) VirtualPC
<http://www.microsoft.com/downloads/details.aspx?displaylang=es&FamilyID=04d2640
2-3199-48a3-afa2-2dc0b40a73b6>
6. MICROSOFT (2010). Windows Azure, plataforma de nube de
Microsoft.<http://msdn.microsoft.com/es-es/windowsazure/default.aspx>
7. MICROSOFT VIRTUAL LABS (2010) Building Windows Azure Services with PHP <
http://download.microsoftvirtuallabs.com/download/8/a/7/8a71365b-4c80-4e60-8185-
8f12f59bf1d4/BuildingWindowsAzureServiceswithPHP.pdf>
8. NIST - National Institute of Standards and Technology (2009) Effectively and Securely
Using the Cloud Computing Paradigm < http://www.csrc.nist.gov/groups/SNS/cloud-
computing/index.html>
9. ORACLE (2010), Oracle Grid Computing
<http://www.oracle.com/us/technologies/grid/index.htm?origref=http://www.oracle.com/u
s/technologies/virtualization/oraclevm/061976.html>
10. ORACLE (2010), Oracle VM VirtualBox
<http://www.oracle.com/us/technologies/virtualization/oraclevm/061976.html>
11. PROXMOX (2010) . Proxmox Virtual Environment http://pve.proxmox.com
12. SQLITE (2010) Sistema de Gestión de Base de Datos Relacionales
<http://www.sqlite.org>
13. TRIANA, Eduardo; GARCIA, Ricardo; PASTRANA, Carlos; CANO, Luis E. (1996)
Redes de Valor Agregado. Criterio. UAC, Vol. 24 (p.197-239)
14. VMWARE (2010) Cloud Computing Services with VMware Virtualization.
http://www.vmware.com/solutions/cloud-computing/

255
Cálculo del Esfuerzo en el Desarrollo de Proyectos
Software a Partir de Puntos de Función

Jorge Enrique Otálora Luna1 , Mauro Callejas Cuervo1, Andrea Catherine


Alarcón Aldana1,

1
Universidad Pedagógica y Tecnológica de Colombia, Facultad de Ingeniería, Km
2 Carretera Central del Norte, Tunja, Boyacá, Colombia
jorge.otalora@uptc.edu.co, mauro.callejas@uptc.edu.co, alarconaldana@yahoo.com

Resumen. Este artículo muestra el resultado de la fase inicial del


proyecto ―Diseño de un meta-modelo para el cálculo del esfuerzo en
proyectos de desarrollo de software‖. Se estudia los métodos más
relevantes para calcular el esfuerzo en desarrollo de software, y en
especial se profundiza sobre la técnica de puntos de función. A partir de
un experimento en donde se contrastan valores teóricos vs valores
obtenidos de un desarrollo real, se verifica la aproximación que ofrece el
cálculo teórico respecto del valor real.

Palabras Clave: Meta-modelo, puntos de función, cálculo del esfuerzo.

Abstract. This article presents the results of the initial phase of the
project ―Design a meta-model for calculating the effort of software
development projects‖. This discusses methods for calculating the most
significant software development effort, especially on the technique of
function points. From an experiment in which contrast values obtained
vs theoretical values of effective development approach, is verified that
offers the theoretical calculation of the actual value.

Keywords: Meta-model, function points, estimation of effort

1 Introducción

El cálculo de esfuerzo para el desarrollo de software ofrece variadas técnicas pero


carece de una base fundamental que permita la integración con otros elementos de
desarrollo, en especial con la gestión del proyecto, por ésta razón se plantea el diseño
de un meta-modelo del que se puedan extender los modelos y adaptarse a las técnicas
de gestión de proyectos.
En la primera fase de esta investigación se debe caracterizar y seleccionar la técnica
base de la cual dependerá principalmente el meta-modelo, para ello, se revisará
teóricamente una muestra significativa de técnicas para el cálculo del esfuerzo, luego
se estudiarán las características de éstas para obtener un listado con las más relevantes
y después se contrastarán los valores que se obtengan teóricamente contra valores
reales obtenidos a partir de un experimento.
El documento en su primera parte presenta un resumen teórico de las principales
técnicas de cálculo del esfuerzo, luego da a conocer un resumen de las características
más relevantes y profundiza sobre la técnica de puntos de función, la cual cubre el
mayor número de ítems tenidos en cuenta en la investigación. A continuación se
describe en detalle el experimento realizado y se presenta al final una discusión sobre
los resultados obtenidos, finalmente se enuncian las conclusiones.

257
2 Consideraciones preliminares sobre estimación de esfuerzo.

El concepto de esfuerzo en desarrollo de software se refiere al uso de los recursos


requeridos para el desarrollo del proyecto. La medida empleada para la estimación del
esfuerzo es hora/hombre [1]. Una estimación incorrecta puede conllevar a pérdidas
tanto económicas como de renombre, si no se logra cumplir con los tiempos de
desarrollo. [2], [3]. Por tanto, se debe estimar los recursos humanos, de tiempo y
económicos requeridos para llevar a cabo el proyecto, estimando los costos máximos y
mínimos en los que se puede incurrir.

2.1 Técnicas de Estimación de Esfuerzo.

Para lograr realizar la estimación de esfuerzo, se han creado diferentes técnicas, tales
como puntos de función, Cocomo II, Delphi, entre otras, las cuales emplean métodos
diversos para calcular el esfuerzo utilizado durante el desarrollo de un proyecto de
software. Algunas de estas técnicas se enuncian a continuación.
Puntos de función. Allan Albrecht, de IBM, en 1979 definió la técnica de puntos
de función, que realiza la estimación de esfuerzo basada en los requisitos del sistema,
teniendo en cuenta las funciones de usuario que este ejecuta o ejecutará (entradas,
salidas, consultas, ficheros, Interfaces). Esta técnica de estimación se puede realizar
independientemente del lenguaje o herramienta empleada durante el desarrollo. [4],
[5], [6].
Este tipo de estimación se centra principalmente en lo que el usuario puede ver,
restando importancia a la parte interior de la aplicación.
Algunas de las características que identifican el enfoque de puntos de función y que
ayudan a superar los inconvenientes que se presentaban al emplear la técnica de líneas
de código son:
Es independiente de los lenguajes de programación, de las herramientas e incluso de
las metodologías aplicadas para el desarrollo del proyecto
Permite realizar estimaciones de esfuerzo en etapas tempranas del desarrollo, debido a
que emplea para las mismas, las especificaciones de requisitos y/o de diseño que se
tendrán en cuenta para llevar a cabo el proyecto. Además a las diferentes
modificaciones que puedan surgir en los requisitos, se les puede aplicar fácilmente
una nueva estimación, gracias a la estrecha relación que existe entre éstos y los puntos
de función.
Facilita a las personas no técnicas que intervienen en el proyecto, el entendimiento
de las medidas que se efectúan con los puntos de función, gracias a que dichas
medidas se realizan basadas en una visión externa del usuario del sistema.
Esta técnica se emplea básicamente en etapas iníciales, cuando los requisitos
funcionales no están completamente establecidos y se desea realizar estimaciones de
esfuerzo del proyecto.
Cálculo de los puntos de función. Para realizar el cálculo de los puntos de función
se llevan a cabo los pasos enunciados a continuación [7].
Se establecen los contadores, luego de realizar un análisis del dominio de la
información.
Se evalúa la complejidad de cada uno de los contadores establecidos previamente y
se asigna un peso a cada uno.
Se identifican todos los factores externos que puedan influir sobre el sistema tales
como reutilización, concurrencia, sistema operativo entre otros.
Se realiza el cálculo de los puntos de función teniendo en cuenta la siguiente ecuación:
Se realiza el cálculo de los puntos de función teniendo en cuenta la siguiente ecuación:
Puntos de Función = ∑ . (1)
Donde C = (0.65 + 0.01 x N)  (Multiplicador de complejidad).

COCOMO II. El modelo COCOMO (COnstructive COst MOdel), publicado por


primera vez en el año de 1981 por Barry Boehm, es un modelo algorítmico que busca
lograr la estimación de esfuerzo, costo y tiempo necesario para realizar un proyecto de
software, a través del establecimiento de una relación matemática [8], [9].

258
El modelo COCOMO fue evolucionando posteriormente, adaptándose a las nuevas
técnicas de desarrollo de software. De esta manera surge COCOMO II, modelo
orientado a lograr la estimación de costo, tiempo y esfuerzo de los ciclos de vida para
el desarrollo de software, empleados en la década de los 90 e inicios del 2000.
El modelo COCOMO II está dividido en tres niveles básicos de aplicación, que se
pueden emplear a medida que se desarrolla el proyecto y brindan la posibilidad de
realizar estimaciones cada vez más detalladas.
Los niveles que incluye el modelo COCOMO son: [7], [10]:
Nivel inicial de prototipado: este nivel se emplea en proyectos de software que
utilizan el prototipado y la reutilización. Realiza las estimaciones mediante la
aplicación de puntos de objeto y una sencilla formula que permite obtener el cálculo
del esfuerzo.
(2)
PM = ( NOP x (1 - %reuso / 100 ) ) / PROD.

La explicación de variables de la ecuación (2) se encuentra en la tabla 1.

Tabla 7. Descripción de variables, fuente los autores.


VARIABLE DESCRIPCION
PM Esfuerzo en personas / mes.
NOP Número de puntos objeto.
Reuso Porcentaje de líneas de código reusadas.
PROD Productividad que depende de la experiencia,
capacidad del desarrollador y de las herramientas
CASE (Computer Aided Software Engineering)
empleadas.

Nivel inicial de diseño: Las estimaciones en este nivel se realizan una vez se han
establecido los requisitos, utilizando puntos de función trasformados en líneas de
código.
Este nivel emplea fórmulas estándar para realizar las estimaciones.
(3)
PM = A x TamañoB x M + PMm.

La explicación de variables de la ecuación (3), se encuentra en la tabla 2.

Tabla 2. Descripción de variables, fuente los autores.


VARIABLE DESCRIPCION
PM Cantidad de código generado automáticamente.
A Constante que tiene el valor de 2.5 según calibración inicial
Tamaño Tamaño del software, expresado en KLOC (Mil líneas de código).
B Exponente cuyo valor esta dentro de un rango de 1.1 hasta 1.24
teniendo en cuenta la novedad del proyecto, la flexibilidad del
desarrollo, la gestión de riesgos, y la madurez del proceso.
M Estimación del estado actual de la fiabilidad de producto y
complejidad (RCPX), la reutilización requerida (RUSE), la
dificultad de la plataforma (PDIF), la experiencia del personal
(PREX), la capacidad del personal (PERS), la agenda requerida
(SCED), y las facilidades de soporte de grupo (FCIL). M se
calcula mediante la fórmula: M = PERS x RCPX x RUSE x PDIF
x PREX x FCIL x SCED
PMm Empleado cuando se generan grandes cantidades de código de
forma automática. Se calcula mediante la fórmula: PMm =
(ASLOC x (AT/100)) / ATPROD
ASLOC cantidad de líneas de código fuente que fueron generadas
automáticamente. AT corresponde al porcentaje total del sistema

259
que ha sido generado de manera automática. ATPROD se refiere
al nivel de productividad teniendo en cuenta el tipo de producción
en código.

Nivel post-arquitectura: Se realizan estimaciones que se basan en líneas de código


fuente. En esta fórmula la estimación de tamaño varía, incluyendo en el cálculo la
volatilidad de los requisitos, el grado de posible reutilización y el número de líneas de
código nuevo. Así mismo, el valor del exponente B debe tener en cuenta los
antecedentes, la flexibilidad, la arquitectura respecto a la resolución de riesgos, la
cohesión del grupo y la madurez del proceso.
Delphi. Es un método empleado para realizar la estimación de proyectos, basado en
el juicio de un grupo de expertos, quienes deberán calcular de manera individual, tanto
el esfuerzo como la duración y costo de un proyecto determinado y posteriormente
realizar un consenso para establecer una única estimación. [11], [12].
El proceso que se lleva a cabo para realizar la estimación final es el siguiente [13]:
 Un coordinador proporciona a cada experto una especificación del proyecto
propuesto y un impreso para expresar su opinión.
 Los expertos diligencian el impreso de manera anónima. Pueden hacer
preguntas al coordinador pero no entre ellos. El coordinador ofrece a cada
experto el valor medio de las opiniones recogidas. Se pide una nueva
estimación anónima indicando las razones de las posibles modificaciones. Se
repite el proceso de recogida de opiniones hasta llegar a un consenso. No se
realizan reuniones de grupo en ningún momento.
Delphi de Banda Ancha. Es una mejora de la técnica Delphi, propuesta por Barry
Boehm. Los pasos que se llevan a cabo en este modelo son los siguientes [14], [15]:
 El coordinador proporciona a cada experto una especificación del proyecto
propuesto y un impreso para expresar su opinión.
 El coordinador reúne a los expertos para que intercambien puntos de vista
sobre el proyecto.
 Los expertos diligencian el impreso de manera anónima.
 El coordinador ofrece a cada experto el valor medio de las opiniones
recogidas. Se pide una nueva estimación anónima, sin indicar las razones de
las posibles modificaciones.
 El coordinador convoca una reunión para que los expertos discutan las
razones de las diferencias entre sus estimaciones.
 Se diligencian anónimamente los impresos y se repiten los últimos tres pasos
hasta llegar a un consenso.
Algunas ventajas y desventajas de este modelo se pueden observar en la tabla 3.

Tabla 3. Ventajas y desventajas del modelo Delphi de banda ancha, fuente los
autores.
VENTAJAS DESVENTAJAS
Permite consolidar un criterio con Para lograr el consenso deseado, es
objetividad y confiabilidad. indispensable realizar mínimo dos
Las decisiones son acertadas cuando vueltas, razón por la cual su
aplicación se acogen al criterio expresado aplicación se puede tornar tediosa y
por un grupo de expertos. necesita de tiempo y dedicación.
Se evalúan diferentes alternativas al El costo es superior a otros métodos, por
momento de tomar la decisión final. requerir la participación de los expertos,
Al ser un proceso que se realiza de manera además del gasto de hojas, impresoras,
anónima, se brinda libertad para que los teléfono, correo, entre otros.
expertos sean creativos en sus apreciaciones Se deben aplicar diversos métodos de
y se evita la generación de conflictos entre análisis que permitan obtener un
los mismos. consenso adecuado, así como diversas
Los expertos al participar de manera pruebas estadísticas que ayuden a
voluntaria, se involucran con la solución evaluar el grado de confiabilidad del
del problema, logrando una exitosa proceso [14].

260
implantación de la misma [11]

Puntos de Casos de uso. La técnica de Puntos de caso de Uso fue desarrollada


por Gustav Karner de Rational Software Corporation, este método realiza el cálculo de
esfuerzo basado en casos de uso, los cuales permiten obtener la cantidad de horas-
hombre necesarias para lograr el desarrollo de un proyecto de software. [16], [17].
Para obtener la estimación de esfuerzo este método clasifica en tres categorías los
casos de uso del sistema, simple, medio y complejo, asignándoles un factor de peso a
cada una. Para la categoría simple, el factor de peso equivale a cinco (5), para la
categoría medio el factor de peso es de diez (10) y para la categoría complejo el factor
de peso tiene un valor de quince (15). Para asignar los casos de uso a una categoría
específica, se deben tener en cuenta la cantidad de transacciones que se realizan,
entendiéndose por transacción, todos los eventos que suceden entre el actor y el
sistema. De esta manera, los casos de uso que involucren entre 1 a 3 transacciones se
consideran simples, los que realicen entre 4 a 7 se clasifican como medios y aquellos
en los que se lleven a cabo 8 o más transacciones se consideran complejos. [18].
Debido a que esta técnica trabaja con casos de uso, es necesario que al momento de
aplicarla, se haya realizado previamente las actividades correspondientes a la fase de
análisis.
La aplicación del método, requiere que se lleven a cabo los siguientes pasos [20]:
 Calcular Puntos de Casos de Uso no Ajustados (UUCP).
 Pesar Actores (UAW) & Pesar Casos de Uso (UUCW)
UUCP= f (UAW;UUCW)= UAW +UUCW
 Calcular Puntos de Casos de Uso (UCP)
 Pesar Factores Técnicos (TCF)
 Pesar Factores Ambientales (EF)
UCP= f (UUCP; TCF;EF)= UUCP *TCF *EF
 Estimar el número de horas-hombre
Horas-hombre= f (UCP)

3 Método

El método a utilizar en el desarrollo del proyecto se diseñó de la siguiente manera:


 Caracterizar y comparar la diferentes técnicas para medición de esfuerzo en
el desarrollo de proyectos de software, con el fin de seleccionar una técnica
base que pueda ser complementada para cubrir la mayoría de la funcionalidad
ofrecida por estos métodos y así garantizar que el meta-modelo cuente con
una amplia gama de interoperabilidad.
 Una vez seleccionada la técnica a profundizar teóricamente se constatan
fortalezas y debilidades, con el fin de complementarla y cubriendo los
aspectos relevantes para el meta-modelo.
 Realizar un experimento sobre un proyecto real de desarrollo de software, en
donde se aplica la técnica seleccionada, realizando los ajustes e
implementando los instrumentos necesarios.
Descripción del experimento:
 Seleccionar un grupo de programadores de software y aplicar una prueba de
rendimiento en codificación para determinar el número de líneas de código
que realizan por cada punto de función y así obtener un promedio que será
utilizado como base de cálculo.
 A partir de los requisitos de un sistema de información basado en prototipos,
calcular los puntos de Función y el tamaño de cada uno de los módulos.
 Asignar a los desarrolladores diferentes módulos de forma controlada y
revisar mediante casos de prueba el funcionamiento de cada uno de los
módulos hasta obtener un factor de calidad de máximo 5 defectos por cada
Klocs(Mil líneas de código) .
 Realizar el conteo de líneas de código y contrastarlo con los puntos de

261
función.
 Revisar el código desarrollado y verificar el número de puntos de función
obtenidos realmente.
 Constatar los valores teóricos con los valores reales obtenidos.
 Determinar un promedio de la diferencia de puntos de función entre los
módulos adyacentes.
 Obtener un límite superior e inferior de los puntos de función admisibles con
el fin de evitar dispersión.
 Retirar los módulos que estén por fuera de los límites establecidos.
 Realizar la comparación estadística de los resultados obtenidos.
Con los datos obtenidos comparar la eficacia del modelo teórico con el fin de
determinar su nivel de confiabilidad para ser o no tomado como base en la siguiente
etapa de la investigación tendiente a obtener un meta-modelo del cálculo del esfuerzo
en proyectos de desarrollo de software.

4 Resultados

A continuación se presenta los resultados obtenidos durante el desarrollo de esta


revisión, de acuerdo al método planteado anteriormente:

4.1 Comparación entre métodos de estimación de esfuerzo.

Debido a que existen diversas técnicas para realizar la estimación de esfuerzo, fue
necesario llevar a cabo una recopilación teórica, en la que se pudiera establecer las
características principales de cada una, el método empleado para calcular el esfuerzo y
la efectividad de las mismas.
Luego de elaborar la conceptualización de la información, se realizó un cuadro
comparativo de algunas de las técnicas de estimación de esfuerzo, a fin de elegir la
más apropiada para aplicarla durante el desarrollo del proyecto. El resultado de dicho
proceso se puede apreciar en la tabla 4.

Tabla 4. Comparación entre métodos de estimación de esfuerzo, fuente los autores.


Puntos COCOMO Delphi Puntos de
de II Casos de
Función Uso
Permite estimación X X X X
temprana.
Tiene en cuenta factores X X X
externos.
Independientes del lenguaje X X X X
de desarrollo.
Se basa en datos históricos. X X
Apropiado para mediciones X X X X
de aplicaciones del negocio.
Adaptación rápida a cambios X X X
en los requisitos.
Modelo estático. X X X
Modelo algorítmico. X X X
Modelo basado únicamente X
en la experiencia.
Esfuerzo se calcula según el X X
tamaño del proyecto.

De acuerdo al análisis de las características realizado sobre las técnicas de medida


de esfuerzo en el desarrollo de software, recogidas en el anterior estudio, se decide

262
profundizar en la técnica basada en puntos de función, que será tomada como base
para el diseño del meta-modelo sobre el cálculo del esfuerzo en el desarrollo de
software.
La Métrica de Puntos de Función [19]. Los puntos de función se consideran como
una métrica de tipo funcional, porque evalúa el esfuerzo en función de las prestaciones
que el software proporciona o puede llegar a proporcionar a los usuarios.
La aplicación de esta métrica comienza con la identificación de los componentes
del sistema, o de las transacciones y conjunto de datos lógicos del negocio. A cada
componente se asignan los puntos de función correspondientes, de acuerdo a su
complejidad. La sumatoria del total de puntos es el resultado de los puntos de función
sin ajustar. El ajuste que se realice, debe corresponder con las características del
sistema que se está evaluando.
A continuación se describen en detalle cada uno de los pasos que permiten
determinar la complejidad de un sistema mediante los puntos de función del mismo:
 Determinar el tipo de conteo: se define si se evalúa un software que se
encuentra en funcionamiento, en desarrollo o si es un sistema en fase de
mantenimiento. Con esta identificación es posible establecer el objetivo del
conteo.
 Identificar los alcances de la medición y los límites de la aplicación: permite
encasillar los objetivos de la misma, para dar respuesta a un problema del
negocio. Los límites establecidos pueden contener más de una aplicación.
 Contar las funciones de datos: las funciones se cuentan clasificándolas en
archivos lógicos internos (ILF) y archivos de interfaz externo (EIF). Los
primeros corresponden a los datos que almacenan información mantenida
durante alguna transacción. Los archivos de interfaz externos, son los
relacionados y referenciados que no se mantienen por la transacción durante
el conteo. Con el conteo se asigna además un rango de complejidad para cada
componente, acorde al número de datos.
 Contar las funciones transaccionales: con este conteo es posible identificar la
capacidad del sistema para realizar operaciones. Las transacciones se pueden
clasificar en entradas externas (EI) que mantienen archivos lógicos internos,
salidas externas (EO) que muestran información a los usuarios a través de
procesos lógicos, y consultas externas (EQ) que presentan información al
usuario obtenida de uno o varios grupos de datos. Los rangos de clasificación
en este conteo dependen del número de datos usados en el proceso y los
archivos que tiene referenciados.
 Determinar los puntos de función no ajustados: con la clasificación efectuada
se genera la tabla donde se totalizan los componentes de acuerdo a su
complejidad.

Tabla 5. Modelo de totalización de componentes acorde a su complejidad.

BAJO MEDIO ALTO TOTAL

EI __x 3=__ __x 4=__ __x 6=__ _____


EO __x 4=__ __x 5=__ __x 7=__ _____
EQ __x 3=__ __x 4=__ __x 6=__ _____
ILF __x 7=__ __x 10=__ __x 15=__ _____
EIF __x 5=__ __x 7=__ __x 10=__ _____
_____

 Determinar el valor del factor de ajuste que se obtiene al sumar 0.65 al total
de los grados de influencia de las características del sistema, y multiplicando
el resultado por 0.01.
Se deben tener en cuenta las siguientes características del sistema:
comunicaciones de datos, datos o procesamiento distribuidos, objetivos de

263
rendimiento, configuración utilizada masivamente, tasa de transacción,
entrada de datos on-line, eficiencia para el usuario, actualización on-line,
procesamiento complejo, reutilización, facilidad de instalación y conversión,
facilidad de operación, puestos múltiples, facilidad de cambio
 Determinar los puntos función ajustados: consiste en multiplicar los valores
de los puntos función sin ajustar, por el factor de ajuste hallado.

4.2 Desarrollo del Experimento

Una vez conocidas las características base de los métodos para medición del esfuerzo,
se realiza un experimento adaptando la técnica que cuenta con mayor número de ítems
comunes respecto a las demás, ampliando la cobertura de la funcionalidad deseada.
El experimento que se describe a continuación fue realizado dentro de la empresa
Ingenius-Group, a partir del desarrollo de software para una entidad administradora de
fondos de inversión. Los nombres de los desarrolladores de cada módulo se omiten,
así como el nombre de la entidad administradora, obedeciendo a políticas de la
empresa desarrolladora.
Inicialmente se realizó un cálculo teórico, basado en los requisitos del sistema, los
cuales permitieron obtener estimaciones preliminares del esfuerzo, que fueron
contrastadas posteriormente con los valores reales, obtenidos luego de culminar el
desarrollo del proyecto.
Los módulos del sistema que se tuvieron en cuenta para realizar la estimación de
esfuerzo, fueron los siguientes: Datos básicos del fondo, Participantes, Términos y
Condiciones, Beneficiarios, Registrar Clientes, Cuentas Bancarias, Asignar recursos,
Datos básicos operación, Clientes Ejecutores, Tareas pendientes, Asignar roles,
Roles de consulta, Aportes Fondo, Contrato Fondo, Comprobantes contable, Pagos a
fondos, Registrar transacciones, Distribución categorías, Moneda extranjera.
El cálculo teórico se llevó a cabo, mediante la aplicación de la formula de
estimación de esfuerzo, propuesta en el modelo de puntos de función. Para ello se
utilizó la herramienta ofimática Microsoft Excel, que permitió automatizar el proceso
y aplicarlo adecuadamente a cada uno de los módulos del sistema.
El módulo de Aportes al Fondo (Ver fig. 1), hace parte del desarrollo del sistema y
está integrado por los siguientes componentes:

Fig. 3. Modulo de aportes del Sistema Administrador de Fondos.

Tabla 6. Componentes del modulo de aportes al fondo, fuente el autor.

264
. Entradas Salidas Peticiones Archivos Interfaces
Participante Nombre del Buscar Aporte
fondo
Banco Banco
CUP
Número de Centro Costo
Cuenta Siglas
Cuenta
Centro de Estado
Costo Participante
Estado
Monto del Aporte
aporte
CUP del
Fecha Aporte participante

Observacione Fecha de
s Registro

CUP del
banco

Moneda

Total Total Total Total Total


Entrad Salidas = 9 Peticiones = Archivos = 5 Interfaces = 0
as = 7 1

Una vez se identificaron los componentes principales del módulo de Aportes al


Fondo, se asignó a cada uno de ellos un peso, según la complejidad que representaban
para el sistema. Posteriormente se establecieron los factores de ajuste, fijando los
valores correspondientes a cada ítem, dentro de un rango de (0 – 5). Con los datos
obtenidos, se procedió a aplicar la formula de puntos de función, que permitió calcular
la estimación teórica del esfuerzo, tal como se muestra la tabla 7.

Tabla 7. Estimación de los puntos de función, fuente los autores.

Estimación del tamaño de PUNTOS DE FUNCION


Proyecto: Observaciones: Términos y
Gerente de Proyecto: Opción condiciones.
Fase: Elaboración estimada:
Fecha (dd-mm-aaaa):
FACTORES DE AJUSTE VALOR DOMINIO No Peso Tamaño
estimado(PF)
Comunicación de datos 5,00 Entradas 7 6,00 T=Dominio*factor*F
Función distribuida 0,00 Salidas 9 5,00 AC11,02
Refinamiento 1,00 Peticiones 1 0,00
Configuración utilizada 2,00 Activos 5 0,00
masivamente
Entradas on-line de datos. 5,00 2886,52
Diseño para eficiencia de 4,00
usuario final.
Actualización on-line 1,00
Complejidad de 1,00
procesamiento
Utilizable en otras 1,00
aplicaciones

265
Facilidad de instalación 1,00
Facilidad de operación 1,00
Puntos múltiples 0,00
Facilidad de cambio 0,00
FAC=0,65+0,01*Fi 0,91 Dominio*factor122,00

El procedimiento anterior, se aplicó de la misma manera a todos los módulos del


sistema, lo que permitió recopilar los datos que se muestran en la tabla 8 y tabla 9 y
algunos análisis en las figuras 2 y 3.

Tabla 8. Recopilación de resultados, fuente los autores.

Descripción Teórico Real No mR Meta


Tamaño Puntos Tamaño Puntos LOC/PF Sup Inf
Función Función
Datos básicos 3.923,92 140,14 3.625 147,00 24,66 - 40 19
del fondo.
Participantes 2.522,52 90,09 2.850 90,09 61,64 6,98 40 19
Términos y 1.554,28 55,51 1.177 46,41 25,36 6,27 40 19
condiciones.
Beneficiarios 1.554,28 55,51 564 38,25 19,66 4,92 40 19
Registrar. 1.528,80 54,60 752 38,25 19,66 4,92 40 19
Clientes. - - - - - - - -
Cuentas 2.726,36 97,37 1.733 68,75 25,21 5,55 40 19
Bancarias.
Asignar 2.191,28 78,26 1.769 84,63 20,90 4,30 40 19
recursos.
Datos básicos 4.127,76 147,42 2.970 147,42 20,15 0,76 40 19
operación.
Clientes 1.503,32 53,69 1.316 68,25 19,28 0,86 40 19
ejecutores.
Tareas 787,36 28,12 573 28,12 20,38 1,09 40 19
pendientes.
Asignar roles. 1.234,24 44,08 1.940 44,08 44,01 23,6 40 19
3
Roles de 1.361,92 48,64 1.587 48,64 32,63 11,3 40 19
consulta. 8
Aportes fondo. 2.886,52 122,00 2.017 111,02 18,17 14,4 40 19
6
Contrato 1.821,82 70,07 4.797 130,13 36,86 18,7 40 19
fondo 0
Comprobantes 3.057,60 109,20 4.003 144,69 27,67 9,20 40 21
contables.
Pagos a 3.596,32 3.596,3 3.588 138,00 26,00 1,67 40 21
fondos. 2
Registrar 140.140,0 50,05 650 25,00 26,00 - 40 21
transacciones. 0
Distribución 1.554,28 55,51 2.243 55,51 40,41 14,4 40 21
categorías. 1
Moneda 1.885,52 67,34 1.500 64,61 23,22 17,1 40 21
extranjera. 9

Tabla 9. Resultado de probabilidad de alcanzar la meta, fuente los autores.

Promedio X 26,15 Promedio LOC/PF. (LOC = line of code)


LCS (X) 48,61 Límite de Control Superior calculado con la expresión Promedio X
+ 2.660* Promedio mR
LCI (X) 3,70 Límite de Control Inferior calculado con la expresión Promedio X
- 2.660* Promedio mR
LCS (2S) 41,13 Límite de Control Superior (2S)
LCI (2S) 11,18 Límite de Control Inferior (2S)
LCS(1S) 33,64 Límite de Control Superior (1S)

266
LCI (1S) 18,67 Límite de Control Inferior (1S)
Prom mR 8,44 Promedio de la diferencia de LOC/PF de los módulos del sistema
LCS (mR) 27,59 Límite de Control Superior para mR calculado con la expresión
3.268* rM Promedio
LCI (mR) 0 Límite de Control Inferior para mR es igual a 0
Meta La meta superior es definida por el gerente del proyecto
Superior
Meta Inferior La meta inferior es definida por el gerente del proyecto
Probabilidad de alcanzar la meta 0.95

Fig. 2. Comparación Puntos de función teóricos versus reales. Fuente: los autores

Fig. 3. Comparación tamaño teórico vs real. Fuente: los autores.

4.3 Discusión

Basado en los resultados obtenidos se encuentra que la técnica de cálculo del esfuerzo
a partir de los puntos de función, tiene una efectividad del 95%. Es viable entonces
utilizar éste método como base para el diseño del meta-modelo que se ha propuesto en
la presente investigación.
En el módulo de Contrato fondo se encuentra una diferencia significativa, que se
revisó, y se determinó que obedece a un error en la asignación del factor de
complejidad, esto es preocupante y motivo de una nueva revisión con el fin de
determinar una metodología y nuevas métricas que permitan mejorar la confiabilidad
de ese cálculo.
El desarrollo de los módulos se realizó en lenguaje C#, con un equipo de 5
programadores, a quienes se les realizó una actividad inicial para verificar el
rendimiento de cada uno y obtener un promedio de su capacidad de escribir KLoc
(Mil Líneas de código) por Puntos de función, se obtuvo un promedio de 26.15.
Se debe revisar si éste valor es aceptable en otros lenguajes de programación, para
lo que se sugiere realizar la pruebas iníciales y comparar los resultados.
El cálculo de los puntos de función según los muestra la figura 2, es muy
aproximado, se puede observar diferencias no significativas lo que resulta un factor

267
decisivo a la hora de seleccionar este método como base para la conceptualización del
metamodelo.
En la figura 3, se muestra una comparación entre el tamaño real y el tamaño
teórico en líneas de código del módulo desarrollado, aunque la diferencia es pequeña,
se podría mejorar la precisión de la medida. Esta está supeditada a factores como son
el lenguaje de programación seleccionado, la plataforma, el framework de desarrollo,
lo que presupone una calibración a partir de pruebas piloto o de estadísticas basadas
en proyectos anteriores. En este momento el modelo de puntos de función no provee
los mecanismos necesarios para poder controlar este tipo de variables y deja abierta la
posibilidad para que sea desarrollado por quien implemente el modelo.
A pesar de la diferencia de tamaños de los módulos que se estudiaron y de la
cantidad de puntos de función en cada uno, se observa un comportamiento normal,
observándose tan solo el 8.44% de loc/pf de diferencia entre los componentes del
modulo.
También es posible verificar con los datos obtenidos que se necesitan 26.15 loc/pf
en el lenguaje de programación c#, lo que sugiere un punto de referencia al desarrollar
con otro lenguaje de similares características.

5 Conclusiones

Es importante la utilización de estándares al momento de realizar la automatización de


procesos, debido a que de esta manera se logrará una mejor integración y comprensión
de las diferentes tecnologías que se encuentran en el medio.
Sería de gran importancia que en futuras investigaciones se desarrollaran
conversores de los modelos de estimación de esfuerzo tales como Cocomo, Delphi,
entre otros, con el fin de que los desarrolladores de software, puedan empelar el
método que se adapte mejor a sus necesidades y tipo de proyecto.

Referencias

1. Montesa Andrés, J. O. (s.f.). Estimación en desarrollo de software.


http://www.upv.es/~jmontesa/eog/4-eog00.doc, (2009). Accedido el 25 de Mayo de 2009.
2. Pérez Giraldo, O. Métricas, Estimación y Planificación en Proyectos de software.
http://www.willydev.net/Descargas/WillyDEV_PlaneaSoftware.Pdf, (2009). Accedido el 2
de Septiembre de 2010.
3. Cuadrado Gallego J., M. Á. Segmentación Recursiva de Proyectos Software para la
Estimación del esfuerzo de desarrollo de software. Alcalá. (2004).
4. Duran Rubio, S. E. Puntos por Función. Una métrica estándar para establecer el tamaño
del software. Boletín de política informática Nº 6. (2003).
5. Pressman R.S. Ingeniería del Software. Un enfoque práctico. Mc Graw Hill. 2009
6. Pérez, A. L., Duque, A., González, L., Millane, F., & Ospina, G. Modelo para la estimación
temprana de esfuerzo en proyectos de software, incorporando información de proyectos
similares. Antioquia, Colombia. (2006).
7. Varas M. P., Modelo de Gestión de Proyectos Software: Estimación del Esfuerzo de
Desarrollo. http://www.inf.udec.cl/~mvaras/papers/arica/arica.htm, (2010). Accedido el 2
de Septiembre de 2010.
8. Guerra G. L. Estimación de Proyectos Software para desarrollo de aplicaciones
Intranet/Internet basada en la técnica de puntos de función.
http://portal.inf.utfsm.cl/docs/publicaciones/EstimacionDeProyectos_16_.pdf, (2010).
Accedido el 2 de Septiembre de 2010.
9. Teruel., A. (27 de 2 de 2001). COCOMO II: Una Familia de Modelos de Estimación.
(2001). http://www.ldc.usb.ve/~teruel/ci4713/clases2001/cocomo2.html, (2010). Accedido
el 2 de Septiembre de 2010.
10. Gramajo E, et al. Combinación de alternativas para la estimación de proyectos
software.http://www.itba.edu.ar/nuevo/archivos/secciones/art_revistas_6.pdf, (2010).
Accedido el 2 de Septiembre de 2010.
11. Iglesias, A. M. El MÉTODO DELPHI. http://www.gestiopolis.com/canales6/eco/metodo-
delphi-estadistica-de-investigacion-cientifica.htm, (2009). Accedido el 12 de 05 de 2009.
12. Montesa Andrés, J. O. Estimación del Esfuerzo en el Desarrollo de Software. Valencia.

268
(2000).
13. Jones C., Estimación de Costos y Administración de Proyectos de Software. Mc Graw Hill,
México (2008).
14. Chakrabarti A., Wideband Delphi, Estimation Technique.
http://www.slideshare.net/aniruddha.chakrabarti/wideband-delphi-estimation, (2010).
Accedido el 2 de Septiembre de 2010.
15. Stellman A., Greene J., Applied Software Project Management Estimation,
http://www.stellman-greene.com/images/stories/LectureNotes/03%20estimation.pdf,
(2010), Accedido el 2 de Septiembre de 2010.
16. Carroll E. R. Estimating Software Based on Use Case Points; San Diego,CA, EEUU.
(2005).
17. Peralta M., Estimación De Esfuerzo Basada en Caso de Uso.
http://pisuerga.inf.ubu.es/rcobos/anis/estimacion-del-esfuerzo-basada-en-casos-de-usos.pdf,
(2004). Accedido el 2 de Septiembre de 2010.
18. Megapolis.net. Excel para estimación por casos de uso.
http://www.navegapolis.net/content/view/563/87/, (2009). Accedido el 10 de 05 de 2009.
19. Durán Rubio, S. E. Boletín de Política Informática Núm.6, 2003. Puntos por función. Una
métrica estándar para establecer el tamaño del software:
http://www.inegi.gob.mx/inegi/contenidos/espanol/prensa/Contenidos/Articulos/tecnologia/
puntosxfuncion.pdf, (2003). Accedido el 28 de Mayo de 2009.
20. Trejo, N. B. (s.f.). Estimación de Esfuerzo con Casos de Uso. Rio Gallegos, Argentina.
(2009).

269
Descripción del software para la configuración de un
tranceiver.

Jesús Augusto Guzmán L,a , Carlos Alberto González.b, Elvis Eduardo Gaona
García, a
a
Grupo de Investigación GITUD
b
Estudiante Ingenieria Electronica Universidad Distrital
jaguzman@udistrital.edu.co

Resumen. Este documento describe el software que permite controlar el


tranceiver. Se expone los procedimientos para la configuración en modo
transmisor y receptor, las interfaces para la comunicación y el protocolo
que permite la reprogramación desde la herramienta de software
desarrollada.

Palabras Clave: Tranceiver, SCI, SPI, Pll, Filtro IF.

1 Introducción

El modulo de comunicaciones del pico satélite posee diferentes parámetros de


funcionamiento que se puede reprogramar, estos parámetros presentan valores
interdependientes entre sí, es decir al cambiar el valor de un parámetro es necesario
recalcular los demás parámetros. Esto requiere una interface y protocolos que hagan
posible una configuración fácil y sin conocimiento detallado por parte de cualquier
usuario.

2 Funcionamiento general

El tranceiver inicialmente se encuadra en modo receptor y analiza si detecta un


paquete valido, el cual debe tener la dirección del tranceiver programada con
anterioridad mediante la herramienta CUBESAT COMM SETUP. Al mismo tiempo el
tranceiver también está a la espera de datos que el usuario desea enviar o de comandos
para la reconfiguración.

Fig 1. Interface de comunicación del tranceiver.

La entrada y salida de datos del tranceiver se hace mediante una interface serial
SCI, cuyos niveles de voltajes están entre 0V para 1 lógico y 3.3V para 0 lógico. En
esta misma interface serial también llegan los comandos que permiten cambiar los
parámetros del tranceiver.

271
Fig 2. Modulo tranceiver.

El integrado que se encarga de la etapa de RF es el ADF7021-N de Analog


Devices el cual entrega al microcontrolador los datos en banda base mediante una
interface SPI utilizando un pin bidireccional.

Fig 3. Forma de onda datos SPI.

2.1 Programación del tranceiver.

El ADF7021-N tiene 15 registros en los cuales se establecen los parámetros de


funcionamiento, estos registros son enviados por el microcontrolador mediante una
interface serial dedicada especialmente para esta función.
Los 5 primeros registros permiten configurar el pll, la modulación y las frecuencias
de las señales de reloj que definen la tasa de transferencia. Los registros 5 y 6 permiten
configurar los parámetros del filtro de IF y su calibración. El registro 7 permite hacer
lecturas de algunos de los sensores incorporados del ADF7021-N como la
temperatura, la frecuencia IF, el RSSI (Fuerza de la señal recibida) y el voltaje de
alimentación. Los registros 9 y 10 se encargan del Control Automático de Ganancia y
del Control de frecuencia. El registro 11 permite configurar la palabra de
sincronización o SYNC WORD, la cual es también la dirección de tranceiver.

272
Tabla 1. Registro ADF7021-N.

2.2 Modo receptor.

El primer paso para entrar en modo receptor es encender el VCO externo, y esperar
aproximadamente 0.7ms para que se estabilice la señal. Luego se debe configurar los
relojes que fijan la velocidad de transmisión y recepción. Se realiza la configuración
del filtro IF, para garantizar que la frecuencia central del filtro sea lo más cercana a los
100kHz, se puede realizar una calibración fina que toma alrededor de 8.2mS o una
calibración más rápida pero menos precisa que toma unos 200uS, pero que solo
proporciona una precisión de ±2.5KHz.
Al encender el PLL se cierra el lazo, encendiendo el comparador de fase y el
divisor de frecuencia. Y por último el encender el control automático de frecuencia,
hecho esto el tranceiver estará listo para recibir los datos provenientes del canal de
comunicaciones.
act configuración ...

VCO on
Esperar 0.7
ms

Escribir Reg
3 Tx/Rx
CLOCKS

Cal Filtro IF

Encender
PLL Esperar
40uS

Encender
demoduladores

Encender
AFC

Recibir
Datos

Fig 4. Diagrama actividades configuración modo receptor.

273
2.3 Modo transmisor.

Para llevar el tranceiver a modo transmisor se debe encender el VCO interno y esperar
aproximadamente 0.7mS para estabilizar la señal, luego se establece la frecuencia a la
que se quiere transmitir.
El siguiente paso es encender el amplificador de potencia y enviar los datos, para
salir del modo transmisor se debe apagar el amplificador y llamar la rutina de modo
receptor.

act configuración m...

Escribir REG1
Esperar 0.7 mS

Establecer
Frecuencia

Encender
Amplificador

Env iar Datos

Apagar
Amplificador

Fig 5. Diagrama actividad configuración modo transmisor.

En modo receptor o transmisor el ADF7021-N siempre entrega el reloj por el pin


Clkout, por tanto el microcontrolador siempre está en modo SLAVE, y los datos son
entregados por un pin bidireccional TxRxData.

2.4 El programa del microcontrolador.

A continuación se expondrá brevemente el programa que se ejecuta en


microcontrolador mediante un diagrama de flujo simplificado.
El microcontrolador almacena en la memoria flash los valores de los registros que
permiten la configuración del tranceiver, estos valores son cargados en la memoria
RAM del microcontrolador. El siguiente paso es habilitar el ADF7021-N llevando a
‗1‘ lógico el pin CE y esperar a que el regulador interno se estabilice.

274
act código microcontrolador

Inicializar Ram

Habilitar
Tranceiv er

Verificar
Regulador

[Regulador No Listo]
Estado del
Regulador

[Regulador Listo]

Modo Rx

Verificar estado PII

[PII no Enganchado]

PII Engancho

[PII Enganchado]

Config. SPI
Slav e

Fig 6a. Diagrama Actividades código microcontrolador.

Ahora es posible entrar en modo receptor y verificar que el pll se ha enganchado


para poder esperar la recepción de datos.
El microcontrolador escanea constantemente por la entrada de un dato ya sea si
proviene del puerto SPI, que son los datos demodulados por el ADF7021-N o del
puerto SCI que puede ser datos para enviar por RF o comandos para reconfiguración.

act Codigo Microcontrolador

A
[Datos cargados

Datos en
SPI? Env air por
SCI
en SPI]

B
[Datos Cargados en SCI]
Datos en
SCI?

Fig 6b. Diagrama de Actividades código microcontrolador.

Si llegan datos por el puerto SCI y el primer byte corresponde a 0x7E la cual es la
bandera de sincronización utilizada en AX.25, significa que se está recibiendo un dato
que debe ser enviado por RF, se debe entrar en modo transmisor y enviar los datos que
van llegando, esto continua hasta que se recibe otra vez la bandera 0x7E. Que es el
final de un paquete AX25 y el tranceiver vuelve otra vez al modo receptor.

275
act codigo microcontrolador

Bandera '7eh' C
[Activada]

Guardar
Bandera 'P' Registros en A
[Activada] Env iar 'OK'
RAM

Guardar
Bandera ´T´ Registro en
[Activada] Env iar 'OK' A
RAM

Bandera 'R' Readback


[Activada] Env iar Dato A

Bandera 'X'

Guardar en Env iar Reset


Bandera 'S'
[Activada] [Activiada] Flash

A Reset
Env air 'OK'
Bandera 'R' [Activada]

Fig 6c. Diagrama de actividad código microcontrolador.

Si los datos que llegan por SCI el primer byte corresponde a una de las banderas
que identifican o encabezan cada comando de configuración, el microcontrolador hará
efectivo ese comando ya sea recibiendo y/o almacenando en flash los registros o
realizando la lecturas de los sensores.

act Codigo Microcontrolador

Modo TX

Env iado por SPI


Hacia RF

Dato en
[Datos no SCI
cargados
en SCI]

[Datos cargados en SCI]

Env iado por [Bandera no esta


SPI Hacia en '7eh']
RF

Bandera '7eh'

[Bandera en '7eh']

Modo Rx

Fig 6d. Diagrama de actividad código microcontrolador.

276
2.5 Configuración desde el software.

La herramienta software que se desarrolló para programar el tranceiver, tiene una


interface amigable que permite cambiar los diferentes parámetros tales como la
frecuencia de transmisión y de recepción, potencia de salida, ancho de banda filtro IF
entre otros, para luego enviarlos mediante puerto serial al tranceiver. Los niveles de
voltajes son convertidos por el cable que viene con el tranceiver.

Fig 7. Panel Frontal CUBESAT COMM SETUP.

Para poder llevar a cabo la programación se ha especificado la siguiente estructura


de comandos. El primer byte identifica el tipo de comando.

Fig 8. Comandos configuración de tranceiver.

Los dos primeros comandos permiten la transmisión de los registros desde el PC al


microcontrolador. El campo de datos de estos dos comandos llevan los 4 bytes de cada
registro, cada registro se envía individualmente.
El segundo comando solo se emplea para enviar los registros N y
VCO/OSCILLATOR que se utilizan en modo transmisor.
El comando Readback no tiene campos de datos, permite hacer petición de lectura de
los sensores del ADF7021-N basándose el valor del registro 7 cargado en RAM
anteriormente.
El comando SX permite el almacenamiento de los registros en la memoria flash,
para mantener la configuración al encender el tranceiver y SR permite configurar el
tranceiver con los valores de los registros en RAM.

277
2.6 Comunicación programador.

La comunicación entre el CUBESAT COMM SETUP y el tranceiver comienza al


hacer click en comando ‗SEND‘ en el panel puerto serial, enviando cada registro al
tranceiver, el cual tras recibir y almacenar en RAM cada registro responderá con un
OK para indicar que ha terminado de ejecutar el comando y que está listo para recibir
el siguiente comando.

Fig 9. Configuración del tranceiver.

En el caso del comando ‗R‘, el tranceiver devolverá dos bytes en el cual van
codificados la medición de los sensores del ADF7021-N.

Fig 10. Comunicación entre Cubesat Comm Setup y el tranceiver.

3 Conclusiones y trabajos futuros.

Queda ahora acoplar el tranceiver con el modulo beacon del tranceiver y el modulo de
la capa de enlace AX25 que permitirá la comunicación con los radios de la estación
terrena.

Referencias

1. Simulation of communication systems. M.C. Jeruchim , P. Balaban, K. Sam Shanmugan. Ed


Plenum Press, 1992
2. Satellite communications systems: design principles. M. Riccharia. Ed MacMillan, 1995
3. Satellite communications systems. G. Maral, M. Bousquets. Ed Wiley, 1996
4. Digital communications. E.A. Lee. Ed Kluwer, 1994
5. Modulation and noise spectral analysis, Panter,Mc. Graw Hill, ISBN 07-048446-4
6. Advanced electronics Comunications Systems, Wayne Tomasi, Mesa Community, Prentice
Hall. ISBN 0-13-011214-3025
7. Digital Communications, Thomas C. Barty, Howard W. Sams & Company. ISBN 0-471-
877837-5
8. Satellite Communications, Timothy Pratt & Charles W. Bostian, John Wiley & SonsI.

278
IS.B.N. 0-471-877837-5
9. Hop Calculation in Digital Radio Systems, Siemens Telecomunicazione SPA, Italy. Rp.
10/03 issue2, december 1987.
10. Design of Device & Systems, William H. Middernoff, Marcel Deker,Inc. ISBN 08247-7391
11. Telecommunication Transmission HandBook, 2ed. Edition, Roger L. Freeman, John Wiley
& Sons. ISBN 0471-08029-2
12. Brieß, K., Montenegro, S., et al., ―Demonstration of Small Satellite Technologies by the
BIRD mission‖, Proceedings of the 16th Annual AIAA/USU Conference on Small
Satellites, Logan, Utah, USA, Aug. 2002
13. Barza, R., Aoki, Y., Schilling, K., ―UWE-1, A Student Built Pico-Satellite‖, Proceedings of
the 6th International Workshop on Research and Education in Mechatronics, Annecy,
France, June 30-July 1, 2005,
14. CubeSat Design Specifications Document,Calpoly and Stanford University, , Revision VIII,
2003, accessed on 06.12.2005
15. <http.//cubesat.calpoly.edu/documents/cubesat_spec.pdf>
16. Nakaya, K., et al., ―Tokyo Tech CubeSat: CUTE-1 – Design & Development of
17. GMSK Modulation for Digital Mobile Radio Telephony, IEEE Transactions on
18. Communications, vol COM-29, No. 7. pp. 1044-1050, July 1981. Murota, K. and Hirade,
K.,
19. Digital Communication Systems, Prentice-Hall, Englewood Cliffs,
20. NJ, 1987. Pebbles, P. Jr.,
21. Digital Communications: Fundamentals and Applications, Prentice-Hall, Englewood Cliffs,
NJ,
22. 1988. Sklar, B.,
23. Narrow-Band Transceiver IC ADF7021-N, Analog Devices, 2008.
24. Rf Circuit Design, Newnes, Bowick Chris, 1996.
25. Rf Design Guide: Systems, Circuits, And Equations, Artech House, Vizmuller Peter, 1995.

279
Conocimiento para toso: La inclusión social hacia la
competitividad educativa mediante un modelo de
gobernabilidad basado en conocimientos para la
educación superior en Colombia por ciclos propedeuticos

Alfonso Pérez Gama 1, Guillermo Hoyos Gomez 2

Decano, Life Senior IEEE Member


11

2FESSANJOSE Rector Principal


FUNDACION DE EDUCACION SUPERIOR SAN JOSE
Bogotá D.C., Colombia
japerezg@ieee.org

Resumen: La educación técnica y tecnológica no se ha visto


favorecida por la decisiones de la Sala CONACCES del Ministerio de
Educación Nacional en que se ha compelido a las Instituciones de
Educación Superior en Colombia a reducirle el nivel académico al las
carreras Técnica Profesionales de Ingeniería despojándolas de la
ciencias básicas en un grave detrimento de la calidad y competitividad
en más de 30 años de actividad. Lo anterior es un caso de exclusión
social al considerarla como la pariente pobre de la Educación Superior.
Ha habido varias leyes y decretos reglamentarios con el objeto de
promover mayor cobertura de conglomerados sociales de menores
ingresos con la estrategia de los ciclos propedéuticos pero pari passu el
organismo de aseguramiento mencionado ha establecido exigencias
extraacadémicas que hacen ingobernable la educación Técnica
Profesional y Tecnológicas. Frente a estos problemas la
FESSANJOSE en los últimos años ha venido desarrollando
modelos matemáticos y computacionales resultados de la
recontextualizacion e innovación social del Modelo Interindustrial
de W. Leontief. Estos avances se han defendido en eventos de talla
mundial del IEEE, la ACM y el ISTEC.

Se presenta un análisis crítico de los inconvenientes y


complicaciones al respecto. Nuestra propuesta en un modelo
analítico para la gobernabilidad y sostenibilidad Académica y
Financiera, la Deserción y la Exclusión Social. Se trata de Iniciativas
centradas en Investigación, desarrollo y experimentación con
aplicación de Arquitecturas de conocimientos y de TICs. Se concreta
con un sistema diseñado e implementado para enfrentar la estrategia de
los ciclos propedéuticos primero con un conjunto de instrumentos
analítico-matemáticos que posibilitan la gestión de conocimientos
curriculares: modelo FESSJ-PROP, que es un sistema estructural para
analizar y estructurar la cohesión y coherencia entre los ciclos.
Contiene un modelo estudiantil individualizado para mejorar su
productividad en el proceso de articulación desde la Educación
Secundaria hasta la Profesional y con complementos propedéuticos.
Se integra con un sistema de flexibilización multidimensional, que
posibilita la gerenciabilidad del ambiente complejo y heterogéneo.
Como validación se construyó el prototipo inteligente basado en
conocimientos, iCOACH.

281
Palabras claves: Modelo matemática, ciclos propedéutico, matrices
de coherencia curricular, gobernabilidad academica, sostenibilidad
financiera, gestión del conocimiento, deserción.

1 Referentes internacionales.

La Ingeniería está cambiando como consecuencia de la evolución científica y


tecnológica y las necesidades de la sociedad y sus demandas. Los ingenieros
desde sus niveles tempranos de formación necesitan entender la estructura y
comportamiento de los sistemas desde los niveles nano hasta los megasistemas
extremadamente complejos en grande escala. Además la convergencia de
disciplinas científicas y tecnológicas que exigen también un enfoque
interdisciplinario en la educación. Para entender los desafíos se requiere revisar
algunas megatendencias más identificables en que se destacan: [10]
• Una sociedad globalizada que demanda apertura, en lo económico, social,
cultural y político. Se forman bloques/alianzas económicos y geopolíticas, un
poder mundial multipolar, y la internacionalización de las formas culturales,
educativas y sociales. La formación de alianzas, por razones económicas,
geográficas, religiosas, culturales, y financieras. Los nuevos paradigmas de la
informática como el Cloud Computing, está promoviendo nuevos realineamientos
de la información y del conocimiento ofreciendo nuevas dramáticas posibilidades a
los sectores modernos de la economía pero mayor rezago a los sectores sociales.
• Avance de la revolución científico-técnica en el campo de nuevos
materiales, fuentes alternativas de energía, inteligencia artificial/computacional,
nanotecnología, microelectrónica, aplicaciones de la física cuántica, alta
informática, industria aeroespacial, biotecnología y sus aplicaciones farmacéuticas y
agroindustriales e ingeniería genética.
• Un realineamiento de los países hacia un nuevo orden económico mundial
ya mencionado,impulsado por instituciones multilaterales, que da como resultado la
supremacía del capital financiero sobre el capital productivo e intelectual, la
exportación de capital de los países pobres hacía los países ricos, la supremacía
alimentaria y agroindustrial de los países transdesarrollados, la internacionalización
de las formas y sistemas de producción, no así de las relaciones laborales y la
formación de una creciente acumulación de mano de obra.
• El deterioro ambiental por la industria de chimenea: el uso de energía
contaminante y la desmedida deforestación como es el caso de la Amazonía, que
produce desiertos, conflictos por el agua, el calentamiento global y el regreso de
enfermedades a los países subdesarrollados ya controladas entre otros. La
agroindustria moderna que desplaza en forma importante la producción de
alimentos que está generando hambrunas.
Las sociedades, en especial las universidades se destacarán aquellas que tengan
la capacidad de controlar la dinámica del cambio y beneficiándose de la
inteligencia, datos, información y el conocimiento con disponibilidad global y de
adaptarse rápida y productivamente (con inteligencia organizacional) a las
cambiantes condiciones del mundo. En este nuevo orden, es importante encontrar
nuevas alternativas, construir modelos complejos de desarrollo. Las Facultades
de ingeniería tienen un papel clave que jugar en este sentido entre los cuales
cabe mencionar los siguientes desafíos:
• Necesidad de entender la estructura y comportamiento de temas punteros desde la
nanoescala hasta sistemas en muy grande escala: extremadamente complejos
como los sistemas de los sistemas (System Of Systems).
• Necesidad de la aplicación intensiva de los modelos y herramientas más
complejas de las TIcs, para aumentar la capacidad analítica y la productividad
en los procesos de planeación, diseño,construcción y operación.
• Necesidad de ser conscientes, sensibles y tolerantes, no solo a los cambios
sociales sino a las nuevas exigencias (gobernabilidad, sostenibilidad,
globalización, redistribución del ingreso, inclusión).

282
En consecuencia los planes de estudio de Ingeniería a todo nivel en el Siglo
XXI deben incorporar nuevos campos:

•Lo Nano y lo Micro


•La ingeniería de los sistemas de los sistemas SOSE y Sistemas Globales
•Ingeniería y las ciencias de la vida natural y artificial
•Sistemas Complejos de Ingeniería y la complejidad en general

La misión de los planes de estudios en Ingeniería a todo nivel, debe promover


concientización en cuanto a:
•A los cambios sociales y académicos: Desarrollo Pedagógico y Financiero
Sostenible, y la
Gobernabilidad Académica y Pedagógica.
•Alta sensibilidad de la población marginada y la desplazada, excluidas de los
beneficios de la
modernidad, de las TICS y de la Sociedad del Conocimiento.
•La sostenibilidad debe garantizar su adecuación a las necesidades del presente
sin comprometer la capacidad de las generaciones futuras para satisfacer sus
necesidades.
•La gobernabilidad académica también es la expresión de la garantía que los
graduados resuelvan problemas actuales y sobrevivan con éxito en el futuro
resolviendo nuevos problemas con mayor complejidad.
•La globalización de la Ingeniería que desborda lo local: internacionalización
de los planes de estudio como un imperativo y como garantes de los TLC.
•De la acreditación de alta calidad a la Acreditación Global de programas
académicos que es una consecuencia natural de los procesos de globalización de
los servicios de Ingeniería, la apretura económica y la apertura educativa.
•Mayor proactividad en la identificación de los requerimientos de la industria en
conocimientos, de las habilidades, competencias y actitudes para la empresas del
III Milenio.
•Equilibrio entre los profesores investigadores con profesores con acreditada
experiencia docente a todo nivel TP, T Y P.

2 La calidad en educación superior

La búsqueda de la excelencia educativa es uno de los propósitos del MEN en sus


últimos años de excelencia. Se trata de lograr de forma coherente, consistente y
disciplinada la satisfacción del estudiante, los padres de familia, la comunidad, la
industria, del gobierno nacional y del resto de la sociedad global, con los graduados
competitivos, productos de investigación e innovación y
servicios de proyección social que puede ofrecer una institución.
La instituciones son conscientes de los altos costos que la Calidad como cultura
y estrategia corporativa pero disminuye en forma más que proporcional, los costos por
reprocesos, reingeniería, restructuración y redesarrollo. La retribución es cada vez
mayor credibilidad, las nuevas ventajas competitivas como proyecto educativo con
una alta proyección social. Todo ello se une a las altas demandas sociales y
económicas para las IES.
La investigación se ha privilegiado para las IES y los postgrados en
detrimento de las Instituciones T/T pero que a la hora de los registros calificados, la
piden y además se exige:
•La actividad continua entorno a la selección de información y a la
generación, desarrollo y aplicación de competencias investigativas, conducente a
la adquisición de herramientas de orden cognitivo y desempeños de orden
procedimental, que permitan al sujeto de la investigación, definir tanto el
problema como la metodología para desarrollar el proceso investigativo. Las TICs
de punta redefinen el mismo contenido de la investigación.
•El trabajo procesal que desarrolle actitudes interrogativas hacia el conocimiento

283
nuevo y a la innovación, frente a la realidad que complementada con una
fundamentación teórica, tanto del problema de investigación como de la
metodología, permita formular de manera organizada, coherente y contextualizada
un proyecto de investigación.
•La divulgación y presencia en eventos académicos de talla mundial, que
promuevan el intercambio y el trabajo colaborativo
•Las posibilidades de Innovación deben reconocerse en las T/T y tener la misma
ponderación frente a las entidades de financiamiento.
El problema es que los países pobres y de desarrollo medio no somos actores en
esta revolución del conocimiento científico y tecnológico. Hay una división entre
quienes generan el saber y los productos que de él se derivan, y quienes simplemente
lo utilizan. Esta relación está mediada por relaciones y tratados comerciales con
respaldada por derechos de autor. Esto resulta en una moderna forma de creación de
dependencia impuesta por entidades corporativas que controlan los procesos de
investigación y desarrollo, lo que en los hechos produce un mundo que paga el saber
y un mundo que se beneficia económicamente de ello.
El paradigma científico imperante desde hace menos un siglo, fomenta la
especialización disciplinar, fenómeno que ha traído consigo el divorcio entre teoría
y practica, entre la investigación y la docencia, entre ciencias de la naturaleza y
ciencias humanas, entre el saber racionalista y el saber tradicional.
La responsabilidad social es otro elemento que incrementan las demandas
sociales: las IES como garantes del derecho constitucional a la educación de alta
calidad, el medio ambiente, los compromisos con la sociedad civil, la industria y el
país que exige mejores lugares en competitividad. En este sentido los avances de
Colombia son muy discretos en últimos 30 años.
Lo anterior unido al auge de los TLC de Colombia con numerosos países,
exigen a las IES la visibilidad internacional, el bilingüismo, infraestructura mejorada
en forma más que proporcional para la movilidad estudiantil, docente y de
investigadores mediante procesos sostenibles apoyados por convenios con
instituciones extranjeras de alta calidad, la re-estructuración de los planes de
desarrollo, con las funciones sustantivas de la educación superior (docencia,
investigación y proyección social) y las propias de su quehacer como IES
(Tecnologías, Bienestar, Planeación -incluyendo procesos de autoevaluación y
calidad-, Promoción institucional).
La normatividad vigente obliga también a esfuerzos adicionales a las instituciones
como lo es la adecuación de dichas normas, nuevas plataformas y demás
exigencias que implican mayores gastos pero que no se ve apoyada por nuevos
estímulos, i. e las exigencias cada vez más protuberantes que no se traduce en la
posibilidad de una veeduría o tercera parte ni se ofrecen mayores flexibilidades del
proceso, donde van a primar más los mecanismos ingenieriles de la calidad
industrial que no necesariamente están alineados con la calidad de los sectores
sociales.
Por el contrario son demandas desproporcionadas que indudablemente afectan la
gobernabilidad y sostenibilidad académica y financiera.
En los últimos años como ya se mencionó, el país ha hecho esfuerzos en lograr
TLC con varios países de igual o mayor desenvolvimiento que el nuestro, en los cuales
se destacan la movilidad laboral, docente, investigativa y de profesionales que exigen
imperativamente programas y planes de estudio de ingeniería altamente
competitivos en el mundo globalizado y por consiguiente siguiendo estándares
internacionales. Las políticas públicas se afianzan en las estrategias estatales de
cobertura, alta calidad y eficiencia, cuyo objetivo es transformar el sistema
educativo en magnitud y pertinencia para garantizar la competitividad del país
pero paradójicamente se aumentan las estadísticas de deserción, repitencia y en
especial de exclusión.

284
3 AUTONOMIA Y GOBIERNO

La autonomía Universitaria se ha visto seriamente comprometida. La garantía


desde de la AUTONOMÍA UNIVERSITARIA promulgada desde la Ley 30 se ve
altamente restringida por tanta injerencia de organismos como el CONACES que
bordea los límites del abuso: No se definen fronteras por parte de la Salas y aún de
algunos Pares Académicos que conlleva a que las IES se dobleguen ante las
subjetividades y a veces exabruptos que se cometen y que a la postre priman en la
decisiones y atentan contra la misma sostenibilidad académica. Se reconoce el
acudir a la única instancia como lo es el Contencioso Administrativo lo cual resulta
indeseable y es un recurso finalista muy inoportuno y muy lento. El desborde de las
funciones de CONACES centradas en el deber ser del aseguramiento de la calidad
a la de un interventor sin reglas claras. El imponer modelos curriculares extraños
desconociendo los logros en competitividad de las TP en 30años y despojando a las
carreras Técnicas Profesionales en Ingeniería, de las Ciencias Básicas, es un claro
ejemplo en que no se propende por la alta calidad y competitividad sino todo lo
contrario: bajar el nivel hasta límites grotescos que ninguna IES ha pedido.
CONACES redefine las TP en Ingeniería despojándola de las Ciencias Básicas,
disminuyendo solidez y la competitividad adquirida reflejada en la aceptabilidad en el
país, lo cual va en contravía de la Ley 1188 y su decretos reglamentarios.
El problema de la calidad educativa ubicada dentro de un sector social altamente
sensible, reviste alta complejidad por las repercusiones, en términos de las
implicaciones por los grandes esfuerzos, desgastes administrativos, económicos y en
especial por el futuro de los programas académicos de una Institución.
Desafortunadamente son muchas las quejas y reclamos por los abusos, juicios de
valor del proceso y queda un vacío importante: Una veeduría o un defensor del
Usuario, que a manera de tercera parte, garantice el logro de los objetivos de
calidad que se buscan con la normatividad y encausen la efectividad del proceso de
manera convergente. Lo anterior genera un ambiente de desconfianza frente al
extremado autoritarismo de las entidades como las Sala de CONACES.

4 LA GOBERNABILIDAD

Es un concepto que va más allá de lo administrativo que está asociada con las
condiciones de la capacidad institucional para ofrecer los bienes y servicios
educativos, la facilidad de la toma de decisiones, la gestión del nuevo capital
intelectual y relacionados para responder a las necesidad del Estado, las empresas y se
la sociedad en general. Se ve afectada por la sobrecarga de las [1] demandas y
exigencias sociales y también por factores como la confianza, la participación y la
concertación, que desconoce las Salas de CONACES.
La gestión institucional y sostenibilidad están fuertemente asociadas. Y así
como no se trata de un asunto exclusivamente de educadores, más allá que allí
radica lo sustantivo de la institución- la sostenibilidad tampoco es un asunto
estrictamente financiero, aunque lo financiero es un componente estratégico de la
solidez de las instituciones educativas.
Un modelo de gestión institucional es la estructuración consistente, coherente,
concertada, comprometida, participativa y asumida por el conjunto de sistemas y
actores, acerca de las formas de pensar, de decidir, de actuar y de aprender que
muestra una institución en las diferentes dimensiones de su estrategia. Y desde allí se
puede ir construyendo el camino hacia una mayor sostenibilidad. El abuso de la
concertación (que no es consenso) que posibilita la Ley 1188 se ha minimizado. Se
afirma en numerosos documentos del MEN por ejemplo: que se ha reunido con las
asociaciones profesionales, pero ello no ha garantizado en forma alguna que se
haya tenido en cuenta sus opiniones por lo cual no aparecen en la normatividad
aunque si como invitadas de piedra. La inclusión social, la superación de la
exclusión laboral y la reducción del desempleo entre los jóvenes se ve en la
práctica contrarrestada porque hay muchas ambigüedades en la posición del MEN

285
frente al grave problema de los ciclos propedéuticos. No se evidencia cómo el
fortalecimiento de la educación técnica y tecnológica favorecerá también la
movilidad de los estudiantes entre los ciclos de formación y en los distintos
niveles del sector productivo. Tampoco se evidencia el ofrecimiento elementos
fundamentales para conseguir exitosamente la introducción y establecimiento de
una educación técnica profesional y tecnológica de calidad internacional dado que
en la práctica está ocurriendo es todo lo contrario:
Se promueve el adelgazamiento de las TP lo cual va en contra de cualquier
paradigma de calidad yse envía el mensaje que estos ciclos son para estudiantes
cercanos a la discapacidad mental, donde palabras como ingeniería, cálculo, física
y en general las ciencias básicas, están prohibidas!!!.
La democratización de la educación y el acceso al conocimiento ha sido un
propósito del MEN pero el manejo documental de las instituciones en relación con
los procesos de acreditación, ha dejado mucho que desear por los protuberantes
errores y desorden informacional a la hora de CONACES, tomar decisiones y no
son pocos los casos que se han dado: se toman decisiones con información
equivocada. Lo anterior sugiere sin lugar a dudas, que la modernización al interior del
MEN y la falta de arquitecturas de datos afecta gravemente la gobernabilidad de las
IES.
Los cambios dramáticos en la sociedad del conocimiento tal como lo ha reconocido
la Cumbre Mundial de la Sociedad de la Información, exigen que la formación
de un TP vaya más allá de lograr unas competencias específicas: lo fundamental
es que este TP debe prepararse para sobrevivir con éxito los mencionados
cambios por lo cual debe enfrentar el shock de nuevos conocimientos y
responsabilidades en un país que quiere ser más competitivo y en una sociedad global
más exigente. Lo contrario evidenciará es que muchos de nuestros graduados irán a
otros países a desempeñarse en ocupaciones inferiores.

5 CICLOS PROPEDEUTICOS

Se afirma que el programa de Fortalecimiento de la Educación técnica y


Tecnológica requiere ser consolidado para lograr elevar la valoración que se da
a esta formación. ¿Esta consolidación implicará el reconocimiento de la Autonomía
Universitaria para aportar su iniciativa y creatividad en el diseño de programas por
ciclos propedéuticos?
Si no se le da el valor a dicha autonomía: ¿cómo se va a garantizar la
sostenibilidad y gobernabilidad académica en las IES?
Sobre la articulación de la Media con la superior, se nota mucha improvisación a
tal punto que a corto plazo se van a producir muy pocos casos de éxito, dado que
el problema requiere investigación, altas dosis de concientización y de reflexión,
grupos expertos de trabajo y buena voluntad de las partes para lograr los objetivos
misionales. [3],[4][30].
La Ley 1188 abre las posibilidades para ofertar programas en áreas de
formación por CICLOS PROPEDÉUTICOS. Las políticas públicas y el Decreto
Reglamentario de la anterior Ley, no son muy claras respecto del ofertamiento de
programas bajo dicha estrategia. La complejidad de los Ciclos Propedéuticos requiere
que el MEN defina algunos criterios complementarios dado que el Documento de
Políticas a este efecto, tiene ambigüedades y es analíticamente incompleto.
Dejar a la subjetividad de la Sala o de los Pares Académicos es altamente
inconveniente y atenta contra la misma calidad de la educación. O porqué no
posibilitar a las IES que se acrediten con organismos reconocidos como el ICONTEC
e instituciones internacionales de certificación?
La Ley mencionada establece además para la formación por CICLOS
PROPEDÉUTICOS que la definición de las características se identificarán los
elementos generales de cada programa, sin perjuicio de que las instituciones de
educación superior puedan incluir en sus currículos elementos que los particularicen,
en virtud de no afectar la potestad constitucional en materia de la autonomía

286
universitaria. Este valor agregado no lo admite CONACES, por el contrario reduce
la preponderancia de las T/T al adelgazarlas a la mínima expresión y las reduce a
carreras Técnicas Laborales.
Lo que queremos es que se permita que nuestros programas compitan en la
sociedad global, con planes internacionalizados y con recomendaciones / estándares de
talla mundial: No se está pidiendo que se ablanden los estándares de calidad, sino por
el contrario que se permita a las IES la innovación y la creatividad en el diseño de
estos currículos y mejorar el rigor académico hacia la alta calidad.

6 SINTESIS DEL PANORAMA

Se visualizan muchas oportunidades sin precedentes para satisfacer necesidades


educativas y enfrentar los ingentes problemas de la Educación postsecundaria Técnica
y Tecnológica, entre las
cuales destacamos:
 La Educación y la investigación apoyadas por redes sociales/cibernéticas (uno de
los 4 Pilares del Plan Nacional de las TICs). En la siguiente Sección
contextualizamos nuestros proyectos al tenor de la Comunidad Europea, del 7
Programa Marco.
 Inadecuados Modelos Evaluativos del Progreso Cognitivo del Estudiante (con
competencias cuantificadas). Fallas en calidad de retroinformación y seguimiento
del progreso de cada estudiante a lo largo de su formación.
 Ausencia dramática de contenidos y de capacitación a Docentes en Autoría
con ausencia de herramientas de para generar contenidos digitales. También fallas
en Virtualización y falta de contenidos multimediales y de realidad virtual.
 Ausencia de modelos analíticos con sus métricas que posibiliten la de
gobernabilidad y sostenibilidad académica y financiera en las IES.
 Ausencia de modelos para analizar la Educación Superior por ciclos propedéuticos
que enfrenta grandes vacíos en la normatividad y no se ha explicitado los
requerimientos curriculares válidos que promuevan la alta calidad y
competitividad que exige la sociedad global a los graduados. Lo anterior da
paso a la aplicación a subjetividades y juicios de valor en que se favorecen las
grandes élites de la IES en detrimento de la educación democrática que posibilite
proyectos de vida de conglomerados marginados, desplazados y exluidos de los
beneficios de la Sociedad del Conocimiento.

7 MODELO MATEMATICO COMPUTACIONAL PARA


LOS CICLOS PROPOEDEUTICOS EN COLOMBIA

Frente a los problemas destacados y para enfrentar la complejidad, la


FESSANJOSE abordó con responsabilidad la búsqueda del conocimiento para
identificar instrumentos analíticos con sus métricas correspondientes. Al cabo de 4
años se han presentado 2 proyectos a COLCIENCIAS y se busca incursionar en la
Comunidad Europea como detallamos en la siguiente sección. Se ha avanzado con
recursos propios en esta investigación a tal punto que el Ministerio de Educación
estudió este esfuerzo y lo incluyó como un caso de éxito en el BANCO DE
EXPERIENCIAS SIGNIFICATIVAS DE LA EDUCACION SUPERIOR 2010.

7.1 CONOCIMIENTO PARA TODOS

Nuestro Grupo de Investigación San José EIDOS, de la FUNDACION DE


EDUCACION SUPERIOR SAN JOSE considera relevante nuestra participación en el
marco del ICT – Information and Communication Technologies – Work Programme
2011-2012 (ICT2010 ) de la Cómunidad Europea.

287
Fig 1 Conocimientos para todos.

La figura anterior destaca el marco metodológico en prototipos de


aprendizaje y evolución nos han permitido identificar los problemas y dar respuestas
mediante el rigor de la misma ingeniería.
Buscamos apoyo y alianzas estratégicas, en especial por el hecho de que
CINTEL tiene abierta la convocatoria para su apoyo en asesoría, presentación y
demás, a dicho Programa.
Entendemos que ICT2010 es el principal instrumento de financiación del
marco político de la Unión Europea para la Sociedad de la Información (i2010), de la
Comisión Europea para la investigación, desarrollo tecnológico y demostración de
actividades. Inicialmente hemos identificado que nuestros temas podrían se
enmarcar dentro de los siguientes desafíos:
CHALLENGE 4 - "Technologies for Digital Content and Languages"; CHALLENGE
5 - "ICT for Health, Ageing Well, Inclusion and Governance"; CHALLENGE 8 -
"ICT for Learning and Access to Cultural Resources".La relevancia la presentamos
en la Tabla siguiente, dentro de las Estrategias/ Retos/ Objetivos y Esquemas
de Financiación (Strategies/Challenges/Objective and Funding Schemes) del
ICT2010.

7.2 OBJETIVO GENERAL

Tabla 1 Proyecto TICs de la FESSANJOSE

288
Reducir la alta complejidad de la armonización y articulación de los ciclos
propedéuticos que enfrentan las universidades colombianas que acometen estos
proyectos, mediante instrumentos analíticos matemáticos y computacionales. Además:
• Contribuir a la democratización del conocimiento dada la decisión del Gobierno de
involucrarse en la Sociedad de la Información con la reciente Ley de las TIC 1341 de
2009
• Articular esfuerzos dentro de la política del Gobierno de Colombia que busca
incrementar la oferta educativa para un mayor acceso de conglomerados sociales de
menores ingresos en la vía del cumplimiento de la Constitución Nacional del
Derecho a la Educación por ende a la información y la Democratización del
Conocimiento.
• Mejorar el alcance prospectivo como una herramienta para la construcción de
futuro en las instituciones de Educación.

7.3 OBJETIVOS ESPECÍFICOS

•Posibilitar el análisis curricular en el dominio del tiempo (por períodos de


tiempo) y en el dominio del conocimiento (por áreas y asignaturas) mediante modelos
lineales con lógica fuzzy.
•Cuantificar las producción de la universidad en términos del desarrollo del
conocimiento en el estudiante por ciclo propedéutico
•Aplicar las nuevas tendencias de la ingeniería de diseño: Model Driven
Engineering y Knowledge as Model Building. Además la Tecnología CLOUD
COMPUTING OPEN SOURCE por la eficiencia, la agilidad, la reducción de costos
en software, plataformas e infraestructura.
•Facilitar la comprensión y gestión de la estrategia metodológica por ciclos
propedéuticos hacia la acreditación de Alta calidad
•Enfrentar con propiedad, la complejidad implicada con las múltiples dimensiones:
administrativa, curricular, académica, pedagógica y en especial por los vacíos en
la normatividad.
•Demostrar que la productividad académica y la calidad de la Educación Superior
van de la mano en cada ciclo propedéutico en la via de la democratización del
conocimiento en Colombia

7.4 MARCO TEORICO

La matemática de la Teoría General de Sistemas en cuanto a la coherencia, se refiere a

289
relaciones lógico-cognitivas entre las partes de la arquitectura de un sistema
educativo. Es tanto un instrumento de análisis como una estructura de la
matemática lineal que comunica, (toda acción comunicativa es pedagógica),
viabilizando el análisis y justificación de un plan de estudios y dándole sentido
como un todo organizado y complejo que entrelaza la coherencia y consistencia nterna
y la externa apoyado por la lógica fuzzy.
La misión conceptual del modelo:
• Gestionar conocimientos posibilitando el análisis morfológico un plan de estudios en
Educación Superior.
• Depurar y eliminar inconsistencias y viabilizar la optimización del currículo
• Cuantificar la producción de la universidad en términos del desarrollo del
conocimiento en el estudiante (cultivo de competencias) por ciclo propedéutico
• Cuantificar la contribución cognitiva de cada asignatura por ciclo propedéutico
• Remodelar las áreas de Expertise en cada ciclo y el Know how. Asimismo su
priorización y clasificación.
• Cuantificar la gobernabilidad frente los requerimientos de una nueva competencia en
términos de conocimiento, profesores y recursos universitarios o el mismo cambio del
estado del arte.
• Posibilitar el desarrollo de un currículo libre de errores y ambigüedades
• A partir de la Matriz de Coherencia Curricular desfuzzyficada, construir y
elaborar las extensibilidades propuesta por la matriz de insumo-producto de
procesos como base del análisis estructural y de optimización (el estilo de W
Leontief).
•Posibilitar el análisis de sostenibilidad financiera con el apoyo de las matrices de
Leontief y la Teoría de la Firma aplicadas a una institución educativa frente a las
presiones de las variables macroeconómicas y a las crisis locales y mundiales, cada
vez más frecuentes como es el caso del precario sistema de financiamiento de la
Educación Superior en Colombia.

La visión del MODELO LINEAL de coherencia curricular consiste en:


• Comprensión descomplejizada de la estrategia metodológica por ciclos
propedéuticos con métricas apropiadas del conocimiento curricular.
• Optimización de recursos universitarios mediante un modelo de Programación
Lineal e Insumo –Producto.
• El modelo lineal centrado en la matriz de coherencia curricular es tanto un
instrumento de análisis como una estructura de la matemática lineal, posibilitando la
justificación de un plan de estudios y dándole sentido como un todo organizado y
complejo.
• La recontextualización y resituación del Modelo de Leontief posibilita el
Análisis de Gobernabilidad y el de Sostenibilidad con la extensión de la Matriz A, de
coeficientes técnicos, ampliada.
Como ya se mencionó la coherencia curricular se refiere a las relaciones lógico-
cognitivas entre las partes de la arquitectura de un sistema educativo. La
coherencia interna: es el alineamiento estratégico entre el plan de estudios con sus
objetivos, justificación, dados la misión y visión y debidamente articulado con el
PEI. La coherencia externa se refiere al alineamiento del estilo pedagógico de la
FESSANJOSE frente a los perfiles profesionales y capital intelectual que demanda la
industria, el gobierno, la ciencia y la tecnología, en la sociedad globalizada. La
arquitectura de procesos educativos de acuerdo con el Plan de Estudios, donde se
asocia cada uno de ellos a una asignatura que incluye clases, talleres, tutorías,
laboratorios, actividades extra-murales, virtualidad y demás. El método matricial es
del tipo morfológico, para obtener un sistema libre de contradicciones y reducción de
la indeseable entropía. La coherencia también implica armonía, articulación entre la
docencia y la dicencia, alineamiento y sincronía La coherencia adicionalmente
dentro del paradigma SOS (system of systems) y de arquitecturas de Sistemas
de Información y TICs, implica:
• Característica: visión holística e integral, 360° de la lógica académica i. e. toda la
complejidad del sistema curricular trasciende al conocimiento en todas sus
dimensiones conceptuales, administrativas, metodológicas, pedagógicas, normativas.

290
• La gestión académica se cohesiona con el PEI cuando la diferencia entre lo realizado
frente a lo deseado es cero esto es: coherencia curricular.
El PEI es la expresión de la propia comprensión filosófica del quehacer
educativo y actúa como definición de su identidad, en ejercicio de la autonomía
universitaria, reconocida por la Constitución y la Ley.

7.5 DESARROLLO DEL PROYECTO

La metodología abarca el uso de paradigmas múltiples que van de la ingeniería de


información a la moderna Ingeniería de software, de la arquitecturas de datos,
información y de software a la ingeniería de conocimientos con las inteligencia
artificial y computacional y evidentemente la ingeniería WEB. Se emplearon además
las nuevas tendencias ya mencionadas de la ingeniería de diseño: Model Driven
Engineering y Knowledge as Model Building.

Se ha hecho un desarrollo evolutivo por prototipos de aprendizaje como se ilustra en


la Figura 1. Se desarrollaron varios modelos matriciales. Entre ellas se agruparon
en dos clases: la matriz longitudinal y la transversal. En la primera sus columnas
contienen las asignaturas del plan de estudios de cada semestre académico. En la
segunda matriz las columnas con las asignaturas agrupadas según su aplicabilidad:
fundamentales, Básicas, profesionales etc. Otra clase de matriz muy importante es la
de insumo producto que contiene los coeficientes técnicos para propósitos de
optimización de recursos y de capital intelectual institucional. Más de 30 tipos de
matrices se identificaron y se construyeron como se ilustra en la tabla 1.

7.6 GENERACION DE UN HIPERESPACIO MATRICIAL PARA ANÁLISIS

La matriz de coherencia curricular en un arreglo lineal entre el conocimiento


representado en un plan de estudios y las competencias que se esperan desarrollar en el
estudiante durante su vida estudiantil.

Y = AX

(1)

Donde Y es el vector de competencias exógenas


X es el vector endógeno de procesos educativos asociados a cada asignatura
La matriz A es de Mx N donde:
Las M filas representan los niveles de competencia/EXPERTISE de la
organización
curricular de un programa académico. [16][17].
Las N columnas representan las áreas unitarias y funcionales (procesos
educativos que
involucrando clases, talleres, tutorías, laboratorios, talleres, etc.) de conocimientos del
Plan.
Cada coeficiente (celda), que representa la cohesión y coherencia de cada asignatura
del Plan de
Estudios (ciclos Técnico-Profesional y Tecnológico) con la respectiva competencia.
Esta celda puede contener otros valores cualitativos (lógica fuzzy o de la
ambigüedad). Cada valor
representa la incidencia entre la asignatura y la competencia:[4][6][7].
[𝒂𝒊,𝒋] = { si, no} (colores negro,blanco)
[𝒂𝒊,𝒋] = { nulo, media, alta} (blanco, rojo, azul en la gráfica dashboard).

En este trabajo lo presentamos en forma recontextualizada que hizo Buckley [23]


del modelo

291
abierto de insumo-producto en el cual los coeficientes técnicos están expresados
mediante números fuzzy.
Hay algunos supuestos básicos: Un proceso o unidad de conocimiento puede
alimentar una o más competencias. Por otra parte se establece la linealidad entre
las competencias y el conocimiento. Además la constancia de los coeficientes
técnicos de la Matriz A en el mediano plazo. A diferencia del Modelo de Leontief
en que la unidad de medida es el peso $, en el nuestro la unidad de medida es el
Crédito Académico que está debidamente normatizado.
Nuestro modelo propuesto permite un mejor aprovechamiento de la
información académica disponible. Del modelo de Leontief asociamos los
sectores industriales con unidades académicas que en forma agrupada podría
representarse así:

Fig 2 Unidades Académicas

Del plan de Estudios cada Unidad Académica c ngregaría un grup de asignaturas


que produce competencias en el estudiante e insume conocimientos de otras
unidades a la manera de pre-requisitos

Fig 3 Hiperespacio matricial.

El análisis de Gobernabilidad académica se apoya en el sistema de flexibilidades


de la FESSANJOSE y se cuantifica mediante la relación (1), para observar cambios
endógenos o éxogenos ya sea en las competencias o en el mismo conocimiento:

292
∆Y =∆ X

(2)

7.7 DESFUZZICACIÓN DE LA MATRIZ: RELACIONES ESTRUCTURALES

Para desfuzzificar en una primera aproximación (escalas lineales discretas), la


matriz de coherencia curricular y obtener una métrica, se aplican las ecuaciones 2, 3 y
4:

Cada [𝒂 𝒊,𝒋] expresa la relación de insumos cognitivos por unidad de


competencia/expertise cultivada: producción del sistema.

7.8 MATEMÁTICA ECONÓMICA DEL MODELO DE LEONTIEF

El modelo permite identificar las características principales del funcionamiento


intersectorial del sistema económico de un país que interactúan las industrias.[21][22].
𝑿𝒋 Se considera en el modelo que el empleo utilizado aumenta o disminuye de forma
lineal ante cambios en el valor bruto de la producción.
Aunque el modelo normalmente supone que los flujos intersectoriales de
insumos actuales, en cada sector, son proporcionales al nivel de producto de ese
sector, en el caso de flujos intersectoriales este supuesto no es adecuado.
Fue introducido por primera vez a finales de los años treinta por el ganador
del Premio Nóbel 1973, en un estudio de la economía de los EEUU por la creación de
las matrices de input-output o insumo-producto:Wassily Wassilyovitch Leontief
(1905-1999) economista estadounidense de origen ruso, nace en San Petersburgo en
el año de 1906. Emigra a los Estados Unidos en 1929, incorporándose a la Oficina
Nacional de Investigación Económica de New York.
Este modelo incorpora las interacciones entre las diversas industrias o sectores
que integran la economía de un país. El objetivo del modelo es permitir a los
planificadores predecir los niveles de producción futuros de cada industria a fin de
satisfacer las demandas futuras para diversos productos. Tal predicción se complica
en la medida que un cambio en la demanda de un producto de una industria puede
modificar los niveles de producción de otras industrias (el modelo permite el análisis
de los cambios estructurales de la economía). La matriz insumo-producto es un
registro ordenado de las transacciones entre los sectores productivos orientadas a la
satisfacción de bienes para la demanda final y bienes intermedios que se compran y
venden entre sí. Esta matriz ilustra las interacciones entre los sectores y permite
cuantificar el incremento de la producción de todos los sectores, derivado del aumento

293
de uno de ellos en particular.
Las actividades económicas se agrupan en n sectores o ramas,
donde X (vector de producción), Y(vector de demanda final) Rn representan os
vectores de valores brutos de la producción y demanda final, respectivamente. La
matriz de coeficientes técnicos se denota por A = [𝒂𝒊,𝒋], son las transacciones entre
las industrias i y la industria j por unidad de producción de j.
Con la anterior matriz (denominada de coeficientes técnicos en economía
interindustrial, que inicialmente denominó W. LEONTIEF, se pueden realizar análisis
de optimización institucional, con la adición de funciones objetivo, restricciones de
capacidad, costos unitarios por créditos, población estudiantil-objetivo, limitaciones
de recursos universitarios y muchos otros relacionados. En varios trabajos previos
hicimos este análisis para la economía colombiana y el sector salud.[24].
Se supone que la producción X se distribuye una parte para el consumo intermedio
y el resto para el consumo final. Considerando exógenamente el vector de demanda
final, la solución se obtiene despejando el vector de valores brutos de la producción:

Y = (𝑰 − 𝑨)−𝟏X , (5)

Donde I es la matriz de identidad


La matriz de Leontief, que describe el total de necesidades de insumos directos e
indirectos, es tal que sus elementos diagonales deben ser mayores o iguales a 1, lo que
significa que para producir una unidad adicional para satisfacer la demanda final
neta de proyección social, es necesario aumentar la producción de cada unidad
académica al menos en una unidad. Entre las preguntas que se hacen en este análisis
interacadémico, estarían entre otras:
¿En cuánto debe aumentar la producción del procesos 𝑷𝒊 para responder al
aumento de una unidad competencial demandada adicionalmente de dicho proceso
y en cuánto deben incrementarse las producciones de los otros procesos?

∆Y = (𝑰 − 𝑨)−𝟏∆X (6)

Esta ecuación nos permite cuantificar y predecir la producción y demás variables


institucionales: gastos, valor agregado etc.de la Universidad en diferentes períodos
académicos, como se esquematiza en la Figura 5. Este modelo genera mucha
información de tal suerte que nos posibilita analizar la sostenibilidad financiera y
enriquece el proceso de planeación PEI y favorece la formación de estrategias.

7.9 OTRAS CONSIDERACIONES SOBRE LA MATRIZ A

Las principales causas que producen la alteración de los coeficientes en el tiempo son:
 El cambio tecnológico en la producción académica e.g al introducir las TICs
y la Virtualización.
 El cambio en el estado del arte
 El incremento de los beneficios surgidos de las economías de escala
e.g. la generación de contenidos para la autoformación.
 Incrementos substanciales en la productividad cognitivo del estudiante por
el uso de tutores virtuales inteligentes como iCOACH
 Los cambios en los precios relativos (dado que los coeficientes de
Leontief surgen de una valoración monetaria).
 Los cambios en los patrones de intercambio (adquisición de libros y
textos por contenidos generados por los docentes-autores, etc.)
 La Demanda Final a nivel institucional está representada por todas las
actividades de Proyección Social, Servicios de Extensión y Consultoría, la
Investigación. Los cambios en su composición pueden originarse por los
requerimientos de la legislación de la Educación Superior que imparte el
Gobierno Nacional.
 Necesidades de satisfacer los estándares nacionales e internacionales de los
Planes de Estudio.

294
 Cambios en la producción científica y de conocimiento nuevo.
 Demanda de consultoría por parte de la empresa y el gobierno
 Generación de conocimiento nuevo como resultado de procesos de
investigación e innovación

7.10 MODELO DE PROGRAMACION LINEAL E INSUMO PRODUCTO

Una de las aplicaciones de la ingeniería de procesos es la aplicación del


modelo de Leontief combinada con la Programación Lineal, según lo afirman
numerosos autores y lo hemos evidenciado aplicando estos modelos en el Sector
salud en Colombia (Departamento Nacional de Planeación)[19][20].
La Matriz de coherencia curricular se amplía con la información institucional.
En los siguientes Figuras 4 y 5 se representa esquemáticamente la aplicación.
La construcción de estas matrices requiere de un presupuesto importante para
elaborar el trabajo de campo de varios meses al interior de la Institución.

Fig 4. Matriz de coherencia curricular ampliada a Insumo Producto Institucional.

7.11 FUNCIONES OBJETIVO

Fig 5. Funciones Objetivos Multiples.

295
8 COMPETENCIAS POR CICLOS EXPERTISE Y KNOW
HOW

Se ha observado que el desarrollo humano de las competencias básicas es permanente


respaldado por numerosos estudios en que los skill o expertise tienen un
comportamiento de alguien que continuamente aprende, a lo largo de toda su vida
representado por una Distribución Gaussiana de Probabilidad Normal. Lo anterior se
puede asociar a las competencias de los 3 ciclos propedéuticos: Experto Genérico
(Técnico-Profesional), Sub Experto (Tecnólogo) y Experto (Profesional).
El expertise exige la definición de competencias específicas o tareas sobresalientes
o el DESEMPEÑO SUPERIOR en labores REPRESENTATIVAS en un dominio que
se describen como KNOW HOW. Los procesos cognitivos asociados están ligados a
los mecanismos de aprendizaje de mayor complejidad.
El enfoque de EXPERTISE implica el desarrollo de competencias como un
continuo dinámico y está asociado a procesos formativos a lo largo de la vida que se
ven afectados por los cambios y las prácticas sociales, científicas y tecnológicas.
Debido a ello, la estructura de la competencia es variable en sí misma, variación
generalmente asociada a un requerimiento del espacio vital en el cual se
emplea.[16][17].
Los diseños de formación por ciclos propedéuticos y basados en EXPERTISE
propios de las empresas del III Milenio tienen características y rasgos cognitivos y
estructurales distintivos, el primero de los cuales es una estructura académica
articulada, secuencial, complementaria y flexible, cuyo eje fundamental sea el
desarrollo de competencias profesionales y ocupacionales.
Esta hipótesis nos posibilitó definir varias clases de matrices de coherencia
curricular básica y ampliada.

Tabla 2. Tipos de Matrices de coherencia curricular e insumo producto.

Metodológicamente, todos los profesores y directivos académicos de una IES


están convocados a participar en el desarrollo y enriquecimiento del modelo que
congrega coherentemente plan de estudios y objetivos del mismo. La navegación del
modelo (walkthrough) está posibilitada: desde un componente microcurricular de
una asignatura hasta los objetivos finalistas, debidamente cuantificado. Cada
clase matricial representa visiones académicas diferentes sobre conjunto complejo
de información muy variada. Para ilustración definimos:
La sub-matriz de Feedback correspondiente al ciclo objetivo, con la cual se
puede cuantificar la articulación de conocimientos de procesos de ciclos posteriores
para fortalecer las competencias implícitas de ciclos anteriores. Una Unidad pr v ca
un efect feedback hacia atrás cuando la producción asociada con el proceso académico
(asignatura) induce la necesidad de generación de competencias en el estudiante con
todos sus insumos.
La sub-matriz de Feedforward con la cual se puede cuantificar la articulación
del conocimiento de los procesos del ciclo actual y su alimentación a la
formación de las competencias de ciclos superiores i.e. una unidad pr v ca un efect
feedf rward hacia adelante anticipativo al generar la producción académica que otras
unidades requerirán como insumos en la obtención de sus propias producciones en
competencias .

296
8.1 BALANCE Y EVALUACION DE LA EXPERIENCIA DE LA
INNOVACION SOCIAL DE LEONTIEF

Como ya se mencionó hubo un reconocimiento por parte del Ministerio de Educación


al identificar este modelo como un caso de éxito e incluirlo en el BANCO DE
EXPERIENCIAS SIGNIFICATIVAS. El porceso de internalización de la
FESSANJOSE se ha visto favorecido por la visibilidad internacional con la
publicacion de 15 trabajos publicados en eventos world class, que implica la
aceptación Internacional de los Pares Evaluadores del IEEE/ACM/ISTEC que
reconocen la creatividad y la innovación del Proyecto como pionero en el contexto
nacional e internacional. Lo anterior es de gran importancia por la condición de la
FESSANJOSE de ser un institución Tecnológica. Además el V Premio
Iberoamericano a la Excelencia Educativa, el Premio OEI por la Escuela Integral y el
Premio OPS por Universidad Saludable.
El desarrollo profesional del software y su puesta en marcha utilizará EL
CLOUD COMPUTING. SaaS y PaaS dado su capacidades en la Escalabilidad y la
agilidad
• Las herramientas inteligentes serán ofrecidas y/o suministradas con el apoyo de
una Arquitectura Orientada por Servicios SOA: Alternativas Publish/subscribe vs
Request/Reply
• Se ofrecerán las nuevas versiones tanto de los repositorios o bases de conocimientos,
las bases de los modelos de estudiantes y curriculares.
• El ofrecimiento de guías y talleres especializados y/o complementarios para
garantizar el progreso sistemático, dirigido a instituciones, funcionarios, autores y
docentes, incluyendo también un sistema para tutoría individualizada vía Internet.
• Sistematización para su consulta a través de Internet, de las preguntas y
respuestas más frecuentes sobre los temas de desarrollo curricular etc.
• Generación de un sistema de estadísticas para docentes, autores, administradores y
pedagogos que permitan evaluar las posibles deficiencias o desventajas de los
materiales desarrollados.
• Un sistema de información histórica sobre el desempeño del estudiante. El
modelo del estudiante es individualizado.

8.2 IMPACTO SOCIAL

• El desarrollo arquitectónico de la información académica va mucho más allá de los


sistemas de información hasta el Gobierno de Datos, Información, Sistemas,
Conocimiento
• El nuevo ethos para la investigación ha identificado la gobernabilidad de grandes
volúmenes de información y conocimiento de las universidades: curriculum, docentes,
estudiantes, recursos y medios universitarios, de manera coherente, sistemática,
inteligenciada.
• Los instrumentos analíticos e informáticos utilizados en esta iniciativa bordean
el estado del arte tanto en la esfera del análisis sistemas como de la simulación de
frameworks: ¿Qué pasa si ?
• Se prevé intercambio e implementación en numerosas instituciones nacionales y
extranjeras.
• Se generarán cerca de 100 puestos de trabajo permanentes.

8.3 FUTURO TRABAJO DE INVESTIGACION

• En el marco de la Convocatoria de la Comunidad Europea, se requiere la


conformación de un consorcio integrado por 3 grupos de investigación Europeos y 3

297
Latinoamericanos. Lo anterior implica la necesidad identificar y establecer vinculos
y alianzas estratégicas para producir conocimiento y la comercialización de los
productos.
• Desarrollar Software PROFESIONAL y con estandares internacionales para
consolidar el analisis matricial de la coherencia curricular, de manera generalizada y
amistosa que implica el manejo de Planes de Estudio para cada ciclo propedéutico, la
gestión de competencias y la concreción de expertise y know how para cada programa
académico.
• El Software deberá posibilitar el manejo de la arquitectura del conocimiento
curricular
• Construir en versión profesional iCOACH como software de calidad en base a
las especificaciones funcionales logradas hasta la presente. El propósito es monitorear
el progreso individual de cada estudiante asi como el registro periódico y acumulativo
de sus competencias adquiridas. Los prototipos construídos nos han posibilitado
identificar la necesidad de desarrllar Herramienyas para el profesor con un Editor
gráfico y herramientas para el estudiante modelando individualment y cuantificando
su progreso de sus competencias.
• Construir un repositorio sólido, Base de Conocimientos para verificación de
conceptos y aprendizajes competentes por cada asignatura del Plan de Estudios
con la participación de esperto en cada area temática de los planes de estudios.
Incluye herramientas del Profesor (con editor matemático gráfico) y para el
estudiante.
• Completar el modelo de Simulacion completo de los ciclos propedéuticos con
articulacion con la educación media y básica hasta la profesional. Como
herramienta para validar alternativas del modelo con sus extensibilidades y como
instrumento para analzar los costos de los creditos académicos.
• Consolidar la producción de herramientas para la generación de contenidos
multimediales y de
ralida virtual y capacitar docentes- autores en el espacio de las TICs.
• Derivar información con sus métricas sobre el aprendizaje Institucional ya que en el
espacio de la Matriz de coherencia curricular lo que se acumula no son pupitres sino
CONOCIMIENTO.
• Consolidar el análisis de Gobernabilidad académica y de Sostenibilidad financiera
• Análisis Psicométrico de Pruebas para robustecer los estudios de deserción
• Administración de Pruebas y Mejoramiento continuo institucional

Cabe destacar que durante este extraordinario esfuerzo de investigación hemos


sometido varios trabajos a eventos de talla mundial que están en la bibliografía. Ref.
[25] a [35]

8.4 CONCLUSIONES

1. 1.Nuestra Institución acometió este proyecto de investigación como una


forma de prepararnos con alto rigor científico y disciplina académica para
enfrentar apropiadamente la nueva estrategia metodológica del MEN, de
los ciclos propedéuticos, generando un espacio de reflexión profunda,
seria y continuada.
2. En la primera Sección presentamos un marco de referencia internacional
sobre la ingeniería y un compendio de los problemas que enfrenta la
Educación Superior en Colombia.
3. Posteriormente se presenta los modelos matriciales de coherencia curricular
obtenidos a partir de la innovación social y recontextualización en el plano
del conocimiento del Modelo de W. Leontief
4. En este trabajo se ha evidenciado la resituación del Modelo de Leontief hacia
un sector social, del mundo económico al mundo académico del
conocimiento. A su vez para analizar los problemas de Gobernabilidad
Académcia y Sostenibilidad Financiera de una Institución de Educación
Superior.

298
5. Los Pares Internacionales al evaluar nuestros trabajos, han reconocido
que es escasa la literatura mundial a este propósito educativo y nuestro
sistema matemático de coherencia curricular para el análisis propedéutico ha
sido destacado como una innovación social y pionero en la arena
internacional.
6. Estamos buscando financiación para nuestro esfuerzo que está en progreso,
para completar la implementación de la inteligencia artificial y
computacional del progreso individual del estudiante técnico y tecnológico:
iCOACH.
7. Finalmente queremos que una vez está nuestro modelo verificado,
probado, validado y aceptado, queremos ponerlo al servicio de la comunidad
académica del país.
8. Se ha modelado una institución universitaria: la FESSANJOSE, basado en el
modelo de Leontief basado en procesos de unidades académicas para
representar la academia y la administración.

Referencias

1. Pérez Gama Alfonso;"PLANEACIÓN ESTRATÉGICA DE SISTEMAS DE


INFORMACIÓN Y DE CONOCIMIENTOS,
CONTINUIDAD, ARQUITECTURAS Y GOBERNABILIDAD - Courseware " Universidad
Distrital Francisco José de Caldas - I
Edición 1999; XII Edición FESSANJOSE y ACCIO Asociación Colombiana de
Informática 2008. Libro Electrónico -
Bogotá, ISBN 978-958-44-1922-4.
2. Pérez Gama Alfonso "ARQUITECTURAS DE DATOS, INFORMACIÓN,
CONOCIMIENTO, TICs Y DE SISTEMAS DE
INFORMACIÓN GERENCIAL CourseWare" Universidad Distrital Francisco José de Caldas -
I Edición 2009; FESSANJOSE
y ACCIO Asociación Colombiana de Informática 2009. Libro Electrónico ISBN 978-958-44-
5164-7 - Bogotá.
3. Ministerio de Educación Nacional; REFERENTES INTERNACIONALES SOBRE LOS
NIVELES DE LA EDUCACIÓN SUPERIOR
Y SU CONEXIÓN CON LA FORMACIÓN PARA EL TRABAJO Documento CONVENIO
DE ASOCIACIÓN E-LEARNING -
COLOMBIA 2.0 Bogotá, 21 de agosto de 2007.
4. Ministerio de Educación Nacional MARCO DE REFERENCIA PARA POLÍTICA
PÚBLICA SOBRE EDUCACIÓN SUPERIOR
POR CICLOS Y POR COMPETENCIAS MEN: www.mineducacion.gov.co
5. K. Maillet, et al Consequences of declining interest in computer Science Studies in
Europe. in IEEE EDUCON 2010
Conferencia Mundial de Educación Madrid España Abril 2010. Conference Book ISBN 978-
84-96737-70-9. CD ROM
IEEE CATALOG CFP10 EDU-CDR ISBN 978-1-4244-6569-9.
6. Joao Vasco y P Cohelo; Competence certification as a driver for professional development:
A IT-related case-study:
IEEE EDUCON 2010 Conferencia Mundial de Educación Madrid España Abril 2010.
Conference Book ISBN 978-84-
96737-70-9. CD ROM IEEE CATALOG CFP10 EDU-CDR ISBN 978-1-4244-6569-9-
7. Joosung J Lee et al: Business and Management Competences of Engineers; IEEE EDUCON
2010 Conferencia Mundial
de Educación Madrid España Abril 2010. Conference Book ISBN 978-84-96737-70-9. CD
ROM IEEE CATALOG CFP10
EDU-CDR ISBN 978-1-4244-6569-9.
8. Israel Gutierrez Rojas et al:Authoring Learning Content, Assesments and Outcomes in
an Integrated way; IEEE
EDUCON 2010 Conferencia Mundial de Educación Madrid España Abril 2010. Conference
Book ISBN 978-84-96737-
70-9. CD ROM IEEE CATALOG CFP10 EDU-CDR ISBN 978-1-4244-6569-9
9. Michael HW Hoffman et al: Knowledge, Skills and Competences: Descriptors for
Engineering Education; IEEE
EDUCON 2010 Conferencia Mundial de Educación Madrid España Abril 2010. Conference

299
Book ISBN 978-84-96737-
70-9. CD ROM IEEE CATALOG CFP10 EDU-CDR ISBN 978-1-4244-6569-9.
10. Jesus Arriaga et al: Engineering in Latin America: A view at the Higher Education
level: Special Session; in IEEE
EDUCON 2010 Conferencia Mundial de Educación Madrid España Abril 2010. Conference
Book ISBN 978-84-96737-
70-9. CD ROM IEEE CATALOG CFP10 EDU-CDR ISBN 978-1-4244-6569-9.
11. Miguel Rodriguez-Artacho et al: Enhancing Authoring, Modelling and collaboration in
E-Learning environments:
UNED research outline in the context of e-Madrid excellence network; IEEE EDUCON 2010
Conferencia Mundial de
Educación Madrid España Abril 2010. Conference Book ISBN 978-84-96737-70-9. CD ROM
IEEE CATALOG CFP10 EDU-
CDR ISBN 978-1-4244-6569-9.
12. Israel Gutierrerz et al: Assessing assessment Formats: The current picture: Special
Session; IEEE EDUCON 2010
Conferencia Mundial de Educación Madrid España Abril 2010. Conference Book ISBN 978-
84-96737-70-9. CD ROM
IEEE CATALOG CFP10 EDU-CDR ISBN 978-1-4244-6569-9-
13. Raquel M Crespo et al: Aligning Assessment with Learning Outcomes in Outcome-
based Education; IEEE EDUCON
2010 Conferencia Mundial de Educación Madrid España Abril 2010. Conference Book ISBN
978-84-96737-70-9. CD
ROM IEEE CATALOG CFP10 EDU-CDR ISBN 978-1-4244-6569-9.
14. Abelardo Pardo et al: Current Issues with Assessment Formats and Interoprability; IEEE
EDUCON 2010 Conferencia
Mundial de Educación Madrid España Abril 2010. Conference Book ISBN 978-84-96737-70-9.
CD ROM IEEE CATALOG
CFP10 EDU-CDR ISBN 978-1-4244-6569-9.
15. José Machado et al: The Role of Superior Education Institutions on Post-Secondary (Non
Superior) Education; IEEE
EDUCON 2010 Conferencia Mundial de Educación Madrid España Abril 2010. Conference
Book ISBN 978-84-96737-
70-9. CD ROM IEEE CATALOG CFP10 EDU-CDR ISBN 978-1-4244-6569-9.
16. Timothy A. Salthouse: EXPERTISE AS THE CIRCUMVENTION OF HUMAN
PROCESSING LIMITATIONS; in Toward a
General Theory of Expertise Prospects and Limits. Edited by K. Anders Ericsson and Jacqui
Smith - Published 1991.
17. Dietrich Dörner and Julia Schölkopf: CONTROLLING COMPLEX SYSTEM; OR,
EXPERTISE AS " GRANDMOTHER S KNOW
- HOW" in Toward a General Theory of Expertise Prospects and Limits. Edited by K. Anders
Ericsson and Jacqui Smith
- Published 1991.
18. Pérez Gama Alfonso: "MODELOS COMPUTACIONALES PARA EL DESARROLLO
DE LA INTELIGENCIA: HACIA UNA
INGENIERÍA DE SOFTWARE EDUCATIVO". II Congreso IberoAmericano de
Informática en la Educación LISBOA
PORTUGAL Octubre 1994; Auspicio de RIBIE y Fundación Corona. También presentado en el
II Congreso Nacional de
Informática Educativa en CALI, Abril 1994. Presentado en varios FOROS de RIBIE.
19. Edgar Ortegón, Alfonso Pérez Gama y Gina Ballera "Aplicaciones de la
Programación Lineal en la Planeación del
Sector Salud" Revista de Planeación y Desarrollo Volumen V No. 3 ISSN 0034-8686 (Depto
Nacional de Planeación)
Septiembre 1973; Publicado también por la AID Sector Analysis Series: "Linear
Programming Uses for Health
Planning"; Bureau for LatinAmerica Agency for International Development # 17 USAID
WASHINGTON January 1974
USA.
20. Alfonso Pérez Gama: "Uso de Modelos Multisectoriales de Programación Lineal en
Ciencias Sociales"; Revista TEMAS
ADMINISTRATIVOS - 1978 U. EAFIT # 33 Medellín.
21. Leontief, Wassly, (1975): Análisis económico Input-output. Barcelona: Ariel
22. Dewhurst, John H., Ll. Geoffrey, J.D. Hewings y Rodney C. Jensen (1991),
Regional Input-Output Modelling. New
Development and Interpretations, Avebury U.K.

300
23. Buckley J.J. (1992). Solving fuzzy equations in economics and finance Fuzzy Sets and
Systems 48. North -Holland , pp.
289-296 15th International Conference on Input Output Techniques. Renmin University of
China Beijing 2005
24. Vit lbin , Michele De Nic l , nt ni Messeni Petruzzelli , Devrim Yazan, DIMeG
Integrating Enterprise Input-
Output Modelling with GIS Technology for Supply Chain Analysis ; Politecnico di Bari, Viale
Japigia 182, 70126 Bari,
Italy.
25. PEREZ GAMA ALFONSO, Ing. GUILLERMO HOYOS GOMEZ, Ing. ALEXIS
MENA MENA SYSTEMS ENGINEERING
CURRICULA DESIGN BASED ON ARCHITECTURES UNDER COLOMBIA
PROPAEDEUTICAL CYCLES IEEE/CERMA:
WORKSHOP ON INNOVATION. September 22 -25 2009 in Cuernavaca, Morelos México;
Memorias Publicadas ISBN:
978-0-7695-3799-8
26. PEREZ GAMA ALFONSO, Ing. GUILLERMO HOYOS GÓMEZ, Ing. LEYINI
PARRA ESPITIA, Ing. MIGUEL R. ORTEGÓN G,
Ing. Roowan A. Hernandez, Ps. Giovanni Rozo Pardo; Ing. BYRON ALFONSO PEREZ
GUTIÉRREZ.EDUCATION
SOFTWARE ARCHITECTURE: FACING STUDENT DESERTION IN COLOMBIA
HIGHER EDUCATION WITH AN INTELLIGENT
KNOWLEDGE BASED COACHING SYSTEM: in Kuwait First e-Conference2009 November
2009; Gulf Education Society
IEEE/ACM
http://bio.science.kuniv.edu.kw/circulars/2009/11-Nov/15-11-
2009/Kuwait%20Conference%20on%20first%20e%20system%20service.pdf
Una nueva versión con un nuevo prototipo de iCOACH se presentará en IEEE ANDESCON,
Bogotá Septiembre 2010
27. PEREZ G M LFONSO, Byr n PEREZ G ANALYTICAL MODEL OF
PROPAEDEUTIC CYCLES FOR HIGHER EDUCATION
IN COLOMBIA ; 40 Reunión ISTEC (Octubre 27/28- 2009) Ibero-American Conference
on Trends in Engineering
Education and Collaboration, University of New Mexico Albuquerque, NM - USA. Memorias
ISBN 978-0-9842912-1-2
28. ALFONSO PEREZ GAMA Ing. BYRON ALFONSO PÉREZ GUTIÉRREZ MODELO
ANALÍTICO DE LOS CICLOS
PROPEDÉUTICOS PARA LA EDUCACIÓN SUPERIOR EN COLOMBIA; 40 Reunión
ISTEC (Octubre 27/28- 2009) Ibero-
American Conference on Trends in Engineering Education and Collaboration, University
of New Mexico
Albuquerque, NM - USA. Memorias ISBN 978-0-9842912-1-2
29. ALFONSO PEREZ GAMA, Ing. GUILLERMO HOYOS GOMEZ, Ing. ALEXIS
MENA MENA; BYRON ALFONSO PÉREZ
GUTIÉRREZ;A KNOWLEDGE BASED ANALYTICAL MODEL OF PROPAEDEUTIC
CYCLES FOR HIGHER EDUCATION IN
COLOMBIA; The IEEE /ACM INTERNATIONAL CONFERENCE ON ENGINEERING
EDUCATION - Ing ALFONSO PEREZ
GAMA, Ing. GUILLERMO HOYOS GOMEZ, Ing. ALEXIS MENA MENA; ICEED 2009,
Kuala Lumpur, Malaysia. IEEE Catalog
Number: CFP0968H ISBN: 978-1-4244-4844-9 Library of Congress: 2009905648
30. ALFONSO PEREZ GAMA, Ing. GUILLERMO HOYOS GOMEZ, Ing. ALEXIS
MENA MENA; . BYRON ALFONSO PÉREZ
GUTIÉRREZ;A KNOWLEDGE BASED ANALYTICAL MODEL OF PROPAEDEUTIC
CYCLES: LINKING MEDIA EDUCATION TO
HIGHER EDUCATION IN COLOMBIA; IEEE EDUCON 2010 Annual Global
Engineering Education Conference; Madrid
España Abril 2010. Conference Book ISBN 978-84-96737-70-9. CD ROM IEEE CATALOG
CFP10 EDU-CDR ISBN 978-1-
4244-6569-9
31. Alexis MENA MENA; UNA EXPERIENCIA SIGNIFICATIVA DE IMPLEMENTACIÓN
DE LA EDUCACIÓN VIRTUAL; Congreso
Internacional VIRTUALEDUCA 2009 Buenos Aires, Argentina.
http://www.virtualeduca.info/index.php?option=com_content&view=category&layout=blog&id
=58&Itemid=93
32. ALFONSO PEREZ GAMA, Ing. GUILLERMO HOYOS GOMEZ, Ing. ALEXIS

301
MENA MENA, Ing. BYRON ALFONSO PÉREZ
GUTIÉRREZ; MODELO LINEAL DE COHERENCIA CURRICULAR PARA
INGENIERÍA ELECTRÓNICA; IEEE ANDESCON,
Bogotá Septiembre 2010.
33. ALFONSO PEREZ GAMA; Ing. GUILLERMO HOYOS GOMEZ; Ing. BYRON
ALFONSO PÉREZ GUTIÉRREZ CURRICULUM
COHERENCE MODEL KNOWLEDGE-BASED FOR ELECTRONIC ENGINEERING , IEEE
Andescon 2010 Bogotá Colombia.
34. ALFONSO PEREZ GAMA; Ing. GUILLERMO HOYOS GOMEZ; Ing. BYRON
ALFONSO PÉREZ GUTIÉRREZ;
CONOCIMIENTO PARA TODOS: LA INCLUSION SOCIAL HACIA LA ALTA
COMPETITIVIDAD EDUCATIVA MEDIANTE UN
MODELO DE GOBERNABILIDAD BASADO EN CONOCIMIENTOS PARA LA
EDUCACION SUPERIOR EN COLOMBIA POR
CICLOS PROPEDEUTICOS SISOFT 2010 Simposio Internacional de Ingeniería de Software
y Sistemas de Información
en la Sociedad del Conocimiento- Bogotá Colombia.
35. ALFONSO PEREZ GAMA; Ing. GUILLERMO HOYOS GOMEZ; NANCY Yaneth
RIVERA-GUERRERO Ing. BYRON ALFONSO
PÉREZ GUTIÉRREZ CURRICULUM COHERENCE MODEL KNOWLEDGE-BASED
FOR INDUSTRIAL ENGINEERING SISOFT
2010 Simposio Internacional de Ingeniería de Software y Sistemas de Información en la
Sociedad del Conocimiento-
Bogotá Colombia. Septiembre 2010

302
Modelo de Inteligencia de Negocio utilizando Datos
Textuales No Estructurados

Norbey Feo Ramos , Luis Joyanes Aguilar , Jayguer Vásquez

Universidad Pontificia de Salamanca


nfeo@ucatolica.edu.co, luis.joyanes@upsam.net, jayguer.vasquez@utp.ac.pa

Abstract. This article presents the definition of an ETL model


based on ontologies in order to extract, transform and load
unstructured textual data, linked to a Business Intelligence solution.
In this model, different elements that enable interactions themselves
are identified. These elements allow extracting valuable information
from unstructured textual data that would complement structured
information that is continuously been used and maintained for standard
solutions of Business Intelligence. Consequently, unstructured and
structured combined information from organizations is exploited with
the purpose of improving, promoting and supporting different
Decision Support Systems (DSS) generating therefore value-added
knowledge for organizations.

Keywords. Business Intelligence, Unstructured Textual Data, ETL,


Ontology.

Resumen. En este artículo se presenta la definición de un modelo


de ETL basado en ontologías para la extracción, trasformación y carga
de datos textuales no estructurados, articulado a una solución de
inteligencia de negocio. En dicho modelo, se identifican los diferentes
elementos que permiten interactuar entre sí, para poder extraer de
los datos textuales no estructurados información valiosa que permita
complementar la información estructurada que se manipula y
mantiene en las soluciones estándar de Inteligencia de Negocio. De
esta forma, se aprovecha parte de la información no estructurada de
las organizaciones, unida a la información estructurada, alimentando los
diferentes sistemas de apoyo a la toma de decisiones (DSS)
generando de esta forma conocimiento con valor agregado para las
organizaciones.

Palabras Clave. Inteligencia de Negocio, Datos Textuales No


Estructurados, ETL, Ontología.

1 INTRODUCCIÓN

A medida que pasa el tiempo las organizaciones se van llenando cada vez de más y
más información que no suelen almacenar en sus base de datos relacionales,
que documenta sus procesos del negocio, de contratos con sus empleados, de contratos
con sus clientes o de contratos con sus proveedores, información valiosa en
correos electrónicos que hace parte del día a día del trabajo en la organización.
A medida que pasa el tiempo se van saturando de más información no
estructurada que la organización sabe que está ahí, pero que no la suele utilizar
para apoyar la toma de decisiones. Por ello que el 80% de información en las

303
organizaciones suele no ser estructurada. En esto radica el punto central de este
documento el cual está orientado a mostrar una propuesta de Inteligencia de Negocio
para Datos Textuales no Estructurados basándose en la definición de un modelo
que utiliza como núcleo una ETL Ontológica para poder unificar los datos
textuales no estructurados con los estructurados y de esta forma centralizar toda
la información en un mismo lugar y bajo un mismo formato para posteriormente
poder acceder a ella, generar conocimiento y apoyar la toma de decisiones.

2 LA PROBLEMATICA VISUALIZADA

El problema se define en su sentido más amplio con la siguiente pregunta: ―¿Cómo


mejorar la toma de decisiones a partir de la información obtenida de los datos
textuales no estructurado utilizando la Inteligencia de Negocio?‖.
Esta interrogante surge al conocer que en las organizaciones el 80% de la
información suele ser no estructurada y tan solo el 20% es estructurada, con lo cual las
soluciones de Inteligencia de Negocio suelen centrarse tan solo en el 20% del total
dela información, dejando sin explotar ese 80% restante. Estas cifras no salen
de la nada, según el The Data Warehouse Institute, el 80% de la información en la
mayoría de las empresas está desestructurada [3]. Esto también lo afirma Gartner
al decir que ―80 percent of business is conducted on unstructured information‖.
Igualmente Oracle lo corrobora por medio de un estudio solicitado a IDG
(International Data Group) en el 2008. En esta misma línea, SAP (Systeme,
Anwendungen und Produkte) sostiene citando al grupo Butler, que el 85% de
todos los datos almacenados se tienen en formatos no estructurados [2]. Si a todo
esto le adicionamos la cifra que Gartner dio a conocer en el 2008, donde afirma que
los datos no estructurados se duplicaban cada tres meses, llegamos al punto de
inquietarnos sobre qué se está haciendo con estos datos no estructurados.
Ya se han mencionado las cifras que sustentan esta investigación. Ahora se
comenta el centro de atención de la misma. Sabiendo que los datos no
estructurados hacen parte de la mayoría de la información de las organizaciones,
vamos a centrarnos en tan solo una parte de esos datos no estructurados.
Tengamos presente que cuando hablamos de datos no estructurados, según
INMON & NESAVICH [4], nos estamos refiriendo a dos grandes vertientes, los
textuales no estructurados y los que no lo son. Frente a estos últimos,
encontramos: imágenes, colores, sonidos, videos y muchas otras formas. Cuando
hablamos de los datos textuales no estructurados incluimos: correos electrónicos,
documentos, reportes, historias clínicas, hojas de cálculo, entre otros. Es en
estos en los que se centra esta propuesta. Es por ello, que plantearemos un
modelo que permita integrar estos datos textuales no estructurados en una
solución de Inteligencia de Negocio.

3 CONCEPTOS NECESARIOS

Partimos de la definición que The Data WareHouse Institute da a la Inteligencia de


Negocio o Business Intelligence: ―…es la combinación de tecnología,
herramientas y procesos que me permiten transformar mis datos almacenados en
información, esta información en conocimiento y este conocimiento dirigido a un
plan o una estrategia comercial. La inteligencia de negocios debe ser parte de la
estrategia empresarial, esta le permite optimizar la utilización de recursos,
monitorear el cumplimiento de los objetivos de la empresa y la capacidad de
tomar buenas decisiones para así obtener mejores resultados‖ [6]. Como vemos en
esta acepción, una solución de inteligencia de negocio utiliza como entradas datos
almacenados, pero para nuestro caso esos datos van a ser tanto estructurados como
textuales no estructurados, combinando una serie de tecnología para realizar
minería de datos y de texto, y herramientas como ETLs (por sus siglas en inglés
Extraction, Trasfomation and Load) que permitirán extraer, trasformar y cargar datos

304
desde diferentes fuentes de datos, para posteriormente almacenarlos en un gran
almacén de datos o Data WareHouse, el cual a su vez alimenta los DSS (DSS por sus
siglas en inglés Decision Support System) o sistemas de apoyo a las decisiones,
a través de los cuales se podrá monitorear el estado de la organización, hacer
predicciones y tomar decisiones teniendo una fuente de información fiable.
Una solución de inteligencia de negocio convencional se vería como en la Fig. 1,
donde existe una serie diversa de fuentes de datos que pasan por una ETL, se procesan
y almacenan en un Data WareHouse que posteriormente se pueden visualizar en
cuadros de mandos y en DSSs que permitirán apoyar la toma de decisiones.
Teniendo claro el concepto de lo que es una solución de inteligencia de negocio y
los diferentes elementos que la componen podremos pasar a los conceptos
adicionales que incluiremos en el modelo que posteriormente es definido.

Fig. 1. Ejemplo de la arquitectura de una solución básica de Inteligencia de Negocio


[6].

3.1 Datos Textuales No Estructurados

Los datos textuales no estructurados son una gran parte de los datos no
estructurados y a ella pertenecen toda clase de documentos en formato texto
que no poseen una estructura determinada tales como: los correos
electrónicos,documentos de contratos, documentos donde se especifican los procesos
del negocio, historias clínicas, presentaciones de productos, etc. Para determinar
los tipos de datos textuales no estructurados que suelen utilizarse en las
organizaciones dependiendo de las funciones en la misma, podemos citar la
clasificación que IMON & NESAVICH [4] nos proporcionan en la Tabla I.
En dicha tabla se pude observar los diferentes tipos de datos textuales no
estructurados que se pueden obtener en una organización dependiendo del área
y las funciones que desempeñan las personas de dicha área de la organización.
Adicional a esto, los señores IMON & NESAVICH también clasifican los
datos textuales no estructurados por sus características, determinando una serie
de aspectos que permiten identificarlos y agruparlos. Esto nos da una base de
partida solida para este modelo, debido a que ya existe una forma clara de
identificar y clasificar los datos textuales no estructurados en una organización.

Tabla I. Clasificación de los datos textuales no estructurados por departamento de


una organización propuesto por INMON y NESAVICH [4].

305
3.2 ETL - Extract, Transorm and Load

Dentro de las soluciones de inteligencia de Negocio la ELT es quizás uno de


los componentes más críticos y fundamentales, ya que permiten definir un flujo de
trabajo (WorkFlow) por medio del cual se extraen datos desde diferentes fuentes,
transformarlos y cargarlos en el Data Warehouse. Además de estás
funcionalidades, se pueden tener tareas de notificaciones, eventos y en algunos casos
hasta funcionalidades adicionales a las soluciones de Inteligencia de Negocio, como
hacer replicas y/o uniformidad de bases de datos. Algunos motores de bases de datos
suelen traer sus propias ETLs tales como: Oracle y SQL Server. Igualmente, se
pueden encontrar soluciones que se dedican tan sòlo a esto, un ejemplo es la
solución de Pentaho-Kettle1.

3.3 Ontología

La palabra ontología se deriva del griego ontos que significa estudio del ser, y logos
que significa palabra. Filosóficamente, la ontología es la ciencia de qué es, es
una explicación sistemática de la existencia, de los tipos de estructuras,
categorías de objetos, propiedades, eventos, procesos y relaciones en cada área de la
realidad [7].
Según STUDER, BENJAMINS & FENSEL [8], una ontología es una
especificación explicita y formal de una conceptualización compartida. Una
conceptualización es una vista simplificada y simplificada del mundo que
queremos representar para un propósito específico, definiendo un vocabulario o
conjunto de palabras controladas. Explicita significa que el tipo de conceptos
utilizados sean ostensiblemente definidos, por lo que si también describen otros
conceptos del mismo tipo, se definan detalladamente. Formal se refiere a que la
ontología debe ser legible por la máquina, es decir que esté en formato digital, para lo
cual se definen mediante OWL (del inglés Ontology Web Language) o RDF (del
inglés Resource Description Framework). Al referirse a compartida hace alusión a
la noción de que la ontología no es restringida solo para un individuo, sino que es
aceptada por un grupo de personas. Partiendo de esta definición entramos en el
mundo de la web semántica, que utiliza las ontologías como herramienta utópica para
que las máquinas se comuniquen entre sí.

306
3.4 Web Semántica

Según BERNERS-LEE, HENDLER & LASSILA [1], la web semántica propone


superar las limitaciones de la web actual mediante la introducción de
descripciones explicitas del significado, la estructura interna y la estructura global de
los contenidos y servicios disponibles en la WWW. La web semántica busca
clasificar, dotar de estructura y anotar los recursos con semántica explicita
procesable por máquinas. Para ello se utilizan especialmente dos lenguajes basados
en el XML, que son el RDF y el OWL, por medio de los cuales se pueden definir
las ontologías.

3.5 ELT Ontológica

De la unión de la ETL y la Ontología sacamos el concepto de ETL Ontológica, que


sería el elemento central que permitirá unir estos datos textuales no
estructurados con los datos estructurados en un mismo repositorio. La ETL
ontológica se encarga de extraer, cargar y trasformar los datos textuales no
estructurados, utilizando el significado semántico de dicho texto no estructurado
utilizando las ontologías que se definen mediante ficheros en formato RDF o OWL.
Partiendo de esto, a continuación se expone el modelo.

4 EL MODELO PROPUESTO

Para la definición de este modelo, se ha indagado sobre la existencia de alguna ELT


ontológica o semántica y lo más cercano que existe actualmente es la definición de un
proceso de ETL para OLAP utilizando los formatos RDF/OWL para la
definición Ontológica. Este modelo se visualiza tal como lo proponen NIINIMÄKI &
NIEMI [5] en la Fig. 2.
El modelo propuesto por NIINIMÄKI & NIEMI se centra en la definición de
una ontología genérica para los Cubos OLAP, a partir de la cual se realizan consultas
en line mediante el lengua de consultas RDF. Su modelo está basado en un
método de cinco pasos, en los cuales identifican los datos sin tratar (raw data) que en
nuestro caso serían los datos estructurados, a su vez definen el mapa ontológico
(ontology map). Unifican los datos y los conceptos ontológicos mediante un
proceso que denominan mapeo ontológico (onotology mapping) dando como
resultado una entrada en formato RDF que contiene tanto los datos como los
conceptos de esos datos y toda la semántica necesaria para comprender su contenido.
Al realizar las consultas a los ficheros RDF se construye automáticamente el cubo
OLAP. El esquema del servidor OLAP y sus correspondientes bases de datos
relacionales son construidos por el cubo OLAP y el usuario al final puede
analizar los datos como si estuviese utilizando una interface OLAP normal.

Fig. 2. Flujo funcional de la propuesta de NIINIMÄKI & NIEMI [5].

307
4.1 Modelo de Inteligencia de Negocio que incluye los Datos Textuales No
Estructurados.

El modelo propuesto se puede desglosar tal como se visualiza en la Fig. 3.

Fig. 3. Modelo de Inteligencia de Negocio para Datos Textuales No Estructurados.

Este modelo cuenta con las siguientes fases:

 Fase 1: Identificación y Clasificación de los Documentos que contienen los


Datos Textuales No Estructurados:
En esta fase nos remitimos a la clasificación propuesta por INMON &
NESAVICH de los datos textuales no estructurados en una organización. Para
ello hay que identificar claramente el área de la corporación u organización sobre la
que se está trabajando, de esta forma se identifica la naturaleza de los datos con los
que se va a trabajar, es decir si los datos textuales no estructurados pertenecen a el
área de recursos humanos, al área de contabilidad, al área de call de mercadeo o a
el área jurídica. Una vez a es necesario determinar las características y formatos en
los que se identificada el área es necesario determinar encuentran dichos datos
textuales no estructurados traemos a colación una Tabla II. tabla que propone INMON
y INMON y NESAVICH la cual se muestra en la Tabla

Tabla II. Características de los datos textuales no estructurados propuesta por


INMON y NESAVICH [4].

308
 Fase 2: Definición de las Ontologías:
Haciendo uso del mismo concepto de NIINIMÄKI & NIEMI, se genera un
mapa ontológico mediante RDF para definir los conceptos y términos que se utilizan
en cada uno de los tipos de documentos de la organización. De esta forma, para los
documentos que incluyen procesos del negocio es necesario definir una
ontología que define los ara los documentos de contratos de los procesos del
negocio. Para los documentos de contratos términos y conceptos de los procesos
del negocio. Phabrá que definir una ontología donde se definen los términos y
conceptos que se manejan en estos documentos, y así para cada tipo de
documento definidos en las diferentes áreas de la organización.
 Fase 3: Extracción de los Datos Textuales No Estructurados usando una ETL
Ontológica:
Una vez definidos los conceptos se procede a la extracción de los datos por medio
de la ETL Ontológica, la cual recibe como entrada los documentos. Que contienen los
datos textuales no estructurados y los RDF donde se definen los términos y conceptos
que contienen dichos documentos que se van a procesar. Como salida de este proceso
de obtienen datos estructurados que se unirán con los datos estructurados generados
por el ciclo habitual de las aplicaciones de BI. Estos datos estructurados alimentarán el
Almacén de datos, de los cuales se obtiene la información que los usuarios finales
visualizan en sus sistemas de apoyo a las decisiones (DSS). Para realizar está unión
seprosigue a la siguiente fase.
• Fase 4: Unión de los Datos Estructurados con los Datos Textuales No
Estructurados en el mismo Repositorio:
En esta fase se debe identificar muy bien los datos que se obtienen como salida de
la ETL Ontológica y de la ETL convencional para poder fusiónalos en un
mismo
repositorio. Esta unión de datos se centrara en un almacén de datos principal donde se
concentrará toda la información de la organización y sobre la cual recaerán
todas las consultas que en las diferentes áreas de la organización se realizan
por medio de los diferentes sistemas que lo instan.
Es recomendable que este proceso de automatización se realice con
personal que conozca muy bien cada una de las áreas de la organización debido a que
el proceso de definición de las ontologías es un punto crítico que debe realizarse con
sumo cuidado y detalle.

5 CONCLUSIONES

En una solución de inteligencia de negocio donde se aplique el modelo propuesto, la


correcta definición de las ontologías juega un papel muy importante, para que de los
datos textuales no estructurados se pueda extraer información que permita dar
valor agregado a la información estructurada que ya existe.
Es fundamental identificar claramente los tipos y formatos de los datos textuales
no estructurados que se manejan en las diferentes áreas de una organización, debido a
que dependiendo de esta clasificación se deberán relacionar con una u otra ontología.
Para implementar un modelo de esta envergadura es menester contar con una gran
cantidad de recursos, de tiempo, conocimiento y apoyo de todas las personas de
la organización. Al igual que todas las soluciones de inteligencia de negocio, si
no se implementa de forma correcta la solución puede terminar convirtiéndose
en otro problema.

Referencias

[1] BERNERS-LEE, T., HENDLER, J., & LASSILA, O. (2001). The Semantic Web.
Scientific American , 1-36.
[2] BROWN, C. (17 de Junio de 2008). SAP HelpingGovernmentTo BetterManage, Protect&
ShareInformation & Intelligence. Recuperado el 25 de Julio de 2010,

309
http://www.sap.com/croatia/about/events/2010/worldtour10/pdf/04_SAP%20Hel
ping%20Government%20To%20Better%20Manage,%20Protect%20&%20Shar
e%20Information%20&%20Intelligence.pdf
[3] DEL PINO, M. (2010). Business Intelligence + Búsqueda: Abriendo la puerta a la
información empresarial. Recuperado el 10 de Febrero de 2010, de www.bi-spain.com:
http://www.bi-spain.com/articulo/69887
[4] INMON, W. H., & NESAVICH, A. (2008). Tapping Into Unstructured Data:
Integrating unstructured data and textual analytics into Business Intelligence.Boston,
MA, EE. UU.: Prentice Hall.
[5] NIINIMÄKI, M., & NIEMI, T. (2009). An ETL Process for OLAP Using
RDF/OWL Ontologies. Journal on Data Semantics XIII , 97-119.
[6] Oracle Corporation. (2010). ¿Qué es Inteligencia de Negocios? Recuperado el 20 de
Julio de 2010, de www.oracle.com: http://www.oracle.com/technology/global/lad-
es/documentation/collaterals/Que-es-inteligencia-de-Negocios-Whitepaper-Angel-Rios.pdf
[7] SÁNCHEZ LÓPEZ, S. E. (2007). Tesis: Modelo de indexación de formas en
sistemas VIR basado en ontologías. Cholula, Puebla, México: Universidad de las Américas
Puebla.
[8] STUDER, R., BENJAMINS, V. R., & FENSEL, D. (1998). Knowledge engineering:
principles and methods. Data & Knowledge Engineering, Volume 25, Issue 1-2 161-
197.

310
PARTE II
Sistema de Información y Comunicaciones
Innovación tecnologica.
Inteligencia de negocios.
Gobierno electrónico.
Gestión del conocimiento 2.0
Cloud Computing

311
Modelo de interoperabilidad para e_learning sobre malla
computacional utilizando SAKAI

WILSON JOVEN SARRIA JOSE NELSON PEREZ MONICA BARRIOS R.


Estudiante Maestría en Doctor en Informática Estudiante Maestría en
Ciencias de las Universidad de Oviedo Ciencias de las
Comunicaciones Director del grupo de Comunicaciones
Universidad Distrital investigación GICOGE Universidad Distrital
“Francisco José de Caldas” Universidad Distrital “Francisco José de Caldas”
Director del grupo de “Francisco José de Caldas” Miembro del grupo de
Investigación UCET. nperez@udistrital.edu.co Investigación GICOGE.
Ing. de Sistemas Ing. de Sistemas
wjoven@hotmail.com monijaja@gmail.com

313
marco social educativo.
RESUMEN Muchos han catalogado una enseñanza bajo fantasías,
El articulo presenta los avances del proyecto de descontextualizada, otros arguyen la formación única por
investigación: Diseño y construcción de un modelo de Internet. Para ello, en primer lugar se plantea las
plataforma interoperable para e_learning sobre malla siguientes preguntas: ¿Qué es "lo virtual"? ¿Existe
computacional para la universidad ―Francisco José de verdaderamente una educación virtual? ¿Acaso la
Caldas‖, el propósito de esta investigación fue el educación formal o alternativa se ha de convertir en
desarrollo de un modelo de plataforma para educación educación virtual? ¿Dónde quedarán las aulas de las
virtual bajo ambiente Grid, la plataforma se denomina cuatro paredes? ¿Cómo desafía a los educadores, la
Catalina y se utilizó como base el código opensource de la educación virtual?
plataforma Sakai. Por lo tanto la educación virtual es un sistema y
Para el desarrollo del modelo se realizó una exhaustiva modalidad educativa que surge de la necesidad propia de
investigación sobre los diferentes estándares la educación y tecnología educativa. Para responder a las
internacionales sobre: malla computacional, educación preguntas antecedidas, primero se desarrollará los
virtual, e_learning, b_learning y sobre los diferentes fundamentos teóricos de lo "virtual", como base de
modelos pedagógicos y de enseñanza para la educación a partida en el ámbito del proceso enseñanza aprendizaje,
distancia y educación online adoptados e implementados luego la esencia de los mundos y entornos virtuales en la
por varios organismos y por diferentes instituciones de adquisición del conocimientos a través de ellas.
educación superior en el mundo.
Palabras clave Seguidamente, se desglosa el proceso histórico, la
Tecnología educativa, Aprendizaje en línea, Aprendizaje inserción de la digitalización a la educación y las nuevas
virtual, Internet, Malla computacional tecnologías.
En el marco del Sistema Nacional de Ciencia y
ABSTRACT Tecnología, el programa de COLCIENCIAS
The article presents the progress of the research project: "Conocimiento, Innovación y construcción de Sociedad:
Design and construction of a model of E-Learning Una agenda para la Colombia del siglo XXI", propende
platform for interoperable computational grid for the por llevar al país a ser una sociedad del Conocimiento con
university "Francisco José de Caldas", the purpose of this gente que desarrolle pensamiento estratégico y
research was to develop a model for virtual education prospectivo, capaz de desenvolverse en la sociedad del
platform under Grid environment, the platform is called Tercer Milenio.
Catalina and was used as the base platform code Se propone un sistema de educación virtual, como una
opensource Sakai. alternativa viable en el desarrollo de las nuevas
To develop the model was conducted comprehensive competencias, la apropiación de la tecnología, la
research on various international standards: grid formación docente y el desarrollo regional.
computing, virtual education, E-Learning, b_learning and Las Instituciones de Educación Superior necesitan una
the different models of education and training for distance infraestructura para educación presencial y virtual
learning and online education adopted and implemented avanzada, acorde a las demandadas por el Plan Nacional
by various agencies and by different institutions of higher de Tecnologías de la Información y las Comunicaciones
education in the world. que les permitan estar en la sociedad del conocimiento.
En la actualidad, se reconoce el impacto de estas
Keywords tecnologías en la competitividad, su potencial para apoyar
Educational technology, online learning, virtual learning, su inserción en la economía globalizada e impulsar el
Internet, Grid computing desarrollo económico y social de los países. Estos
beneficios sólo pueden convertirse en resultados concretos
1. INTRODUCCIÓN a medida que la sociedad se apropie de estas tecnologías y
El entorno globalizado y el rápido desarrollo de las las haga parte de su desempeño cotidiano. Es decir, con
tecnologías de la información y la comunicación, han usuarios preparados que utilicen las TIC, se puede lograr
llevado a la necesidad de desarrollar la Sociedad del una verdadera transformación económica y social.
Conocimiento caracterizada por "ser una sociedad con Un dominio amplio de estas tecnologías en el sector
capacidad para generar conocimiento sobre su realidad y público y privado es una condición necesaria para reducir
su entorno, con capacidad de utilizar dicho conocimiento la pobreza, elevar la competitividad y alcanzar el tan
en el proceso de concebir, forjar y construir su ansiado desarrollo sostenido de los países.
futuro"[Chapa1998]. Por consiguiente la educación virtual El desarrollo de las TIC ha desencadenado un cambio
como "concepto" ha generado bastantes discusiones en el estructural en el ámbito productivo y social de las
sociedades modernas. Y no es para menos: su uso ha

315
implicado una revolución que ha transformado la forma interesada en contribuir al fortalecimiento investigativo,
como se produce, divulga y utiliza la información en la científico y educativo; propósito que se comparte con la
sociedad. El uso de estas tecnologías ha cambiado las Red Nacional Tecnología Avanzada - RENATA, que
costumbres sociales y la forma cómo interactúan las actualmente conecta los centros de investigación del país,
personas. gracias a la Grid Colombia, conformada por universidades
Las TIC han mejorado las oportunidades para grandes de Bogotá, Medellín, Cali, Barranquilla, Bucaramanga y
grupos de la población tradicionalmente excluidos, con lo Popayán, quienes han creado sus propias redes y buscan
cual se ha aumentado la movilidad dentro de la sociedad. proyectos conjuntos, enfocados al progreso de sus
Han producido, además, una revolución del aprendizaje regiones y al desarrollo cultural, social y académico de la
que ha cambiado la manera como las personas aprenden y población, lo cual ha dinamizado el proceso de
el papel de los estudiantes y docentes. También, el uso de aprendizaje de los estudiantes y el dominio disciplinar de
estas tecnologías ha evidenciado que el período del los docentes.
aprendizaje no puede ser un proceso limitado en el tiempo Apoyados en tecnologías de la información y de las
sino que debe propiciarse a lo largo de toda la vida. telecomunicaciones las cuales han posibilitado la creación
de nuevos espacios de interrelaciones humanas y su
2. METODOLOGIA incursión en la educación ha generado un nuevo
Para desarrollar del proyecto se realizaron las siguientes paradigma que dinamiza al tradicional y da explicaciones
actividades: nuevas a las relaciones entre los actores del proceso
1. Consulta sobre: Grid y Educación virtual, Learning pedagógico, al aprendizaje y a las formas de enseñanza.
Management System (LMS), Estándares y modelos de La llamada sociedad de la información, se torna
referencia en el campo de la educación y Modelo de insuficiente frente al desarrollo vertiginoso de las
referencia SCORM. telecomunicaciones y a las nuevas formas de interacción e
Grid y Educación Virtual interactividad, que obligan a pensar en una sociedad culta
Originalmente, la computación en Grid se inició para y civilizada de la información y sobre todo en una
resolver grandes problemas de la ciencia y la ingeniería; sociedad del conocimiento.
ahora ha cambiado y existen más aplicaciones para uso El mayor beneficio educativo de estas nuevas formas de
convencional y empresarial. En el futuro el término Grid interacción es la capacidad de comunicación en cualquier
en computación se asemejará a su connotación inicial en tiempo o lugar, con capacidad de captura de eventos
las redes eléctricas: Que se consuman los recursos diarios, fuentes de referencia rápida y soporte a través de
informáticos por la demanda existente, que se pueda estar Internet, además de mayor disponibilidad y herramientas
siempre conectado a las fuentes de información y más atractivas de emplear.
procesamiento, es decir el Grid es la Internet del mañana. La educación virtual es una de las aplicaciones bajo malla
Las diferentes formas de implementación de una Grid, computacional, porque se requiere de mayor ancho de
según el uso, los medios, las aplicaciones, el hardware y el banda y de nuevas herramientas que permitan utilizar
software, se fundamentan en los conceptos y estándares apropiadamente elementos multimedia como el video y el
establecidos por el Global Grid Forum. Existen proyectos sonido. La educación virtual la definen de la siguiente
que abordan la creación de la tecnología Grid, luego la manera:
aplicación de esta tecnología y, por último, proyectos ―Alvarez Roger (2002) "La Educación Virtual enmarca la
donde se despliega la tecnología Grid para crear lo que se utilización de las nuevas tecnologías, hacia el desarrollo
llaman ―Grids de Producción‖. Este proyecto se enfocó en de metodologías alternativas para el aprendizaje de
proveer una plataforma Grid-E_learning que apoye y alumnos de poblaciones especiales que están limitadas por
facilite aprendizaje e investigación. su ubicación geográfica, la calidad de docencia y el
Con el surgimiento de las mallas computacionales, se ha tiempo disponible.
dado paso a sociedades que piensan en generar nuevo La UNESCO (1998), define como "entornos de
conocimiento con mayor dinamismo, para lo cual han aprendizajes que constituyen una forma totalmente nueva,
surgido grupos de interés, que promueven y desarrollan en relación con la tecnología educativa... un programa
proyectos de investigación de manera interdisciplinaria, informático - interactivo de carácter pedagógico que
como los consorcios: Geoespacial Abierto – OGC y Web posee una capacidad de comunicación integrada. Son una
tridimensional - Web3D quienes han propuesto muchos innovación relativamente reciente y fruto de la
estándares objetos de estudio para el proyecto de convergencia de las tecnologías informáticas y de
investigación. telecomunicaciones que se ha intensificado durante los
El desarrollo del proyecto se orientó a beneficiar a las últimos diez años".
comunidades de computación Grid, redes avanzadas de Lara, Luis (2002), afirma que la Educación Virtual es "la
aprendizaje y comunidad académica colombiana, modalidad educativa que eleva la calidad de la enseñanza
aprendizaje... que respecta su flexibilidad o disponibilidad

316
(en cualquier momento, tiempo y espacio). Alcanza su (crear sus propios contenidos) y se centra en gestionar
apogeo con la tecnología hasta integrar los tres métodos: contenidos creados por gran variedad de fuentes
asincrónica, sincrónica y autoformación". diferentes. La labor de crear los contenidos para los
Loaza, Alvares Roger (2002) "Es una paradigma cursos es desarrollada mediante un LCMS (Learning
educativa que compone la interacción de los cuatro Content Management Systems).
variables: el maestro y el alumno; la tecnología y el medio Un LCMS se encarga de la creación, reusabilidad,
ambiente. localización, desarrollo y gestión de contenidos
Banet, Miguiel (2001) se adelanta en su concepción y formativos. Los contenidos son generalmente
afirma: "la educación virtual es una combinación entre la almacenados en un repositorio en la forma de pequeños
tecnología de la realidad virtual, redes de comunicación y objetos de aprendizaje, únicos y autodescriptivos, cada
seres humanos. uno de los cuales satisface uno o más objetivos formativos
En los próximos años, la educación virtual será de bien definidos. Aunque muchas de las plataformas
extender y tocar a alguien – o una población entera – de revisadas son definidas explícitamente como LMS,
una manera que los humanos nunca experimentaron algunas de ellas incorporan módulos que permiten
anteriormente". Indico, ―que la educación virtual es una funcionalidades como las descritas por los LCMS, por lo
modalidad del proceso enseñanza aprendizaje, que parte cual aquí los denominaremos en forma genérica como
de la virtud inteligente - imaginativa del hombre, hasta el LMS.
punto de dar un efecto a la realidad, en la interrelación Un LMS, podemos decir que permite el registro de
con las nuevas tecnologías, sin límite de tiempo – espacio estudiantes, la entrega de actividades de aprendizaje y la
que induce a constantes actualizaciones e innovaciones evaluación en ambientes online. Algunos más
del conocimiento. ― [ACO2002]. especializados pueden incluir herramientas como
La educación virtual como la educación del siglo XXI, administración de competencias, planificación de
tiene los siguientes principios: sesiones, certificación y alojamiento de recursos tales
• La autoeducación como salones, documentos, instructores, etc.
• La autoformación Los LMS son construidos utilizando una gran variedad de
• La desterritorrialización plataformas y usualmente usan bases de datos robustas.
• La descentración Existen muchos sistemas comerciales pero en los últimos
• La virtualización años ha habido un incremento sustancial de las
• La tecnologización alternativas de código abierto, lo cual ha posibilitado un
• La sociabilidad virtual campo de investigación y desarrollo muy atractivo.
En internet se comparte información, en la malla Algunos LMS comerciales son Blackboard (quien se unió
computacional se puede compartir recursos, no solamente con WebCT), fronter, Desire2Learn Inc, Lotus Learning
recursos computacionales, también recursos humanos, Management System, LearnFlex™, y SumTotal entre
científicos y de colaboración. Todo esto se logra con la otros. Sin embargo, el interés se centra en LMS de código
masificación de la tecnología de malla computacional e abierto, los cuales se consideran ideales para el desarrollo
Internet versión 2. Entonces con esto la educación virtual de investigación en el campo de la educación, que
no serán simples sonidos o videos de un profesor que se permitan el uso efectivo y eficiente de la TICs en tales
encuentra en otro lugar, será charlas virtuales con ambientes.
herramientas electrónicas para cada estudiante y donde A continuación se realiza una breve descripción de
todos los participantes tendrán acceso a la misma calidad algunos de los LMS de código abierto más conocidos:
de educación. − .LRN [LRN] conocido también como dotLRN,
Learning Management System (LMS) desarrollado inicialmente por el MIT. .LRN está
Un LMS (Learning Management Systems) también respaldado en la actualidad por un consorcio mundial de
denominado CMS (Course Management Systems) es un instituciones educativas, organizaciones sin ánimo de
software que automatiza la administración de acciones de lucro, empresas y desarrolladores de código abierto. .LRN
formación. Un LMS registra usuarios, organiza los es apropiada para comunidades de aprendizaje e
diferentes cursos en un catálogo, almacena datos sobre los investigación, pues tiene capacidades de gestión de
usuarios, provee informes para la gestión y suministra al cursos, comunidades on-line, gestión de contenidos y del
instructor un mecanismo para crear y distribuir contenido, aprendizaje. Las instituciones miembros del consorcio
monitorear la participación de los estudiantes y evaluar su trabajan juntas para apoyar los avances de cada uno y
desempeño. acelerar y ampliar la adopción y el desarrollo de .LRN. El
También suelen ofrecer a los estudiantes el uso de consorcio asegura la calidad del software certificando
mecanismos de interacción como foros de discusión, componentes como .LRN-compliant, a través de planes de
videoconferencias o servicios de mensajería instantánea. desarrollo del software coordinados y manteniendo los
Un LMS generalmente no incluye posibilidades de autoría lazos con OpenACS, el Kid de herramientas de código

317
abierto que forman la base de .LRN. Los miembros pagan diaria de la fundación. El personal de Sakay provee
una cuota por participar en el consorcio OpenACS, pero coordinación entre un número de actividades incluidas:
cualquiera puede convertirse en certificado y contribuir. administración de proyectos, aseguramiento de la calidad,
− Moodle [MOO]. Moodle es un paquete de software para gestión de lanzamientos de nuevas versiones y
la producción de cursos basados en Internet, viene del planificación de conferencias. Su versión actual es la 3.0
acrónimo Modular Object-Oriented Dynamic Learning Aunque todos los LMS tienen funcionalidades similares,
Environment, que es sobre todo útil para programadores y la diferencia real de ellos para este proyecto radica en la
educadores teóricos. Actualmente está en desarrollo y ha posibilidad de permitir interoperabilidad entre cada una de
sido diseñado para soportar un marco de trabajo educativo ellas. Esto depende de la forma como han sido
basado en la filosofía social constructivista. Es un gestor desarrollados y mantenidos, pues como hemos visto en los
de contenidos que mantiene los contenidos centralizados ejemplos presentados estos proyectos son desarrollados
en una base de datos y que facilita los contenidos a los generalmente por grandes comunidades que van
estudiantes a través de una interfase Web. Moodle permite trabajando de manera conjunta en el mejoramiento de
la creación de contenidos, la comunicación entre los diferentes aspectos. Por lo tanto, la interoperabilidad es un
usuarios y el seguimiento de las actividades realizadas. proceso que garantiza o no la escalabilidad de los
Moodle se puede instalar en cualquier Web server con un proyectos sin perder la flexibilidad para poder realizar
intérprete de PHP y completo soporte para el uso de los mejoras posteriores.
manejadores de bases de datos MySQL y postgreSQL. Como ya hemos visto, la lista de LMS comerciarles y no
− Claroline. El proyecto Claroline [CLA], fue iniciado en comerciales es extensa, por lo cual elegir uno se puede
el 2000 en la Universidad de Louvain (Belgium) por convertir en un verdadero problema. Sin embargo,
Thomas De Praetere y fue soportado económicamente por trabajos como el de Carrillo et al. en [CAR03], no solo
la fundación Louvain. Claroline ha sido desarrollado dan información sobre importantes entidades y
siguiendo las experiencias pedagógicas y necesidades de herramientas que realizan evaluaciones de LMS, sino que
los profesores. La plataforma se puede personalizar y también nos proporcionan un modelo para la
ofrece un ambiente de trabajo flexible y hecho a la caracterización de LMS que permite realizar evaluaciones
medida. Claroline es otra plataforma de código abierto, de LMS que sean de su interés.
basada en PHP y MySQL, para la administración de Algunos de las evaluaciones tenidas en cuenta en
aprendizaje. Este sistema es un entorno de aprendizaje [CAR03] son las realizadas por GATE [GATE],
colaborativo que permite a los profesores o instituciones EduTools [EduTools], EDUTECH [Edutech],
educativas, crear y administrar cursos a través de la Web. MARSHALL [MARSHALL] y el Grupo Tadel. De estas,
Además permite estructurar cursos, almacenar material y la del Grupo Tadel ya no se encuentra disponible, pero
administrar las actividades de los estudiantes, brindándole otras como EDUTECH siguen realizando evaluaciones
al profesor la total libertad para estructurar y configurar que nos orientan a la hora de elegir un LMS. En el año
los cursos sobre la Web. Así, el estudiante puede ver el 2003, este organismo únicamente contenía evaluaciones
material del curso en diferentes formatos (por ej. de LMS comerciales, sin embargo, debido al gran auge de
documentos Word, PDFs, páginas HTML, etc.). El herramientas de código abierto, esta tarea fue extendida y
proceso de aprendizaje individual como está contemplado en el año 2005 se presentó una evaluación que definía los
en esta herramienta utiliza lecturas y/o documentos en siguientes criterios:
formatos diferentes. 1. Soporte a múltiples lenguajes.
− Sakay. La fundación Sakai [SAK], es una organización 2. Múltiples sistemas operativos.
sin ánimo de lucro que se dedica a coordinar actividades 3. Ambientes integrado de aprendizaje heterogéneo.
en torno a dicho proyecto y a su comunidad para asegurar 4. Desarrollo activo, con por lo menos dos desarrolladores
la viabilidad del mismo a largo plazo. Sakay nació como permanentes.
una iniciativa del consorcio uPortal [uPortal] y cuatro 5. Comunidad activa.
universidades norteamericanas (Indiana, Michigan, MIT y 6. Disponibilidad de herramientas de aprendizaje básicas.
Stanford), en enero del 2004, para integrar las 7. Disponibilidad de documentación básica.
funcionalidades de un entorno virtual de De acuerdo a esta evaluación, solo seis LMS cumplieron
enseñanza/aprendizaje en un portal institucional. El estos criterios, ATutor, Claroline, dotLRN, Moodle, Sakai
proyecto de Sakai, Collaboration and Learning y OLAT. Todos estos sistemas proveen funcionalidades
Environment (CLE), es un entorno modular de código básica tales como herramientas para los estudiantes
fuente abierto, cuyo objetivo es integrar diversas (comunicación, productividad, participación del
funcionalidades del e-learning en un portal académico. La estudiante) y herramientas de soporte (administración,
fundación tiene un número de personas que se encargan entrega de cursos, desarrollo de contenido) de acuerdo a
de la coordinación de las actividades, incluido un director las categorización de características definida por
ejecutivo de tiempo completo quien gestiona la operación EduTools.

318
Sin embargo, hay tres elementos de mayor importancia la información de manera más inteligente.
para las instituciones de educación superior que no son − AICC (Aviation INDUSTRY CBT (Computer-Based
consideradas en esta evaluación. Adaptabilidad, Training) Committee), [AICC], es una asociación
reusabilidad y accesibilidad. Aunque la adaptabilidad internacional de profesionales de entrenamiento basados
actualmente no es soportada completamente por ningún en tecnología. El AICC desarrolla las pautas para la
sistema, de acuerdo a [KAR06], Moodle, Sakai y dotLRN industria de la aviación en el desarrollo, la entrega, y la
son los LMS mejor preparados para soportarla. evaluación del CBT y de las tecnologías de entrenamiento
Por otra parte los otros dos aspectos reusabilidad y relacionadas. Los objetivos del AICC son los siguientes:
accesibilidad, en términos de soporte a estándares, son  Asiste a los operadores de aeoplanos en el
analizados en [SAN06]. Este análisis concluye que solo desarrollo de guías las cuales promueven la
dotLRN y Sakai soporta un gran rango de estándares implementación económica y efectiva de medios
educacionales tales como el modelo de referencia de entrenamiento basados en computadoras.
SCORM y las especificaciones de IMS, así como,  Desarrollo de directrices para hacer posible la
garantiza dentro de sus funcionalidades requerimientos de interoperabilidad.
accesibilidad.  Provee un foro abierto para la discusión de CBTs
Por lo anterior se considera que Sakai es el LMS y otras tecnologías de entrenamiento.
apropiado para integrarlo con la Grid y de esta manera
lograr la interoperabilidad en entornos educativos − IEEE, Institute of Electrical and Electronics Engineers
virtuales. [IEEE] es una organización internaciconal que desarrolla
Estándares y modelos de referencia en el campo de la estándares técnicos y recomendaciones para sistemas de
educación IMS, Global Learning Consortium [IMS]. eléctricos, lectrónicos, computarizados y de
Consorcio de vendedores y desarrolladores quienes han comunicaciones. Las especificaciones de la IEEE se
enfocado su trabajo en el desarrollo de especificaciones adoptan extensamente y se convierten en estándares
basadas en XML. internacionales. Dentro de la IEEE, el comité de
Estas especificaciones describen las principales estándares en tecnología de aprendizaje Learning
características de cursos, lecciones, evaluaciones, Technology Standards Committee [LTSC] proporciona
aprendices y grupos. Adicionalmente las especificaciones especificaciones que direccionan las mejores prácticas, la
XML y las guías sobre las mejores prácticas proveen una cuales pueden ser probadas para conformidad. La
estructura para la representación de meta-datos (datos especificación más ampliamente conocida del IEEE LTSC
sobre datos) en e-learning. es LOM, la cual define elementos y grupos de elementos
Este grupo ofrece una aproximación disciplinada para que describen recursos de aprendizaje. Tanto IMS y ADL
describir los diversos recursos y proveer un grupo común usan LOM en sus especificaciones de elementos y
de elementos que pueden ser intercambiados entre estructuras.
múltiples sistemas. Los meta-datos permiten búsquedas de − OUN (Open University of the Netherlands) [OUN],
recursos de aprendizaje, así como intercambio y fueron los desarrolladores del Lenguaje de Modelado
mantenimiento de los mismos. Educacional (EML, Educational Modelling Language),
− ADL, Advanced Distributed Learning [ADL], es una actualmente ha pasado a formar parte de IMS LD.
organización respaldada por el gobierno de los Estados − International Standards Organisation (ISO) [ISO] Sub
Unidos, que investiga y desarrolla especificaciones para Committee 36 (SC 36). ISO es el desarrollador líder en el
impulsar la adopción y el avance del e-learning. La mundo de estándares internacionales. Los estándares ISO
combinación de investigaciones y recomendaciones especifican los requerimientos para el estado del arte de
ayudan a introducir las especificaciones en los estándares. los productos, procesos, materiales y sistemas y para una
La publicación de ADL más aceptada es SCORM buena evaluación de conformidad desde la perspectiva
(Shareable Content Object Reference Model). SCORM directiva y admistrativa.
combina elementos de IEEE, AICC, IMS, y ARIADNE. − ARIADNE [ARIADNE]. Es una asociación Europea
ADL le agrega valor a los estándares existentes, pues que busca facilitar la reutilización y el intercambio de
provee ejemplos, mejores prácticas y clarificaciones que conocimiento. El núcleo de la infraestructura de Ariadne
ayudan a los proveedores y desarrolladores de contenidos es una red distribuida de repositorios de aprendizaje. La
a implementar especificaciones de e-learning de una fundación de ARIADNE fue creada para explotar y seguir
manera consistente y reusable. los desarrollos de los proyectos europeos ARIADNE y
− DCMI, Dublin Core Metadata Initiative [DCMI], es una ARIADNE II, los cuales crearon herramientas y
organización dedicada a promocionar la masiva adopción metodologías para la producción, administración y la
del estándar meta-data. Desarrolla vocabulario reutilización de elementos pedagógicos basados en
especializado para metadata, el cual sirve para describir computador y soportados por redes telemáticas de prueba.
recursos y de esta forma habilitar sistemas para descubrir

319
La validación de las herramientas y conceptos tuvo lugar clase de contenidos E-learning, facilitando la accesibilidad
en sitios académicos y corporativos en toda Europa. y búsqueda de dichos contenidos [MIK06].
Muchos de ellos continúan sobre la base de los resultados Esto es muy importante en este proyecto porque con el
obtenidos, motivados por la idea de desarrollos no uso de estándares se puede garantizar que los contenidos
comerciales en esta área. generados pueden ser probados sobre cualquier LMS y
además puedan ser usados posteriormente en futuras
3. MODELO DE REFERENCIA SCORM pruebas tanto de este como de otros trabajos.
SCORM (Shareable Content Object Reference Model), es
una suite de estándares técnicos que habilitan a los 2. Se instalo y se configuro la plataforma sakai sobre el
sistemas de aprendizaje basados en la Web para encontrar, sistema operativo Linux.
importar, compartir, rehusar y exportar contenidos en una 3. Se desarrollo el modelo de la estructura Grid-
forma estandarizada. Definen como los elementos de E_learning U. Distrital.
instrucción individuales son combinados a nivel técnico y 4. Se desarrollo el modelo de la plataforma interoperable
un conjunto de condiciones necesarias para que el Catalina.
software use los contenidos. Este estándar usa XML y se 5. Se desarrollo la Adaptación y personalización de
basa en los trabajos hechos por los grupos ADL, AICC, plataforma de educación virtual Sakai.
IMS, IEEE, ARIADNE, entre otros. Está organizado en 6. Se instalo el modulo para el manejo de SCORM sobre
tres libros: la plataforma de educación virtual Sakai.
− SCORM CAM (Content Aggregation Model), este libro 7. Se desarrollo y se instalo el portlets para el
describe los componentes usados en un proyecto de e- procesamiento de información sobre malla computacional.
learning, la forma de empaquetarlos para el intercambio
entre sistemas, de describirlos para posibilitar la búsqueda 5. RESULTADOS
y el descubrimiento de recursos y de definir la En la plataforma Sakai se pueden adaptar y personalizar
información para la secuencia de los componentes. los diferentes servicios que ofrece, así como agregar
SCORM CAM promueve una manera consistente de nuevos módulos, a continuación se presenta la
almacenamiento, etiquetado, empaquetado, intercambio y personalización de algunos de ellos:
descubrimiento de contenidos de aprendizaje.
− SCORM RTE (Run Time Environment), provee un
medio para la interoperabilidad entre SCOs (Share
Content Object) y LMSs, es decir que los contenidos de
aprendizaje se puedan mover a través de múltiples LMS Figura 1. Banner principal
independientemente de las herramientas usadas para crear
el contenido. Para que esto sea posible, debe haber una
forma común para lanzar contenidos, una forma común
para la comunicación entre los contendidos y los LMS y
unos elementos de datos predefinidos que son
intercambiados entre LMS y contenidos durante la
ejecución.
− The SCORM SN (Sequencing and Navigation), este
libro está basado en la especificación Simple Sequencing
(SS) de IMS Versión 1.0, la cual define un método para
representar el comportamiento esperado de cualquier
experiencia de aprendizaje creada de tal forma que
cualquier LMS conforme con SCORM ordenará Figura 2. Entrada a la administración de Podcasts
actividades de aprendizaje discretas de una manera
consistente.
Todo lo previamente expuesto busca dar mayor claridad
de conceptos y organizaciones que están presentes en el
desarrollo de estándares en E-learning. Ahora bien, ¿por
qué considerar estándares en nuestro trabajo? La
respuesta a esto es porque aportan al proyecto
reusabilidad, portabilidad e interoperabilidad entre
diferentes desarrolladores, plataformas y usuarios.
Además los estándares permiten a los LMS compartir toda

320
Figura 5. Modelo de plataforma interoperable Catalina

7. DISCUSIÓN
Apoyados en tecnologías de la información y de las
telecomunicaciones las cuales han posibilitado la creación
de nuevos espacios de interrelaciones humanas y su
incursión en la educación ha generado un nuevo
paradigma que dinamiza al tradicional y da explicaciones
nuevas a las relaciones entre los actores del proceso
pedagógico, al aprendizaje y a las formas de enseñanza.
Figura 3. Entrada a la administración de portafolios La llamada sociedad de la información, se torna
insuficiente frente al desarrollo vertiginoso de las
6. ESTRUCTURA DE GRID Y telecomunicaciones y a las nuevas formas de interacción e
interactividad, que obligan a pensar en una sociedad culta
E_LEARNING y civilizada de la información y sobre todo en una
Se presenta como se encuentran interrelacionados los sociedad del conocimiento.
diferentes proyectos desarrollados por el grupo GICOGE El mayor beneficio educativo de estas nuevas formas de
en el tema de malla computacional y de educación virtual. interacción es la capacidad de comunicación en cualquier
tiempo o lugar, con capacidad de captura de eventos
diarios, fuentes de referencia rápida y soporte a través de
Internet, además de mayor disponibilidad y herramientas
más atractivas de emplear.
A diferencia de la mayoría de los LCMS, uno de los
grandes retos desde el inicio de la plataforma Sakai a
principios de 2004 fue la interoperabilidad entre
instalaciones independientes, que es objetivo per se del
proyecto. Para ello, desde un principio se han considerado
estándares de interoperabilidad, especialmente de IMS:
IMS Tool Interoperability, IMS Common Cartridge (IMS
CP Interoperability) e IMS Enterprise Interoperability.
Figura 4. Estructura Grid-E_learning U. Distrital El aporte principal es la adaptación e implementación de
la plataforma catalina (Sakai) y los estándares para la
En el modelo desarrollado se tuvo en cuenta los diferentes creación de objetos virtuales de aprendizaje bajo malla
estándares para educación virtual como son SCROM, computacional, que permiten apoyar la Educación
ADL, AICC, IEEE, servicios de la web 2.0 y los presencial y virtual en la Universidad Distrital en sus
estándares para el manejo de portlets con el fin de dar diferentes programas de Pregrado y Postgrados.
interoperabilidad y flexibilidad con otras plataformas. A
continuación se muestra el diagrama general del modelo 8. REFERENCIAS BIBLIOGRÁFICAS
desarrollado.
ACOSTA, Willman, Diseño de cursos virtuales,
Venezuela, 2002: monografías.com
ANDRES, Chiappe Laverde. Modelo de diseño
instruccional basado en objetos de aprendizaje
(MDIBOA): Aspectos relevantes, 2006
ÁLVAREZ. Loaiza, Roger Facilitación y Capacitación
Virtual en América Latina, Colombia, 2002
ARIADNE Foundation for the European Knowledge Pool,
se encuentra en: http://www.ariadneeu.org Fecha de
consulta 1 de Septiembre de 2009.
CANNATARO M. and D. TALIA D. Knowledge Grid:
An Ar-chitecture for Distributed Knowledge Discovery‖,
CACM, 46(1): 89-93, 2003.
CARRILLO, L. Baus, T. Fabregat, R. and Arteaga, C.:
Definición de un modelo para la caracterización de

321
plataformas de te-leeducación y su aplicación a las USD. KAREAL, F. and Klema, J.: Adaptivity in e-learning. In
Published at Proceedings of CLEI 2003. La Paz, Bolivia. A. Méndez-Vilas, A.Solano, J. Mesa and J. A. Mesa:
29 de Setiembre - 3 de Octubre, (2003) Current De-velopments in Technology-Assisted
DUBLIN Core Metadata Initiative, se encuentra en: Education, Vol. 1, pp. 260-264, (2006).
http://es.dublincore.org Fecha de consulta 22 de JMarzo LARA, Luis Rodolfo, Análisis de los recursos interactivos
de 2009 en las aulas virtuales, Argentina, 2002
EML, Educational Modelling Language,Open MIKIC, F. Anido, L.: Towards a Standard for Mobile E-
University of Netherlands, 2001 Learning
FARANCE, F. LTSA Specification - Learning MUNIESA. Sandra Asensio. www.eMagister.com.
Technology Sys-tem Architecture, 1999. Sistemas In-teligentes en el ámbito de la Educación, Maite
FLETCHER C.A.J. Computational Techniques for Fluid Urretavizcaya Loinaz Novática, febrero 2002
Dy-namics - Volume I, Fundamental and General PIATINI .Mario, Aplicaciones Informáticas de Gestión,
Techniques. Springer-Verlag, Second Edition. Germany, Alfa y Omega.
1991. RAMÍREZ, Kryscia, ―Ontologías‖. Universidad de Costa
Rica. 2006.
FOSTER Ian, KESSELMAN Carl. The grid: Blueprint for REBOLLO. Miguel, Carlos Carrasco, Vicente J. Agentes
a new computing infrastructure, Morgan Kaufmann para entornos de aprendizaje, Una arquitectura para
Publishers Inc., San Francisco, California. 1999. Aprendizaje Autónomo Colaborativo en Entornos no
GÁMEZ Rosalba, ¿La Educación Virtual es Real? Presenciales
Google.com México 2002 SANTOS, O.C.: Technology Enhanced Life Long
GANG Wang, TAO Wen, QUAN Guo, XUEBIN Ma. A eLearning for All. In K. Maillet and R. Klamma:
know-ledge Grid Architecture Based on Mobile Agent. Proceedings for the 1st Doc-toral Consortium on
IEEE Compu-ter Society Washington, DC, USA, 2006 Technology Enhanced Learning. European Conference on
HAYNOS. Matt. The Physiology of the Grid:A visual of Technology Enhanced Learning, p.66-71, (2006).
Open Grid Services Architecture. IBM, 2003. SOMMERVILLE, Iann .Ingeniería de Software, Mc Graw
IMS Content Packaging Information Model. Version 1.1.1 Hill.
Up-date Specification. /2001. CHAO Tung Yang, William C. Chu, High Performance
IMS LD_BEST, IMS Learning Design Best Compu-ting Lab, Software Engineering and technology
Practice Guide, Version 1.0 /2002 center, Depart-ment of Computer Science and Information
JIMÉNEZ, S. y Ramos, E. ―Agentes Inteligentes‖. Centro Engineering, Tung-hai University, 2004
de In-vestigación en Sistemas de Información, CISI,
Caracas, Abril, 2000.
JOYANES Aguilar. Luis. Cibersociedad. Mac Graw-Hill,
1997.

322
Diseño Asistido por Computador (CAD): Enseñanza en Ingeniería
Industrial

LEONARDO EMIRO JOSE IGNACIO GIOVANNY MAURICIO


CONTRERAS BRAVO RODRIGUEZ MOLANO TARAZONA BERMUDEZ
Universidad Distrital Universidad Distrital Universidad Distrital
Francisco José de Caldas Francisco José de Caldas Francisco José de Caldas
lecontrerasb@udistrital.edu jirodriguez@udistrital.edu.c gtarazona@udistrital.edu.c
.co o o

ABSTRACT gestión de la empresa.


Pero es a partir de la universidad desde donde se debe
In the present work shows the importance of teaching propender en la búsqueda de ese objetivo, debido a su
computer design asit career in industrial engineering, labor social a través de la formación de un profesional con
drawing a parallel between public and private sólidos conocimientos de su profesión, capaz de impactar
universidade different national and international actions to y transformar empresas, tal como lo expresa Rojas (1993):
identify as it is the curriculum of industrial engineering l ―Se requiere que la labor de formación universitaria se
Distrital University in the field CAD / CAM through the realice mediante planes y programas de perfil amplio,
materials in which content can be developed with the help flexibilidad en cuanto a las posibilidades de su
of software, analyzes the three basic components of a modificación en el tiempo, en estrecha relación con la
CAD system: software, hardware, HumanWare. práctica social y que cuente con un adecuado sistema de
Keywords: Teaching, CAD, CAM educación de postgrado, todo lo cual garantice las
RESUMEN respuestas rápidas que demanda el medio social‖.[1]
En el presente trabajo se muestra la importancia de la Las empresas colombianas en los últimos años debido al
enseñanza del diseño asistido por computador en la auge de los desarrollos informáticos han venido
carrera de ingenieria Industrial; haciendo un paralelo entre incrementando el uso de herramientas CAD (Diseño
diferentes universidades publicas y privadas nacionales e Asistido por Computador) y CAM (Manufactura Asistida
internacionales con el fin de identificar como se encuentra por Computador) para el mejoramiento de las mismas,
el pensum de ingenieria industrial de la Universidad claro esta que el equipo necesario dependerá del sector
Distrital en el campo CAD /CAM a través de las materias industrial, dimensión de la empresa, tecnología usada,
en las cuales es posible desarrollar contenidos con ayuda etc., por lo que se hace imprescindible que nuestros
de software; se analizan los tres componentes básicos de futuros ingenieros industriales posean competencias el
un sistema CAD: software, hardware, humanware. manejo de las tecnologías CAD como mínimo y de las
tecnologías CAM (Manufactura Asistida por Computador)
y CAE (Ingeniería Asistida por Computador) con el fin de
Palabras clave: Enseñanza, CAD, CAM facilitar su integración en el mercado laboral.
2.MATERIALES Y MÉTODOS
1.INTRODUCCIÓN El estudio desarrollado es descriptivo y es una
Hoy en día la industria nacional busca adaptarse al uso de investigación exploratoria, se trata de especificar aspectos
nuevas tecnologías tales como el diseño y la manufactura relacionados con la enseñanza del CAD y CAM en la
asistida por computador (CAD y CAM) , las cuales se carrera de ingeniería Industrial, tomando como caso
han convertido indispensables para las empresas que puntual la Universidad Distrital; partiendo de la primicia
buscan mejorar la productividad y competitividad, que en nuestro país la tecnología CAD, se encuentra
mejorando la calidad, disminuyendo costos y acortando orientada a las áreas de modelado geométrico y su
tiempos de diseño y fabricación. representación ortogonal, técnicas de visualización: foto
realista, animación y simulación, y cálculo mediante
La forma de alcanzar ese objetivo involucra el uso de elementos finitos.
diferente software de ingeniería u herramientas En esta investigación se realizó un paralelo entre el
informáticas que integren además de los procesos de pensum de ingeniería Industrial de la universidad Distrital
diseño y manufactura, los procesos administrativos y de con otras universidades públicas y privadas de

323
reconocido prestigio a nivel Nacional e Internacional Software para el área de procesos de manufactura:
como lo son: la Universidad Nacional (Sede Bogotá), Surfcam, Spectracam y Mastercam
Universidad Nacional (Sede Medellín), Universidad. 3.3. Hardware:
Nacional (Sede Manizales), Universidad de los Andes, El único software CAD (Autocad 2005) utilizado en el
Universidad del Norte, Universidad del Valle, programa curricular, se encuentra operando en los
Universidad de Antioquia, Universidad Industrial de laboratorios de informática, que posee 25 computadores
Santander, Universidad Nacional Autónoma de México - Procesador Core Duo 1800 Mega Hz, Memoria RAM
UNAM (México), Universidad Politécnica de Valencia 2GB y Disco Duro 160GB. De estos solo 20
(España), Universidad Nacional del rosario (Argentina), computadores poseen licencias compradas por la
Hong Kong University of Science & Tecnología (Japón), Universidad en el año 2005 y que son administradas por la
Tokyo Institute of Tecnología (Japón), entre otras; con el red de datos. A la fecha los computadores no han sido
fin de observar como se encuentran involucrados los repotenciados y mucho menos otro software CAD/CAM o
sistemas CAD – CAM en los pensum de las CAE.
universidades e identificar cual podría ser el norte a seguir
en cuanto a lo orientación curricular del mismo en la 3.4. Recursos humanos para el manejo de CAD.
Universidad Distrital. Existen 8 docentes que dictan las asignaturas relacionadas
Para el diagnóstico del CAD en el entorno de la Facultad con los sistemas CAD, en un campo denominado Diseño,
– Universidad, se tomaron en cuenta los siguientes Materiales y procesos, de los cuales 6 tienen
aspectos: conocimientos intermedios y 4 de ellos sólo tienen
Información disponible sobre la tecnología CAD. conocimientos básicos. Si no hay profesores con una
Software CAD buena formación informática, probablemente las nuevas
Hardware en laboratorios tecnologías no sean eficaces a la hora de enseñar
Recursos humanos para el manejo de CAD. habilidades de niveles superiores.
Enseñanza CAD en el proyecto curricular y comparación En cuanto a investigación, se encuentra un solo grupo
entre universidades. (DIMSI- Diseño, Modelamiento y Simulación) con el
9. ANÁLISIS DEL CAD EN EL objetivo de desarrollar aplicaciones CAD, en la fecha se
encuentra reducido a un pequeño grupo de alumnos, ya
ENTORNO DE LA FACULTAD que no cuenta con los recursos necesarios para la compra
3.1. Información disponible sobre la tecnología CAD: de software y gestión de recursos físicos de laboratorio.
Librerías: En la biblioteca de la Facultad no existen libros 3.5. Enseñanza CAD en el proyecto curricular y
actualizados de enseñanza de otros software CAD comparación entre universidades.
diferente a Autocad; el libro más reciente es del año En la Tabla 1 se muestran las asignaturas del plan de
(2002) Sede de Ingeniería, (2004) Sede Macarena y estudios 2007- I (vigente a la fecha) de la Universidad
(2004) Sede Tecnológica. En el país, los libros más Distrital, en la que se trata la temática, así como el
actualizados se encuentran en inglés y se compran semestre y su nivel de aplicación (teórico o con
mediante pedido; en español sólo se pudo encontrar libros aplicación de algún software).
con 2 años de antigüedad de edición. De acuerdo a lo encontrado, el software Autocad es el
Revistas: En el país no se elabora revista alguna único usado en el proyecto curricular para el trabajo en
relacionada con el tema. Los artículos de trabajos gráficos de dos dimensiones, como planos, esquemas, etc.
relacionados con el tema son publicados en revistas de En la figura 1 se presenta un gráfico desarrollado en ese
Facultades de ingeniería en general. software.
Internet: A través de esta herramienta es posible encontrar
Tabla 1. Software CAD/CAM/CAE usados en
información de tipo comercial, existiendo poca ingeniería Industrial
información académica. En algunos casos solo se
encuentran manuales de ayuda acerca del software, que
también traen consigo el software. Nivel de
Asignatu Softwar Tema Sem
3.2. Software CAD: aplicació
ra e usado Tratado .
Desde este punto de vista, los programas CAD en el país n
podrían clasificarse teniendo en cuenta las asignaturas Diseño Autoca Dibujo en 3 Teórico
relacionadas con el tema y contenidas en los pensum de Gráfico d 2 –
ingeniería industrial, de la siguiente manera: dimensione práctico
Software para el dibujo técnico: Autocad, Inventor, Solid s.
Edge y SolidWorsk. Diseño Dibujo en 4 Teórico
Software para las áreas de mecánica y resistencia de Industrial 3
materiales: Ansys, Solid Worsk cosmos, Inventor y SAP. dimensione

324
s., curricular no se encuentra apartado de la realidad nacional
representac o internacional, por lo menos en la temática tratada en las
ión de asignaturas, pero en lo concerniente al uso de software
prototipos CAD/CAM, estamos un poco alejados debido a que el uso
de la nuevas y novedosas tecnologías que ofrece la
Resistenc Cálculos 4 Teórico
comunidad científica es requerido, y debe acoplarse a
ia de de
todo el sistema de educación, y especialmente al
Materiale estructuras
ingenieril, ya que es este campo el que más apoya el
s Cálculos
avance científico y tecnológico del país.
de cargas
El hecho de generar competencias científicas a través de
y/o
estas ayudas permite a los estudiantes lograr destrezas y
deformacio
habilidades para emplear sus conocimientos teóricos
nes
adquiridos en pro de la mejora de las condiciones de vida;
Procesos Procesos 5 Teórico
es generar y apuntar hacia un mundo de conocimientos y
Industrial de
ventajas competitivas, es facilitar la compresión de su
es II mecanizad
entorno tal como lo dice Posada [2] ―El desarrollo de
o
competencias científicas es importante, por una parte, para
Taller de Procesos 6 Teórico facilitar a los ciudadanos la comprensión de su entorno y
producci de por otra, para contribuir a aumentar la competitividad del
ón producción sector productivo nacional‖
avanzados Es a través de la enseñanza del aula de clase, donde se
Logística Distribució 8 Teórico incursionan temas y nuevas tecnologías, en la que es
n en planta posible generar un avistamiento de mejoras de
Sistemas condiciones de vida; es aquí donde se debe fomentar la
georeferen generación de conocimientos con técnicas importantes
ciados. como las mencionadas, ya que con la metodología
tradicional no se genera o se induce al estudiante a la
creación de conocimiento nuevo, se le enseñan técnicas
obsoletas que al finalizar el periodo de estudio estarán
relegadas no permitiendo apropiarse de tecnologías de
punta para generar competencias científicas; en cierta
medida se forjan profesionales que no son acordes con el
avance tecnológico industrial.
El uso de la tecnología educativa y para ello quiero citar
la definición que hace la UNESCO con relación
a esta ―... ha sido concebida como el uso para fines
educativos de los medios nacidos de la revolución de las
comunicaciones, como los medios audiovisuales,
ordenadores y otros tipos de hardware y software‖, ofrece
beneficios para los futuros ingenieros ya que puede
despertarles en otros aspectos, el interés y la motivación
en adquirir nuevos conocimientos y la adaptación a las
necesidades de los estudiantes; de esta forma estaría
concebida la tecnología como una herramienta que ayuda
Figura 1. Aplicación del Software Autocad (Modelado o mediadora que juega un papel importante en la
en 2D) Fuente: 3DPoder educación pero que no es directamente responsable del
éxito educativo, solo permite ser apoyo para que los
En la Tabla 2, se puede apreciar que el proyecto objetivos pedagógicos se hagan realidad.
cuanto a materias relacionadas con CAD/CAM en
Tabla 2. Paralelo del pensum de ing. Industrial en diferentes Universidades.

325
aunque según Maldonado ‖ la adquisición de la
tecnología es una decisión administrativa; utilizarla
UNIV
U. . siempre ha sido decisión del profesorado; una decisión
U.
NACION
NAL.
NACI basada en el grado de dificultad de dominar dicha
AL UNIV. UNIV. ONA
DE
DE
DE
UNIV.
POLITÉCNICA L
tecnología, su fiabilidad y la flexibilidad de sus usos‖.
SEM COLO DEL
COLOM
MBIA
ANTIO
VALLE
DE DEL Software o tecnologías que las universidades deberían
BIA QUIA VALENCIA ROSA adoptar incluyéndolos en el currículo y que repercutirían
(MANI
(MEDEL RIO
LIN)
ZALES)
(ARG. en una mejor formación del futuro ingeniero son Solid
) Edge (figura 2) y Solid Works (CAD) que facilitan el
I Dibujo Dibujo Dibu Dibujo Expresión
asistido jo para gráfica
modelamiento en 3D y la representación de vistas
por ingeniería múltiples y Software CAM que tampoco existen y
computad permiten importar un archivo CAD de dibujo y generar un
or
II Cien Sistem código NC (control numérico) lo cual se puede utilizar
cia as de para mecanizar automáticamente las piezas (figura 3).
de repres
los entaci
Tabla 3. Software CAD/CAM/CAE usados en
mate ón ingeniería Industrial
riales
III Mecánica Proc Elasticidad y
Aplicada esos resistencia de Asignatura Tema Tratado Software
de los materiales
ingen Recomendado
iería Fundamentos de Diseño Dibujo en 2 Autocad V2010
ciencia de
materiales Gráfico dim. Inventor V2010
IV Taller Mecánica y Estabi Diseño Dibujo en 3 Inventor V2010
de ing. resistencia lidad
de los y Industrial dim., 3D studio Max
material resiste representación V2010
es ncia
de de prototipos
materi Resistencia Cálculos de Solid Works V2010
ales
V Taller Introducció Ampliación de Auto
de estructuras Solid Edge ST
de n a los tecnología de matiza Materiales Cálculos de Solid Work -
proceso materiales maquinas ción cargas y/o CosmosV2010
s
Tecnología. de deformaciones SAP 2000
materiales Procesos Procesos de Surfcam V5
VI Ciencia Taller Mecánica Materi
de los de ing. de Fluidos ales y
Industriales mecanizado Mastercam X4
materiale de la Proces II
s producci os
ón
Taller de Procesos de Surfcam V5
VII Procesos Fundament Proces producción producción Mastercam X4
de os. de os de avanzados Solid Edge /
manufact procesos produ
ura cción Solidwoks
VIII Diseño Taller Distr Distribució Construcción y Logística Distribución Autocad V2006
de de ibuci n en planta arquitectura
Plantas Diseño ón en Industrial
en planta Autodesk VIZ 2006
de plant Sistemas Map info V8
Plantas a georeferenciad
Automati Resis Tecnología de
zación y tenci fabricación y os
ELECTIVAS

Robótica a de tecnología de
mate maquinas
riales

Otro aporte de este estudio es presentar las técnicas del


desarrollo CAD y conocer como se viene dictando estas
tecnologías en el plan de estudios del proyecto curricular
de ingeniería industrial de la universidad Distrital, así
como presentar una propuesta de temas a ser incluidos.
En la Tabla 3 se muestran diferentes Software CAD
propuestos para ser adquiridos y aplicados en las
asignaturas del plan de estudios de ingeniería industrial,

326
Figura 3. Aplicación del Software SpectraCAM
(Conversión dibujo CAD a Lenguaje CNC)
Las nuevas tecnologías no solo inducen ciertas
habilidades y capacidades en el estudiante, sino que
permiten superar algunas de las limitaciones presente en la
enseñanza tradicional, como los limites de espacio y
tiempo, ya que es posible dar al estudiante cursos de
formación en CD-Rom, Internet o Intranet, cursos de
formación en línea para directivos empresariales y cursos
de extensión los cuales en cierta medida permitirían
disminuir los costos de personal docente, costos del aula
equipada, costos de mantenimiento de equipos y software.
Claro está que una herramienta informática no podrá
suplir totalmente la relación docente alumno; tal como lo
manifiestan Gómez-Elvira y otros
sino una forma de plasmar los conocimientos que
Figura 2. Aplicación del Software Solid Edge adquirimos mediante la enseñanza tradicional, y que de
(Modelado en 3D) ningún modo podría sustituir a la Expresión Gráfica,
La incorporación del uso de las herramientas porque el estudiante debe manejarse en los distintos
mencionadas puede facilitar la toma de decisiones para sistemas de representación más usuales en ingeniería,
poder optimizar prototipos o fenómenos (físico, químico, garantizando un mínimo de visión espacial y de destreza
biológico, mecánico, eléctrico, etc.), ya que permiten la operativa realizando sus ejercicios mediante las
manipulación de diversas variables evitando su herramientas clásicas.
construcción física permitiendo a cualquier área diferente
a la ingeniería, como lo son las ciencias biológicas y de la 10. CONCLUSIONES
salud, ser más competitiva. Mediante el uso de las Gestionar recursos de la universidad con el fin de
herramientas computacionales el estudiante adquiere una formar un laboratorio CAD/CAM para todas las
mejor comprensión de la física y matemática de los ingenierías, ya que el uso de las tecnologías
fenómenos físicos, que ayudan a generar soluciones computacionales es uno de los campos que ha hecho
prácticas adaptables al mundo real y a fomentar la surgir a muchos países del tercer mundo (brasil), es por
investigación y el avance tecnológico del país, como lo eso que se hace necesario incorporar estas, en los
afirma Duarte ―se considera que las universidades programas curriculares de las universidades, laboratorios
colombianas, laboratorios y centros de investigación y centro de investigación colombianos con el fin de
deben tomar la decisión de incorporar en sus currículos facilitar el progreso científico de nuestro país.
áreas temáticas relacionadas con métodos y herramientas Vincular estudiantes de las universidades al sector
para la simulación asistida por computador; ello permitirá productivo mediante asesorías y/o pasantías en el campo
elevar la calidad en investigación y desarrollo de sus CAD/CAM con el fin de intercambiar tecnologías,
egresados y de las mismas instituciones‖. soluciones y conocimientos.
Establecer estrategias de comunicación y actualización de
los docentes en el campo CAD/CAM que permitan
redactar manuales, notas de clase, etc. por medio de los
cuales el estudiante enriquezca sus conocimientos con
estas nuevas tecnologías educativas.
El proyecto curricular, no se encuentra a la vanguardia en
la enseñanza de estas tecnologías actualmente, debido
fundamentalmente a la falta de dirección de las
autoridades académicas y a la poca dedicación de los
profesores que se encontraban en esta área, lo cual exige
que la coordinación y jefaturas de área del programa en
cabeza de los docentes, deban repensar desde una
dimensión prospectiva (que permita transformar y
transformarse) una alineación con el horizonte
tecnológico, económico y productivo mundial para la
formación de un profesional que asuma el reto de la
competitividad actual.

327
El plan de estudios vigente no está actualizado, [6] Gómez-Elvira, M.A., Pascual, J.L. Puerta, F. y San
mostrando carencias en el área relacionada a las Antonio, J.C. ―Dibujo tradicional y dibujo asistido por
tecnologías CAD/CAM, se requiere la compra de diversos ordenador, ¿incompatibles o complementarios?‖, Actas
software que permitan establecer a futuro un Centro de del VIII Congreso Internacional de Ingeniería Gráfica,
Manufactura Avanzada por computador que permita las pags. 109-121, (1996).
posibilidades de futuras investigación en campos [7] Pérez Daniel Gil, Guzmán Miguel. Enseñanza de las
multidisciplinares como el de bioingeniería o Ciencias y la Matemática Tendencias e Innovaciones.
biomecánica. Organización de Estados Iberoamericanos Para la
Educación, la Ciencia y la Cultura. Editorial Popular.
11. REFERENCIAS BIBLIOGRÁFICAS ISBN: 84-7884-092-3
[1]Rojas, Ana y J. García. Reforma Universitaria y [8] 3DPoder. Marzo7 de 2010.Disponible en :
Sociedad. Revista Cubana de Educación Superior. Vol XI, http://www.3dpoder.com/ Bogotá. 2010
No. 3, 1993. p.124. [9] Estrada Cingualbres, Reynaldo Juan; Reyes Rondón,
[2] Posada, Eduardo. Observación, comprensión y Idalberto; Pantoja Millán, Félix. Estudio tendencial del
aprendizajes desde la ciencia. Septiembre 25 2007, perfeccionamiento de la enseñanza del dibujo técnico en
Disponible en : las carreras de ingeniería de cuba. Marzo 7 de 2010,
http://menweb.mineducacion.gov.co/altablero/articulo.asp Disponible en:
?sec=3&id=272&num=30 http://www.ingegraf.es/pdf/titulos/comunicaciones%20ace
[3] UNESCO (1984). Glossary of Educational ptadas/d26.pdf
Technology [10] Dixon John B. (1979) Diseño en Ingeniería. 1ª. Ed.
Terms. París: UNESCO. Limusa, México.
[4] Maldonado, h. (2001). «Should Computers go to [11]. Lazo, Oswaldo, Salas Julio. Enseñanza del diseño
School? A Cost-Effectiveness Perspective». School of asistido por computador en la Facultad de Ingeniería
Education, Universidad de Stanford (mimeo). Industrial, UNMSM. Marzo 7 de 2010, Disponible en:
[5] Duarte Julio, Fernández Flavio. La Simulación http://revistas.concytec.gob.pe/scielo.php?script=sci_artte
por computador en Investigación y desarrollo. Revista xt&pid=S1810-99932006000100003&lng=es&nrm=iso
Tecnura. 2005 V8 N° 16

328
Factores a tener en cuenta antes de migrar a cloud computing.

Flor Nancy Diaz Holman Diego Bolívar Luis Joyanes Aguilar


Facultad de Ingeniería Facultad de Ingeniería Facultad de Informática
Universidad Católica de Universidad Católica de Universidad Pontificia de
Colombia Colombia Salamanca,
Avenida Caracas No. 46 – 72, Avenida Caracas No. 46 – 72, Campus Madrid
Bogotá, Colombia, Bogotá, Colombia, Paseo Juan XIII, 3, Madrid,
fndiaz@ucatolica.edu.co hdbolivar@ucatolica.edu.co España
luis.joyanes@upsam.net

329
ABSTRACT universidades, entidades gubernamentales locales, y las
The cloud computing its being a reality, but it starts to create a empresas.” [2].
great expectation about big changes. It promises increase ―Los datos y las aplicaciones se reparten en nubes de
velocity with which applications are deployed, increase máquinas, cientos de miles de servidores de ordenadores
innovation, and lower costs for mention only some. But when
pertenecientes a los gigantes de Internet, Google,
we talk about cloud computing we cant just talk about these
aspects, the new architecture and support technologies like
Microsoft, IBM, Sun Microsystems, Oracle, Amazon,.. Y
machines, storage, network and virtual machines, that permit a poco a poco a cientos de grandes empresas,
very fast applications scalability. The different ways to deploy a universidades, administraciones, que desean tener sus
cloud and its cost are themes that we discus in this document as propios centros de datos a disposición de sus empleados,
a way to show other thing that we must have in mind when investigadores, doctorandos, etc.‖ [10]. La computación
decide to use this technology to manage out applications. Can en nube no es más que muchas máquina ubicadas en sitios
be possible create business who sell this solutions or create one remotos las cuales son accedidas por medio de internet,
that use these to create solutions? con el fin de ofrecer mayores capacidades de
Cloud computing is defined as the creation of Web services that almacenamiento, procesamiento y con el respaldo de un
seek to change the way we work and collaborate online. The monitoreo y mantenimiento constante buscando así
purpose is not to be tied to the use of programs installed on a niveles de disponibilidad y servicios que una compañía
computer, seeking to create a new way of working with por sí sola no sería capaz de alcanzar.
programs and data, collaborate with friends, family, colleagues La computación en nube se basa en las tendencias
and above all, optimize resources and be more productive. With
establecidas para el manejo de los costos de los servicios
the increased use of internet, everything is now web-based
rather than developing desktop applications, the goal is for you
al tiempo que aumenta la velocidad y la agilidad con que
to access all programs and documents from any location where se despliegan los mismos. Se reduce el tiempo para
Internet access is held. If you want to share photos with family, diseñar una arquitectura de la aplicación. La computación
coordinate volunteers for a community organization, or en nube incorpora la virtualización, el despliegue de los
managing a project that involves multiple areas in a large servicios ajustándolos permanentemente a la demanda, la
organization, cloud computing can help make it easier than prestación de servicios de Internet, y software de código
ever. The benefits of cloud computing include saving money on abierto. La finalidad de la computación en nube no es del
software costs for access to documents anywhere, facilities to todo nueva, ya que utiliza métodos, conceptos y mejores
manage work and personal schedules, share documents with
prácticas que ya han sido establecidas con el uso de
colleagues and friends, edit digital photos.
servicios web.
Keywords
Cloud Computing, undertake, business paradigm. 2. MODELO DE SERVICIO
La computación en nube maneja las tendencias
1. INTRODUCCIÓN establecidas. Desde una perspectiva empresarial, el
La computación en nube nace a partir de las manejo de los servicios bajo demanda ayuda a mantener
expectativas creadas por la WEB 2.0 entre los usuarios el rendimiento y los niveles de servicio. La naturaleza del
personales y corporativos. ―La idea clave tal vez sea que auto-servicio manejado en la computación en nube
las TI se convierten en un servicio, de modo que ―las permite a las organizaciones crear entornos dinámicos
aplicaciones del software no tienen porque existir en un que se acomodan a la carga de trabajo y las necesidades
lugar concreto sino que pueden estar compuestos de de rendimiento. Y el pago por uso de las aplicaciones en
múltiples piezas procedentes de múltiples sitios‖ como la nube informática puede tomar la forma de
señala Steve Mill vicepresidente senior y responsable de arrendamiento de equipos que garanticen un nivel mínimo
la unidad de software de IBM en la consultora IDC.‖ de los servicios de un proveedor de aplicaciones.
[10]. La nube se construye basándose en que las
La computación en nube surge de la necesidad de solicitudes son temporales, y la facturación se basa en el
trabajar con servicios concentrados, con mayor facilidad uso de los recursos tales como el consumo de horas de
de administración, mejor rendimiento y aprovechamiento CPU, el volumen de datos que fueron ―movidos‖, o
de capacidades, Marshall Breeding dice en su trabajo gigabytes de datos almacenados.
“Imagine que en lugar de un modelo de computación Otra consecuencia del modelo de autoservicio y del
donde todo el trabajo pesado de la informática ya no pago por uso es que las aplicaciones son compuestas por
tiene lugar en estos sistemas en sitio tangibles, pero se el montaje y configuración de dispositivos y software de
lleva a cabo en algunos centros de datos dentro de la código abierto. Aplicaciones y arquitecturas que pueden
nube. Si bien continuamos con la necesidad de ser readaptadas con el fin de aprovechar al máximo el uso
dispositivos físicos e interactuar con la computadora de componentes estándar son los destinados a tener un
basada en los servicios, la infraestructura que mayor éxito al aprovechar las ventajas de la computación
proporciona estos servicios evoluciona hacia la más en nube. Del mismo modo, los componentes de la
concentrada, las grandes instalaciones. Concentración aplicación deben ser diseñados para ser compatibles, de
de los recursos informáticos en los centros de datos se ha forma que puedan ser empleados fácilmente. Esto
centralizado en gran medida se complete en la mayoría requiere tener funciones simples, claras y bien
de los las grandes organizaciones como las

331
documentadas. La construcción de grandes aplicaciones base de datos.
monolíticas es una cosa del pasado, La biblioteca de las Configurar cada componente para crear una imagen
herramientas existentes que se pueden utilizar personalizada. El balanceador de carga, el contenido
directamente o adaptadas para un uso específico se hace estático del servidor Web que será publicado para ser
cada vez más grande. Cuando The New York Times subido a la nube y las bases de datos que poseen el
quería convertir 11 millones de artículos y las imágenes contenido dinámico para el sitio.
en su archivo al formato PDF, su organización interna de Desarrollar la capa de código personalizado para
TI, dijo que se tardaría siete semanas. Mientras tanto, un hacer que los componentes cumplan con los requisitos
desarrollador de Amazon con 100 casos EC2 y una específicos de la aplicación.
simple interfaz Web que ejecuta un servicio Hadoop, Elegir un modelo para el manejo de cada capa y
termina el trabajo en 24 horas por menos de $ 300. despliegue, manejo de redes, seguridad, y problemas de
Incluso las grandes empresas pueden usar la computación escalabilidad.
nube como una forma para resolver problemas Realizar la integración de las capas de presentación y
importantes en menos tiempo y a un costo menor que con de base de datos y realizar el despliegue de la aplicación
la informática empresarial tradicional. para salir ―al aire‖.
Es obligatorio decir que la computación en la nube
extiende la tendencia actual de la disponibilidad de
servicios en la red (Web services). Prácticamente todas
las organizaciones empresariales han reconocido el valor
de las aplicaciones basadas en Web y sus aplicaciones, ya
sea que estén a disposición de los clientes a través de
Internet, o si son aplicaciones internas que están
disponibles a los empleados autorizados, socios,
Figura 1. Aplicación Web Dos Capas
proveedores y consultores. Lo atractivo de Internet
basado en la prestación de servicios, consiste en que las
La computación en nube puede emplear servicios que se
aplicaciones pueden estar disponibles en cualquier lugar y
presten en cualquiera de las capas tradicionales de
en cualquier momento.
hardware En la práctica, los prestadores de servicios en la
En los últimos años, las máquinas virtuales se han
nube tienden a ofrecer servicios que pueden ser
convertido en un elemento básico de casi cualquier
agrupados en tres categorías: el software como un
implementación. La virtualización mejora la flexibilidad,
servicio, la plataforma como un servicio, e infraestructura
porque se elimina el hardware hasta el punto donde el
como un servicio.
software se puede desplegar varias veces sin ser necesario
que este se encuentre atado a un servidor físico
específico. La virtualización permite a un centro de datos 2.1.1 El software como servicio (SaaS)
dinámico en el que los servidores proporcionan un El software como un servicio dispone de una completa
conjunto de recursos que se aprovechan como sea aplicación que se ofrece como un servicio bajo demanda.
necesario, y donde las relaciones entre las solicitudes de Una sola instancia del software se ejecuta en la nube y
cómputo, almacenamiento y recursos de red, cambian de múltiples usuarios finales lo llaman o ejecutan.
forma dinámica a fin de satisfacer tanto la carga de
trabajo como las demandas del negocio. Con la Una de las aplicaciones más conocidas de SaaS es
aplicación de esta tecnología, las aplicaciones pueden ser ―salesforce.com‖, aunque muchos otros ejemplos han
desplegadas y escaladas rápidamente, sin tener que llegado al mercado, incluida la oferta de ―Google Apps‖
adquirir primero los servidores físicos. [20] la cual ofrece servicios empresariales básicos que
Las máquinas virtuales se han convertido en la incluyen correo electrónico y procesamiento de textos.
plataforma más frecuente. El uso de máquinas virtuales Estas aplicaciones suelen negociarse cobrando un cargo
como plataformas de despliegue ayuda a satisfacer la fijo por usuario en un periodo determinado de tiempo, no
necesidad de desplegar rápidamente las aplicaciones a sin antes dar un periodo gratis de prueba, el cual
gran escala. [20] generalmente es menor a un mes.
2.1 Modelo de infraestructura
Existen muchas consideraciones que los arquitectos 2.1.2 La plataforma como servicio (PaaS)
deben tener en cuenta al momento de moverse del modelo Un usuario de PaaS vería un servicio encapsulado que se
de desarrollo de aplicaciones empresariales estándar a un les presenta a través de una API. El cliente interactúa con
modelo de desarrollo de aplicaciones en la nube. la plataforma a través de la API, y la plataforma ofrece
Considere un despliegue de una aplicación web de todo lo necesario para administrar y ampliar los recursos
dos niveles o capas para la nube como lo muestra la y de esta forma garantizar la prestación del servicio.
figura 1:
Las ofertas de PaaS pueden prever todas las fases de
Elegir un balanceador de carga (Si el despliegue
desarrollo de software y pruebas, o pueden ser
implica más de un servidor), servidor web y servidor de
especializados en torno a un área concreta, como la

332
gestión de contenidos. Ejemplos comerciales de PaaS componentes situados en la misma ubicación, ayuda a
incluyen el motor de ―Google Apps‖, que sirve disminuir el costo, porque el ancho de banda es amplio y
aplicaciones en la infraestructura de Google. Servicios generalmente gratis al conectar los recursos dentro de una
PaaS como éstas pueden proporcionar una base solida misma instalación.
sobre la cual desplegar aplicaciones, sin embargo, puede
verse limitada por las capacidades que el proveedor de 2.2.2 Nubes privadas
nubes elige para entregar. Las nubes privadas se construyen para el uso exclusivo de
un cliente, proporcionando el máximo control de los
2.1.3 Infraestructura como un servicio (IAAS) datos, la seguridad y calidad de servicio. La empresa
La infraestructura como un servicio ofrece servicios de posee la
red, servidores, sistemas de almacenamiento, switches, infraestructura y tiene el control sobre cómo se despliegan
routers, y otros sistemas que se agrupan y permiten el las aplicaciones en ella.
manejo cargas de trabajo que van desde componentes de
aplicaciones informáticas a aplicaciones de computo de Las nubes privadas pueden ser construidas y gestionadas
alto rendimiento. por el propio equipo de tecnología de la organización o
por un proveedor de nubes. En este modelo una empresa
externa puede instalar, configurar y operar la
2.2 Tipos de nubes infraestructura para apoyar una nube privada dentro de un
Hay muchas consideraciones que los arquitectos que centro de datos de la empresa. Este modelo ofrece a las
diseñan aplicaciones de computación en nube deben tener empresas un alto nivel de control del uso de los recursos,
en cuenta cuando se mueven de un estándar de mientras obtiene los conocimientos necesarios para
computación para la empresa a una basada en la nube. administrar y operar el sistema.
Existen nubes públicas y privadas que ofrecen beneficios
complementarios, Hay tres modelos de servicios básicos a 2.2.3 Nubes mixtas
considerar, y es en este ambiente donde se debe entrar a Combinan los modelos de nube tanto públicos como
comparar el valor una API abiertas frente a las API privados. La decisión de manejar una mezcla de una nube
propietarias. privada con los recursos de una nube pública puede ser
basada en la exigencia de mantener los niveles servicio en
2.2.1 Nubes públicas ambientes donde las fluctuaciones en la carga se
Son gestionadas por terceros, y es probable que las presentan en periodos de tiempo muy corto. Esta
aplicaciones de los clientes son diferentes se mezclan en arquitectura es usada frecuentemente para soportar las
los servidores de la nube, los sistemas de almacenamiento aplicaciones Web 2.0. Una nube híbrida también se puede
y las redes. Las nubes públicas son a menudo alojadas utilizar para manejar picos de carga de trabajo.
fuera de los locales de los clientes y proporcionan una
manera de reducir el riesgo de los clientes y el costo al Las nubes mixtas introducen la complejidad de
ofrecer una solución flexible, e incluso temporal para la determinar cómo distribuir las aplicaciones a través de
extensión de la infraestructura de la empresa. nubes tanto públicas como privadas. Entre las cuestiones
que se deben tener en cuenta es la relación entre los datos
Si la nube pública se implementa con rendimiento, los recursos de procesamiento. Si los datos son pequeños,
seguridad, y localización de la data en mente, la o la aplicación no maneja estados, una nube mixta puede
existencia de otras aplicaciones que se ejecutan en la nube ser mucho más exitosa que si grandes cantidades de datos
debe ser transparente tanto a los arquitectos de nubes y deben ser transferidas hacia una nube pública para un
los usuarios finales. De hecho, uno de los beneficios de pequeño procesamiento.
las nubes públicas que puede ser mucho mayor que la
nube de una empresa privada puede ser, que ofrece la
capacidad de escalar bajo demanda, y el desplaza los 3. CLOUD Y LA EMPRESA
riesgos de la infraestructura de la empresa al proveedor La aparición de la computación en nube ha creado un
de la nubes, aunque sea sólo temporalmente. nuevo paradigma tecnológico para las empresas, lo cual
ha llevado a cuestionar si el paradigma tradicional de
Parte de una nube pública puede ser reservada para el uso computación ofrece el mejor servicio, entonces ¿será la
exclusivo de un solo cliente, creando espacios privados computación en nube el nuevo modelo tecnológico en las
de almacenamiento y despliegue. En lugar de limitarse a empresas? Jeremy Quittner cita en su artículo How Cloud
desplegar imágenes virtuales de una sola máquina en una Computing Can Help Small Businesses:
nube pública, un centro de datos privado brinda a los ―Hasta ahora tan solo un 2% de las empresas con menos
clientes una mayor visibilidad en su infraestructura. de 100 empleados están utilizando la computación en
Ahora, los clientes no pueden solamente manipular nube, según informe de mayo de 2009 por Forrester
imágenes de máquinas virtuales, sino también servidores, Research. … Un 2% adicional dijo que tenía previsto
sistemas de almacenamiento, dispositivos y topologías de adoptar la computación en nube en los próximos 12
red. Un centro de datos virtual privado con todos los meses, pero el 37% dicen que están interesados en
aprender más sobre ella.‖. [14]

333
los servicios basados en Cloud Computing están de
Para comprender este nuevo paradigma hay que estudiar acuerdo con las necesidades de la compañía.
el impacto sobre las organizaciones que existen hoy en
día, puntualmente dos escenarios: Disponibilidad de los datos: A la hora de cambiar de
proveedor de Cloud Computing por algún motivo, la
3.1 Dominios de aplicación de Cloud flexibilidad para reutilizar los datos y su estructura puede
variar de acuerdo a la capa de servicios que se esté
Computing usando; si se trata de servicios de infraestructura
Analizadas dos de las dimensiones de perspectivas del
únicamente representará simplemente el hecho de
Cloud Computing, la restante hace referencia a los
cambiar de almacenamiento físico de los datos pero
dominios de aplicación que se pueden abordar con Cloud
cuando hay capas de aplicación en medio, esa flexibilidad
Computing; ello hace variar el enfoque tecnológico para
puede disminuir y es probable que sea necesario hacer
su afinamiento y personalización; ejemplo de ello es que
cambios para tener lista la información para su uso con el
pueden existir requerimientos de computación intensiva
nuevo proveedor; en muchos casos puede ser tan crítico
que no reciben tráfico de clientes externos como también
que obligaría a depender de un proveedor. Para que esto
de procesamiento intensivo de transacciones de usuarios
no pase se debe contar con planes que permitan extraer la
conectados.
información frecuentemente (no confundir con backup)
Entre las razones que pueden existir para optar por un
para tener una visión actualizada de los datos y poder
servicio basado en Cloud Computing, es el alto costo de
anticiparse a la hora de cambiar de proveedor en caso de
propiedad que se deriva de la administración y
ser necesario.
mantenimiento de infraestructura de cómputo dentro de
las compañías, y los costos que se derivan del tiempo
Confiabilidad: Mucho se ha discutido sobre acuerdos de
necesario para poder desplegar y tener lista una solución
servicios de 99.99% de disponibilidad (the four nines)
de IT; con los servicios basados en Cloud Computing,
para Cloud Computing; en los primeros meses del boom
éste tiempo tiende a minimizarse ya que la base de
de Cloud Computing se generó una expectativa muy
infraestructura está lista casi como un ―plug and play‖ de
grande sobre la disponibilidad ―ilimitada‖ de servicios
servicios; la analogía que muchos expertos utilizan como
pero ya se han conocido casos de caídas de servicio en
argumento es el de servicios básicos como el acueducto
proveedores grandes como Google Apps y Amazon en
en donde una empresa no necesita tener su propio
donde los costos de éstas caídas lastimosamente los
acueducto para poder disfrutar del servicio de agua;
asume el cliente, porque prácticamente está entregando su
simplemente se le paga una suscripción a un tercero para
negocio a un desconocido. Así que no sólo hay que
disponer del servicio. Otra de las fuertes razones es la
evaluar que el proveedor cuente tecnológicamente con
agilidad que puede inyectar el uso de la tecnología en el
Data Centers alternos, también debe evaluar
negocio para minimizar los tiempos de ―puesta al aire‖ de
minuciosamente los contratos para blindar
servicios de negocio y de servicios orientados al usuario
adecuadamente el negocio; para ello las empresas a la
final, disminuyendo dramáticamente los tiempos de
hora de contratar servicios basados en Cloud Computing
despliegue e implantación; lo que antes tardaba meses
deben formularse los siguientes interrogantes [7]; 1. ¿Qué
hoy puede tardar solo unos días; obviamente ésta
es lo que considera el proveedor como ―buen‖ servicio?
reducción de tiempo no es un artilugio de magia y es
Y qué es lo que éste incluye y lo que explícitamente no
mucho lo que tienen que madurar los procedimientos y la
incluye, desde las políticas de reembolso hasta el límite
confiabilidad en la prestación de éstos servicios. De
de la asistencia técnica. 2. ¿Qué tan conforme estoy con
acuerdo con lo anterior uno de los retos que plantea
la planta física y logística del proveedor? para evaluar la
Cloud Computing para los proveedores de éstos servicios
cantidad de personas que dicho proveedor tiene
es el de lograr la confianza de los clientes en cuanto a la
involucrados y la madurez de los procesos de
confidencialidad de la información; ya que no es fácil
mantenimiento que se llevan a cabo en las instalaciones.
para las empresas entregarle a un tercero su propiedad
Para responder esta pregunta una visita de evaluación
intelectual y su capital de información; en éste aspecto
debe realizarse y revisar las certificaciones que tenga el
opina el experto Al Hilwa que es mucho lo que hay por
proveedor tal como ISO, ITIL, CMMI, etc. 3. ¿Qué tipos
hacer en el aspecto de contratación ya que los acuerdos
de interrupción de servicio por parte del proveedor estoy
de nivel de servicio y confidencialidad no alcanzan a
preparado a afrontar? Se debe revisar con el proveedor
cubrir todos los aspectos relacionados con éste tema; así
las actividades de mantenimiento que tiene planeadas y
que hay bastante trabajo por hacer en la legislación que
los planes de contingencia que tiene para asegurar la
reglamenta éste tipo de servicios [8].
disponibilidad en esos eventos ya que en esas actividades
de mantenimiento no tendrá disponible el 100% de su
3.1.1 Riesgos infraestructura para atender la demanda de servicio. 4.
Profundizando un poco más en los riesgos que puede ¿Qué tan rápido está creciendo el proveedor? Se necesita
representar esta arquitectura de servicios se ilustrarán conocer la capacidad de crecimiento que tiene el
algunos factores que se deben tener en cuenta a la hora de proveedor para asumir la cantidad de clientes nuevos sin
tomar cualquier decisión teniendo en cuenta ante todo, si afectar la calidad de servicio contratada. 5. ¿Qué base

334
procedimental y de logística tiene el proveedor para nube provee los recursos de acuerdo a lo requerido por
afrontar una caída de servicio? Se debe hacer una los servicios contratados.
minuciosa revisión de procedimientos y planes de
continuidad de negocio que tiene implementados el 4.1.2 Energía, refrigeración y planta física
proveedor. El costo de sostenimiento de las plantas físicas puede
llegar a ser valores altos e inmanejables, tanto que se
4. CLOUD COMPUTING Y incurre en el riesgo de no prestar el mejor servicio porque
EMPRENDIMIENTO la capacidad de la planta física se encuentra al máximo, al
El caso de emprendimiento de una nueva idea de negocio, seleccionar el modelo de la nube estos costos, al igual que
una nueva empresa a partir de un plan que tiende a el riesgo serán transferidos al proveedor (o proveedores)
desarrollarse, pero como toda empresa requiere de los de la nube, proporcionando confianza y capacidades que
servicios de la tecnología. tal vez no podrían ser adquiridas dentro de la empresa.
Cada nueva empresa llega un punto donde debe decidir
que tecnologías requiere para su desarrollo, cual es la 4.1.3 Operación
mejor opción, que debe usar y como va a ser implantado, Hoy en día los costos de operación del hardware no son
en este punto de decisión se encuentra la solución que altos debido a las facilidades tecnológicas que existen
provee el paradigma de la computación en nube. Pero implícitamente con la maquinaria adquirida, pero aún así
¿Cómo saber si es la tecnología adecuada? Realizar el existen infinitas situaciones que pueden representar un
estudio pertinente es lo recomendable para tomar esta riesgo si no se cuenta con el personal adecuado para la
decisión, para esto se proponen los siguientes aspectos: solución a los inconvenientes que se presenten.

4.1 Costos 4.1.4 Mantenimiento de software


El costo es un aspecto clave dentro de la toma de la La adquisición de servicios de software dentro de la nube
decisión sobre la selección del modelo a utilizar en la favorece las finanzas de la compañía, el ahorro se ve
nueva compañía. Para el análisis de este aspecto se representado en baja de los costos de aplicación de
descompondrá en 4 perspectivas: parches y mejoras de bugs. La columnista Karen Klein
dice en su artículo Los Pro y Contras de la Computación
4.1.1 Pago por separado por recursos en Nube [9] ―El software proporcionado en línea es
Las aplicaciones no tienen un estándar en el uso de actualizado y mantenido por el proveedor, por lo que el
recursos por lo que se depende de estas para la decisión pequeño empresario no tiene que comprar la versión más
de que equipos comprar, donde y como instalarlos. La reciente de un programa de software o descargar ajustes y
Universidad Berkeley ha propuesto el siguiente caso de parches.‖ El proveedor suplirá la necesidad de la compra
estudio [1] ya que en términos generales los recursos más de nuevas versiones, además de las instalaciones e
utilizados son el uso de la red, la capacidad de implementaciones necesarias para el funcionamiento
procesamiento y la capacidad de almacenamiento, por lo adecuado de las aplicaciones.
que han elaborado la siguiente tabla basados en los
estudios de Jim Gray en el 2003 [4]. 4.1.5 Confidencialidad de la información
Toda empresa debe proteger sus intereses y por esto
Tabla 1 Costos Servicios al 2008 (Armbrust, et al., mismo debe proteger su información, no es una decisión
2009) sencilla dar la posibilidad a un tercero de acceder a la
Ancho de Almacenamiento información de la empresa, se deben contar con las
Banda Horas CPU disco garantías necesarias. El escritor Harry Lewis ha escrito un
2 GHz, 2 artículo referente a esto Enter the Cloud with Caution
sockets, 4 1 TB disco, 115 [11]. En este artículo se plantean nueve preguntas que
Ítem 2008 100 Mbps deben hacerse antes de confiar los datos de la empresa o
cores/socket, 4 MB/s
GB DRAM las tareas de computación a un proveedor externo.
Costo ¿Quién puede ver los datos?
$3600/mo. $ 1.000 $ 10 En muchas empresas y organizaciones la información es
2008
$1 compra 2.7 GB 128 horas CPU 10 GB privada y esta es asegurada por negociaciones sobre la
privacidad de los datos, por ejemplo los correos
electrónicos de los empleados son privados y no pueden
El costo de los recursos por separado puede llegar a
verse más que con sentencia judicial.
aumentar debido a que no es posible definir con exactitud
¿Qué pasa si no se paga la factura?¿La información
lo requerido por el sistema y que proyección de uso
podría ser eliminada o perdida por este motivo?
cuenta el mismo, la computación en nube ofrece los
Se debe tenar claridad al momento de iniciar la nueva
distintos servicios a diferentes medidas, los cuales pueden
empresa de cuáles son las condiciones referente a este
agruparse y finalmente presentar una vista independiente
tema.
de la capacidad de cada uno de ellos, simplemente la
¿Hace la nube copia de seguridad de sus datos? Es

335
posible mitigar esto con un simple contrato donde se Claro está que este atributo es bastante complicado de
estipule claramente esto ¿Quién es el responsable de la mantener, de acuerdo al estudio realizado por la
seguridad, protección y back up? ¿Existe un contrato de Universidad Berkeley de California han encontrado una
garantía? serie de reportes de indisponibilidad de servicio de
¿Qué pasa si su proveedor de servicios entra en su algunas de las grandes compañías proveedoras de la
negocio? Las grandes compañías proveedores de computación en nube.
servicios siempre están en busca de nuevas
oportunidades, hay que ser cuidadoso al momento de Tabla 2 Outages in AWS, AppEngine, and Gmail [1]
permitir acceso a la información, no sea el caso que se Service and Outage Duration Date
esté proporcionando acceso a un competidor potencial a S3 outage: authentication service
los datos del negocio. 2 hours 2/15/08
overload leading to unavailability
¿Qué pasa si hace negocios extranjeros? En realidad no
S3 outage: Single bit error leading to
hay inconveniente, la frontera puede haber sido cruzada 6-8 hours 7/20/08
gossip protocol blowup
desde un inicio, él centro tecnológico está en la nube,
AppEngine partial outage:
pero si realmente la nube se encuentra fuera del país. El 5 hours 6/17/08
programming error
ejemplo que suministra el autor del artículo Las notas y el
Gmail: site unavailable due to outage
correo electrónico están sujetas a la Ley Patriota EE.UU. 1.5 hours
in contacts system 8/11/08
Buscar el momento de cruzar la frontera si la "nube" en
realidad está ubicado en los EE.UU. Puede que el
Esto demuestra que por más robusto que sea el sistema no
gobierno de EE.UU. ya haya buscado en la clandestinidad
existe la plena certeza de que un sistema este exento de
nacional de comunicaciones electrónicas información
inconvenientes de disponibilidad de ambientes.
sobre sus correos.
Adicional a esto toda organización es vulnerable a
¿Qué espera la nube de usted? Los servicios en la nube
ataques por parte de personas o entidades inescrupulosas
están sujetos a condiciones que deben ser cumplidas, por
que tienen como objetivo hacer que los servicios de las
ejemplo, los documentos de la compañía contienen
compañías victimas presenten interrupciones en sus
detalles discriminatorios en algún sentido (raza, sexo,
actividades buscando perjudicar la calidad del servicio de
religión, orientación sexual, etc.), por lo tanto no es
la empresa y afectando su prestigio en el mercado.
permitido subir este contenido a la nube.
¿Cuál es el control de acceso? Se debe tener claramente
definidas estas políticas de acceso, pues cabe la 4.1.7 Rendimiento
posibilidad de que un intruso pueda llegar a eliminar la El rendimiento es otra cuestión clave a la hora de
información o de alguna forma afectar drásticamente la seleccionar la tecnología ya que este aspecto impacta
continuidad de su negocio. directamente con la calidad de los servicios que preste la
¿Desea que sus empleados reciban publicidad con su compañía en cualquier ámbito.
correo electrónico u otras herramientas ofimáticas? Atañe Frank Dzubeck expone en su artículo Five cloud
verificar cual sería la reacción a esto, hay que analizar si computing questions [5] una cuestión a realizar al
es preferible pagar un poco más o permitir un poco de momento de estudiar la computación en nube. ―La
publicidad. segunda pregunta es el rendimiento. El compromiso de la
¿Cuál será la estrategia de salida de la nube? En el caso calidad de los servicios y los niveles de acuerdo de los
de insatisfacción con el servicio provisto por la nube se proveedores de la computación en nube puede que no
debe contar con un plan de migración de los servicios cumplan la disponibilidad empresarial, legal, el
utilizados además de contar con personal capacitado para presupuesto y los requisitos de seguros ¿Quién es el
esto. responsable de la pérdida de ingresos/beneficios, de una
El tema de entregar los datos a un tercero claramente es caída importante de la nube, carga alta de ancho de banda
de cuidado, ―El peligro aumenta cuando los datos se o el acceso insuficiente debido a la denegación del
alojan en ―la nube‖, Los datos pueden residir en cualquier servicio?‖
lugar o centro de datos. Esto puede suponer hasta un Al confrontar esta pregunta con el estudio presentado por
problema legal ya que las legislaciones de muchos países la Universidad Berkeley de California [1], quien acude al
obligan a que determinados datos deben estar en territorio siguiente gráfico donde se plantea un ejemplo del costo
nacional.‖ [10]. que puede tener en rendimiento de acuerdo a la
experiencia de ellos, “Múltiples Máquinas Virtuales
4.1.6 Disponibilidad del servicio pueden compartir CPUs y memoria principal
sorprendentemente bien en Computación en Nube, pero
En todas las organizaciones se encuentra la misma
compartir I/O es más problemático”
preocupación, disponibilidad del servicio, es un punto
La figura a continuación muestra que el promedio de
importante de analizar ya que impacta directamente con
ancho de banda en memoria para 75 instancias de EC2
la calidad del servicio de cualquier compañía, si existe un
corriendo es de 1355 MBytes por segundo, también se ve
ambiente adecuado de atención a la estabilidad de los
el promedio de ancho de banda en disco para las 75
servidores, la infraestructura y en general de los servicios
instancias escribiendo 1 GB a disco local siendo de 55
los clientes de la organización se encontrarán satisfechos.

336
MBytes por segundo, esto demuestra el problema que Un ejemplo de esto fue publicado por Jon Brodkin [3]
donde relata la historia de la compañía The LinkUp que
existe con los dispositivos de I/O entre maquinas perdió el acceso a cantidades no especificadas de los
virtuales. datos de sus clientes. La historia relata el nacimiento de
las compañías Nirvanix y MediaMax en el año 1998 que
posteriormente se dividiría en dos en julio de 2007,
donde MediaMax a inicios del 2008 cambio su nombre a
Linkup. Para julio de 2007 se inicia el contrato con Sawis
para la migración de los servidores y sistemas de
almacenamiento donde este intento resulto en el posterior
cierre de Linkup ya que esta migración fue posible solo
en parte y sólo una fracción de los archivos fueron
transferidos.
Esta historia demuestra que la migración de un sistema a
otro no es una tarea sencilla y al contrario, puede ser
bastante riesgosa.

4.1.9 Escalabilidad
Las necesidades iníciales de un nuevo negocio son claras
pero no se puede dejar a un lado que es siempre se espera
un crecimiento, puesto que la idea de toda empresa es
incrementar sus ventas, sus clientes, sus servicios, sus
productos y en general expandirse. De acuerdo a esto el
modelo tecnológico a seleccionar debe poder permitir una
ampliación según lo exija el negocio, la computación en
nube provee amplios beneficios en este aspecto, la
escalabilidad de los sistemas en la nube es proporcionada
para uso a corto plazo y de acuerdo a lo contratado podría
inclusive no tener costo, así mismo puede atender la
demanda de los servicios a medida que esta vaya
aumentando.

Beth Schultz estudia el otro lado de la expansión de la


Figura 2 Comparación de rendimiento [1] empresa ―Cuanto más grande sea, más grande es su grupo
de recursos de IT. Y al ser más grande su grupo de
El rendimiento es un tema de sumo cuidado y al momento recursos de IT, es menos probable ver alguna ventaja
de seleccionar la tecnología para una nueva empresa se económica en la tercerización de la nube‖ [16] Así que
debe validar con cuidado si la nube a la que se piensa hay que tener claro el tamaño y la capacidad que se
ingresar comprende lo necesario para el correcto requiere y hasta qué punto se proyecta el crecimiento ya
funcionamiento de los servicios, de no ser así, sería que en algún momento deja de ser un beneficio las
necesario pensar en otra alternativa donde se tenga el capacidades que presta la nube.
control y puedan hacer cumplir los requerimientos de
rendimiento para el funcionamiento adecuado de la 4.1.10 Mantenimiento de software
compañía. La computación en nube no es comprendido únicamente
por almacenamiento, infraestructura y grandes
4.1.8 Estándares capacidades de procesamiento, también se ofrecen
Los proveedores de soluciones tecnológicas se acoplan a servicios de software en línea, “Merrill Lynch estimaba
los estándares que atribuye a cada tecnología haciendo en mayo de 2008 que el mercado global anual en cinco
más viable la interoperabilidad y escalabilidad de los años llegará a 95 mil millones de dólares y que durante
sistemas, pero para la computación en nube emerge un ese periodo el 12% del mercado mundial del software
inconveniente que tienen las nuevas tecnologías, aún hace estaría en la nube” [10].
falta establecer estándares sobre los diferentes servicios Christina Torode apunta en su libro ―Software as a
de la computación en nube, evidentemente los APIs Service ha logrado establecerse en muchas
utilizados por los proveedores de la Computación en organizaciones para aplicaciones de punto. De acuerdo a
Nube aún son de uso propietario lo cual genera una Gartner, el mercado ofrecido de SaaS ha crecido el 11%
dependencia sobre el servicio seleccionado, la extracción mundialmente, comparado con solo el 5.5% para IaaS‖
de información o aplicaciones de una nube a otra se [19].
convierte en un proyecto de dimensiones inmanejables. La computación en nube precisa atención sobre el

337
software como servicio, por lo que se deben asumir están adjudicando a empresas como Salesforce, pioneras
nuevos retos “Uno de los desafíos difíciles en la en el diseño y construcción e software CRM bajo
Computación en Nube es la eliminación de errores en demanda o como servicio‖ [10] lo cual nos indica que
estos sistemas de gran tamaño” [1] lo que hace notable efectivamente es necesario prepararse para una
que el desarrollo del software para la prestación de los migración, la computación en la nube ya llego y ahora
servicios dentro de la nube están sujetos a condiciones de hay que afrontar el reto de cambiar el paradigma.
extremo uso de recursos lo cual dificulta el aseguramiento
de la calidad en ambientes diferentes al de producción. Pero hay que tener en claro que se puede esperar de la
En el caso de detectar un error específico, la réplica de nube, Robert Scheier en su artículo acerca de los mitos de
este en un ambiente de desarrollo para su seguimiento, la computación en nube dice ―La nube reduce la carga de
control y mitigación se convierte en una tarea tediosa y en trabajo en el largo plazo. Pero para empezar, hay
cuanto a tiempo, bastante costosa. averiguar qué modelo de nube es apropiada, las
aplicaciones o servicios que más convengan y la manera
4.1.11 Licenciamiento de garantizar un nivel adecuado de seguridad,
En la computación tradicional las licencias son adquiridas cumplimiento y tiempo de actividad. Recuerde el control
para la utilización del software, en base a lo propuesto en de la ejecución de cualquier fabricante toma tiempo
un estudio realizado en el departamento de informática de extra‖ [15], importante tener en cuenta para iniciar un
la Universidad Carlos III de Madrid encontramos varios plan de migración en la nube, hay que conocer que es un
tipos de licencias sobre el software [12]. proyecto riesgoso para la compañía y los beneficios se
En el nuevo paradigma de la computación en nube verán paulatinamente.
básicamente podemos tratar de asimilar los mismos tipos La compañía TechTarget ha generado una guía sobre
de licenciamiento, pero el contrato ya no sería por el cómo prepararse para el impacto de la computación en
derecho a usar o ejecutar un programa, el derecho que se nube, esta guía indica tres dimensiones a tener en cuenta
estaría adquiriendo es el de acceder a los servicios en la para soportar este impacto. [18]
nube. La primera dimensión en referencia es el Origen de la
En cuestión de costos se siente un impacto sobre el información, las aplicaciones necesitan datos bases para
paradigma tradicional, el estudio de Berkeley dice ―La su funcionamiento, lo cual nos lleva al punto de cuál es el
oportunidad para los proveedores de la nube es impacto de migrar la información a la nube,
simplemente ofrecer planes prepago para el uso masivo adicionalmente hay que tener en cuenta que implicaciones
que pueden ser vendidos con descuentos‖, como se indica tiene sobre la consulta a esta información.
anteriormente, la compra se realizara por tiempo y La segunda dimensión es el Mantenimiento de la
capacidad de uso más ya no se comprara el derecho a información, hay que tener en cuenta cual será el proceso
utilizar el producto. de copias de seguridad ¿también se encontrarán en la
nube o es pertinente buscar otro destino diferente para
esto? Adicional a esto hay que establecer el proceso para
5. CLOUD COMPUTING y la la actualización de estos datos que ahora se encuentran en
EMPRESA CONSOLIDADA la nube.
En contraste al escenario estudiado anteriormente, existe Por último se encuentra la tercera dimensión el Acceso
un caso un poco más complejo donde existen más Distribuido a la información, se debe revisar con claridad
variables a tener en cuenta, si una compañía que lleva una quienes requieren acceso a la nube, el acceso
trayectoria dentro de su negocio y encuentra posiblemente será vía Internet o en su caso por medio de
oportunidades de expandirse requerirá de una mejor una VPN, esto depende de la confidencialidad y si
estructura tecnológica que permita mover su negocio con realmente es necesario incluir a la nube dentro de la red
solvencia en el medio ¿Hasta qué punto una compañía privada de la compañía.
está dispuesta a enfrentar el reto de una migración de
sus estructura tecnológica a un modelo de Computación
en Nube? Para conocer esto se deben revisar los aspectos
6. CONCLUSIONES
profundizados en el escenario anterior y adicional, validar
La Computación en nube está teniendo gran acogida en
el impacto de la migración.
todo el mundo, los tres frentes que ofrece (IaaS, PaaS y
De acuerdo a la empresa de consultoría AMI-Partner
SaaS) contemplan las expectativas en todos los enfoques
citada por Richael King, alrededor del 31 por ciento
posibles.
utilizaban a mediados de 2008 los servicios de la
La computación en nube es una oportunidad de mejora
computación en nube. Esta popularidad ha ido creciendo
para cualquier negocio siempre y cuando tenga en cuenta
debido a que las soluciones de TI son fáciles de utilizar y
las recomendaciones dichas dentro de este escrito.
mantener por las empresas que tienen infraestructuras y
La computación en nube ofrece servicios de excelente
presupuestos limitados. King (2006) menciona el caso de
calidad, con grandes capacidades tecnológicas y lo más
una red de 145 hospitales en el Sureste estadounidense
importante, a precios ajustables a los presupuestos de las
que están migrando a soluciones en la nube y que sus
empresas, aunque se debe analizar con cuidado hasta qué
gestiones y relaciones con pacientes, proveedores, los

338
punto la computación en nube es una inversión. Rachael. 2008. Agosto de 2008, businessweek.com.
Es totalmente claro que la gran debilidad de la Klein, Karen E. 2007. The Pros And Cons of Cloud
computación en nube es la seguridad, el control de acceso Computing. BusinessWeek. [Online] Octubre 27, 2007.
y la confidencialidad de la información, es importante [Cited: Noviembre 29, 2009.]
aclarar por medio de algún recurso legal las condiciones http://www.businessweek.com.
de uso y sobre todo tratar el tema de seguridad en detalle. Joyanes Aguilar, L. (2009). La Computación en Nube
En cuanto a la disponibilidad del servicio y el (Cloud Computing): El nuevo paradigma tecnológico
rendimiento de los servicios ofrecidos por la computación para empresas y organizaciones en la Sociedad del
en nube se cuenta con capacidades casi infinitas, la Conocimiento. ICADE. Revista cuatrimestral de las
verdadera ganancia de la computación en nube se Facultades de Derecho y Ciencias Económicas y
encuentra en estos dos aspectos. Empresariales (76), 95-111
El estudio sobre este paradigma es bastante reciente, aún Lewis, Harry. 2008. Enter the Cloud with Caution.
hace falta la maduración de esta nueva tecnología en BusinessWeek. [Online] Agosto 4, 2008. [Cited:
muchos sentidos, pero el trabajo realizado por los grandes Noviembre 11, 2009.] http://www.businessweek.com.
proveedores ha dejado claro que si es viable una Matellón Olivera, Vicente, et al. 1998. El negocio del
masificación de este tipo de modelo tecnológico. software: licencias, derechos y alternativas. Madrid : s.n.,
1998.
―En cualquier caso las empresas deben considerar su Mather, Tim, Kumaraswamy, Subra and Latif, Shahed.
posición en la nube. En los tiempos de crisis que vivimos, 2009. Cloud Security and Privacy: An Enterprise
una empresa puede reducir considerablemente su Perspective on Risks and Compilance. s.l. : O'Reilly,
presupuesto de TI, recurriendo a soluciones en la nube, 2009.
aunque como venimos analizando es preciso considerar Quittner, Jeremy. 2009. How Cloud Computing Can Help
ventajas e inconvenientes y, naturalmente una estimación, Small Businesses. BusinessWeek. [Online] Agosto 7,
de presupuesto antes de tomar la decisión final‖ [10]. 2009. [Cited: Noviembre 29, 2009.]
7. BIBLIOGRAFÍA http://www.businessweek.com.
Scheier, Robert L. 2009. Busting Cloud Computing
Armbrust, Michael, et al. 2009. Above the Clouds: A Myths. BusinessWeek. [Online] Junio 22, 2009. [Cited:
Berkeley View of Cloud Computing. California : s.n., Noviembre 29, 2009.] http://www.businessweek.com.
2009. Schultz, Beth. 2009. Cloud Computing Prons and Cons.
Breeding, Marshall. 2009. The Advance of Computing NetworkWorld. [Online] Mayo 18, 2009. [Cited:
From the Ground to the Cloud. 2009. Noviembre 29, 2009.] http://www.networkworld.com.
Brodkin, Jon. 2008. Loss of customer data spurs closure Sun Microsystems. 2009. Introductio to the cloud
of online storage service 'The Linkup'. NetworkWorld. computing architecture. 2009.
[Online] Noviembre 8, 2008. [Cited: Noviembre 29, TechTarget Networking Media. 2009. How to Prepare
2009.] http://www.networkworld.com. for the Impact of Cloud Computing. EGuide : s.n.,
Distributed Computing Economics. Gray, Jim. 2008. Octubre 19, 2009.
Junio 2008, ACM Queue, pp. 63-68. Torode, Christina. 2009. Risks and Rewards: The CIO
Dzubeck, Frank. 2009. Five cloud computing questions. View. EBook : s.n., 2009. pp. 1-14.
NetworkWorld. [Online] Mayo 8, 2009. [Cited: VMWare. 2009. VMWare Cloud Services Solutions.
Noviembre 29, 2009.] http://www.networkworld. [Online] 2009. http://www.vmware.com/solutions/cloud-
Editorial: Computing in the "Cloud". Truitt, Marc. 2009. services.
2009, Information Technology and libraries, pp. 107-108. —. 2009. VMWare virtualization. VMWare.com.
Gilje Jaatun, Martin, Zhao, Gansen and Rong, Chunming. [Online] 2009. [Cited: 11 28, 2009.]
2009. Cloud Computing: First international Conference. http://www.vmware.com/virtualization/what-is-
s.l. : Springer, 2009. virtualization.htm
How Cloud Computing Is Changing the World. King,

339
340
Interacción digital: El origen del camino

Cristian Andrés Rodríguez Montes


Universidad Pontificia de Salamanca,
Campus de Madrid
Madrid, España, 28220
cristianarm@gmail.com

ABSTRACT 2. PLATO (Programmed Logic


In this paper I intend to do a tour of the big projects that
Automated Teaching Operations)
gave guidelines to achieve better handling and Dos décadas antes de que la World Wide Web llegara a la
intercommunication between the machine and the user, escena, el sistema de PLATO inició foros , tableros de
running the way it evolved the software and hardware, and mensaje en línea, email, salas de chat, mensajería
how simple changes in the source became generating inmediata, pantalla remota compartida, y juegos multi-
functions of large environments much more pleasant, but jugador, llevando a la aparición de quizás la primera
became futures project that generated a new vision of the comunidad en línea del mundo.
industry.
2.1 Origen
Keywords El sistema PLATO fue diseñado para la Educación Basada
PLATO, USENET, MUD, MOO, virtual communities, en Computadores. Pero para mucha gente, PLATO es más
online communities. que un legado duradero, es una comunidad online generada
por las características de las comunicaciones.
RESUMEN PLATO se originó a principios de 1960 en el campus de la
En este documento pretende hacer un recorrido por la Urbana de la Universidad Illinois. El profesor Donald
grandes proyectos que dieron las pautas para logran un Bitzer126 se interesó en el uso de computadoras para la
mejor manejo e intercomunicación entre la maquina y el enseñanza, y con algunos colegas fundaron el Laboratorio
usuario, recorriendo la forma en que evoluciono el software de Investigación para la Educación Basada en
y el hardware, y como cambios simples se convirtieron en Computadores (CERL por sus siglas en ingles). Bitzer, un
el origen de grandes funcionalidades generando ambientes ingeniero eléctrico, colaboró con unos algunos ingenieros
mucho mas agradables y se convirtieron en de futuros para diseñar el hardware PLATO. Para escribir el software
proyecto que generaron un nueva visión mundo del él conto con un equipo de excéntricos creativos en un rango
software. que va desde profesores universitarios hasta estudiantes de
secundaria algunos de los cuales tenían conocimientos en
computadores. Juntos construyeron un sistema que era por
Palabras clave
lo menos adelantado una década antes de su tiempo en
PLATO, USENET, MUD, MOO, comunidades virtuales,
muchos aspectos.
comunidades online.
PLATO es un sistema de tiempo compartido (era de hecho
1. INTRODUCCIÓN uno de los primeros sistemas de tiempo compartido operado
Los grandes proyectos que se dieron con los orígenes por el público.) Pero los autores de los cursos y sus
de la computación y como estos se desarrollaron al ver la estudiantes usaban los mismos gráficos de alta resolución
necesidad de encontrar nuevas formas de interacción con (en esta época 10 caracteres por segundo era la norma) en
diferentes áreas como es la educación, muchas veces fueron las pantallas de las terminales. El sistema PLATO fue
adelantados a su época ofreciendo elementos y facilidades a rediseñado, entre 1963 y 1969, permitiendo a cualquiera
sus miembros. En otros casos encontramos que se
generaron subproductos como es el caso de los juegos
online, las primeras versiones de los chat, el correo 126
Donald Bitzer: obtuvo su licenciatura en 1955, su maestría en
electrónico, entre otros. 1956 y su doctorado en 1960, todos en ingeniería eléctrica,
Es muy importante conocer los orígenes de muchas de todos logrado en la Universidad de Illinois en Urbana-
las tecnologías que conocemos actualmente y que por Champaign (UIUC).eEl más notable inventor de la pantalla de
muchas circunstancias han pasado al olvido. plasma y el legendario padre de PLATO. El sistema informático
PLATO, el primer sistema que combina gráficos y pantallas
sensibles al tacto.

341
diseñar nuevos módulos de enseñanza utilizando su índice de las notas más recientes listando cada una el
lenguaje de programación TUTOR (también conocido número de la nota, la fecha, el título y el número de
como PLATO Author Language), concebido en 1967 por el respuestas y a continuación se podía seleccionar la nota a
estudiante graduado de biología Paul Tenczar. leer o pasarlas a través de un índice de notas anteriores.
Este medio dio lugar para que pudiera ser utilizado más allá
En 1960, el primer sistema, PLATO I, operaba localmente de los informes de los problemas. Por lo tanto se añadió un
en un equipo ILLIAC. Este tenía un televisor como pantalla menú de nivel superior para que la gente pudiese elegir tres
y un teclado especial para navegar por el sistema de menús notesfiles: sin tema y anuncios, notas de ayuda y notas
de función; en 1961, PLATO II contó con dos usuarios a la generales.
vez. PLATO III fue construido sobre un CDC 1604, podría Desde que PLATO fue diseñado, su arquitectura fue
ejecutar simultáneamente hasta 20 lecciones. Cerca de cercada cuidadosamente para mostrarse en pantalla
1972, PLATO comenzó una transición a una nueva completa. Era difícil colocar textos en lugares específicos
generación de mainframes que eventualmente podía de la pantalla, pero casi imposible desplazar el texto. Para
soportar hasta 1000 usuarios simultáneamente. Notes, esto fue una ventaja y un perjuicio. Una
característica interesante es que el título de la nota, la fecha,
la hora y el nombre del autor siempre aparecían en el
mismo lugar. Después de utilizar Notes por un rato, el ojo
ya sabía dónde buscar exactamente las cosas.
La mayoría de las opciones de Notes de lectura necesitaba
sólo pulsar una tecla. Durante la lectura a una respuesta, por
ejemplo al oprimir una tecla podría realizar las siguientes
funciones (entre otras):
Ilustración 1. Mainframe de un control de datos Pasar a la siguiente respuesta
corporativo basado en el sistema PLATO IV. Volver a la respuesta anterior.
http://pnmedia.gamespy.com/classicgaming.gamespy.co Volver a la base de la nota
m/images/oldsite/clusterimages/cybers250.jpg Pasar a la siguiente base en otra
Comenzar a escribir una nueva respuesta.
2.2 Notes
En el verano de 1973, Paul Tenczar pidió a R. David Había muchas opciones también en la lista de submenús en
Woolley que escribiera un programa que permitiera a los cada pantalla, la mayoría eran mensajes mínimos, pero la
usuarios de PLATO reportar errores de sistema en línea. tecla ayuda estaba disponible en cualquier momento para
David Woolley era estudiante universitario y programador mostrar la lista completa de opciones. Notes se convirtió
de sistemas junior y ya había trabajado alrededor de un año rápidamente en una parte indispensable de la pantalla.
con CERL.
PLATO tenía una forma para que los usuarios informaran 2.3 Talkomatic y Term-Talk
de los errores, pero era un texto abierto llamado ―notes‖. Cualquier programador competente de PLATO podía unirse
Cualquiera podía editar el archivo y adicionar comentarios con un sencillo programa de conversación que permitía a
al final de el. Después de investigar el problema, un los usuarios intercambiar mensajes on-line, la arquitectura
programador de sistemas pudo insertar una respuesta (algo de PLATO hacia trivial esto, no muchos programas de este
como "+++Fixed - RWB"). Esto fue bastante simple, pero tipo se tenían antes de 1973 y no tuvieron mucho uso,
generó problemas. Por un lado, sólo una persona podía probablemente porque la comunidad de usuarios era muy
editar el archivo al tiempo y por otre, no había ningún tipo pequeña y la mayoría de terminales estaban en un solo
de seguridad y era imposible saber con certeza quién había edificio.
escrito una nota. La mayoría de las personas colocaban En el otoño de 1933, Doug Brown diseñó un programa que
firmas o al menos sus iníciales a los comentarios. permitía a varios usuarios conversar como si fueran un
Había que realizar un refinamiento al problema existente, grupo, escribió un simple prototipo para demostrar el
un usuario escribía el informe de un problema y concepto y lo llamó Talkomatic.
automáticamente se marcaba con la fecha y el identificador La verdadera magia de Talkomatic era que trasmitía los
del usuario y se almacena de forma segura. El mismo caracteres instantáneamente, estos eran visualizados en
programa permitía una visión conveniente de las notas lugar de esperar a completar la línea de texto. La pantalla se
almacenadas. Cada uno de ellos aparecía en una pantalla dividía en varias ventanas horizontales una para cada
dividida con los usuarios de la nota sobre la mitad superior participante. Esto permitía que todos los participantes
y la respuesta en la parte de abajo. El primer prototipo visualizaran a la vez sin que sus mensajes se convirtieran en
mantenía todas las notas en un archivo, la entrada era un una mezcla confusa. Ver los mensajes aparecer tan pronto

342
eran digitados hacía sentir la conversación mucho más viva individuales pero los más populares son los que involucran
que los programas de conversación línea a línea. dos o más jugadores en terminales separadas. Los juegos no
Un canal activo podía ser abierto por cualquiera, pero fueron ciertamente una prioridad en PLATO cuando fue
cualquier participante en un canal activo podía seleccionar diseñado, pero la arquitectura soportaba juegos multi-
protegerlo. Esto permitía que cualquiera monitoreara el jugador de forma excelente. Las principales características:
canal, y que los participantes decidieran a quién admitir. Áreas de memoria compartida
Talkomatic fue un éxito instantáneo, no era oficialmente Terminales estandarizadas
parte del software de PLATO, no había una forma de Gráficos de alta resolución en la pantalla
contactarse con una persona específica para poder saber de Procesamiento central por cada tecla
qué quería hablar la gente, podía unirse un canal y hablar Respuesta rápidamente
con el que estuviera conectado. Capacidad de abortar la salida pantalla
Pero Talkomatic fue tan atractivo que inspiró al personal
del sistema para crear soporte oficial para esta característica Rick Blomme escribió el primer juego para 2 jugadores
y se hizo conocido como ―Term-talk‖ porque podía ser basado en PLATO en 1960 una versión simple de
accedido por cualquiera en PLATO presionando la tecla Spacewar de MIT. Posiblemente el juego más popular de
TERM y digitando ―talk‖. PLATO en la historia es avatar, una variación del juego de
Una conversación ―term-Talk‖ estaba limitada a dos calabozos y dragones. Empire, es un juego multi-jugador
personas, pero eso tenía sus ventajas, se podía hablar con basado en Star Trek, fue también uno de los favoritos.
una persona específica y se podía utilizar sin necesidad de Otros juegos van desde Airfight (simulador de vuelo),
salir de lo que estaba haciendo. Una persona recibía un Wordwar (un juego de velocidad digitado y ortografía) y
mensaje de parpadeo en la parte inferior de la pantalla con hasta juegos de cartas como Contract bridge. La mayoría de
la identificación de la persona y podía utilizar ―term-Talk‖ los juegos fueron escritos por programadores no pagos y la
para aceptar, las dos últimas líneas de la pantalla se única recompensa que recibían era el prestigio de haber
convirtieron en una miniatura de Talkomatic. Si llamaba escrito un juego popular. Algunos autores ahora reciben
una persona no deseada podría ser rechazada usando ―term- regalías, pero ascienden sólo a unos centavos por hora, los
busy‖ o simplemente ignorándola. cuales son divididos entre un gran número de coautores.
Una característica se adicionó después a ―term-Talk‖ que Una gran serie de juegos que se originaron en PLATO, han
permitía a los participantes pasarse modo monitor, en el sido recreados comercialmente en salas de video juegos o
cual una persona podía ver la pantalla de otro. en computadoras personales.

2.4 Notas personales


Con Notes y ―term-Talk‖ en su lugar, comenzó a verse
natural el uso de PLATO como un medio de comunicación.
Lo que era evidente era que faltaba la forma de enviar un
correo privado, po lo que Kim Mast abordó este trabajo, y
en agosto de 1974 Personal Notes fue lanzado.
Personal Notes fue similar en muchas cosas: cada nota
aparecía en una pantalla aparte y las opciones como
moverse a la siguiente, anterior, borrar y responder nota,
estaban disponibles con solo presionar unas teclas. Más
tarde se integraron todas las funciones de comunicación en
un paquete en el cual permitía realizar operaciones mientras
leía una nota tales como:
Realizar una copia de un notesfile
Reenviar a alguien una nota personal
Iniciar un ―term-talk‖ con el autor
Enviar una nota personal al autor

Todas estas opciones quedaron disponibles para Notes y


Personal Notes al mismo tiempo con la misma combinación Ilustración 2. PLATO V Terminal with plasma display
de teclas. 1981.
http://en.wikipedia.org/wiki/File:Platovterm1981.jpg
2.5 Juegos multi-jugador
Hay miles de juegos sobre PLATO algunos son

343
2.6 Comunidad online variedad de parches, los más notorios han sido para mejorar
El sentido de comunidad online comenzó a surgir en el rendimiento. En los sitios con un gran número de grupos
PLATO entre 1973 y 1974 (cuando Notes, Talkomatik, el manejo del reenvío y recepción de las noticias hacia otros
―term-talk‖ y Personal Notes se introdujeron rápidamente a clientes era una función muy importante. Las adiciones para
la comunidad) y estuvo creciendo con a las adhesiones a la mejorar el desempeño consistían en adicionar un demonio
estructura del software en relación a los juegos multi- el cual corría en background. Las mejoras de desempeño en
jugador y como alternativa de comunicación online. Uno la versión C News son comúnmente incluidas en las más
de estos programas fue Pad, un boletín online donde la comunes versiones de Linux.
gente podía publicar graffitis o reflexiones, otro fue Las redes UUCP fueron usadas principalmente en
Newsreport un periódico de noticias, publicado todas las versiones C, pero podían ser usada en otros
periódicamente por Bruce Parrello, también conocido como ambientes. Para mejorar la eficiencia de transmisión se
Red Sweater. decidió utilizar redes TCP/IP o DECNet las cuales
La comunidad inicial de PLATO se concentró en Illinois y requerían nuevas características. En 1986, es introducido
consistió principalmente en personas del mundo académico: Network News Transfer Protocol (NNTP). Éste se basa en
educadores brillantes, más tarde creció para incluir a gente unas conexiones de red y una serie de comandos específicos
de negocios de gobierno y militares. También creció para interactuar en la transferencia y recepción de artículos.
geográficamente, a través de Estados Unidos y alrededor Existe un gran número de aplicaciones basadas en
del mundo. NNTP disponibles en Internet. Una de ellas es el paquete
La comunidad de PLATO a medida que fue creciendo se le NNTP creado por Brian Barber and Phil Lapsley, el cual se
presentaron los problemas conocidos de las comunidades puede utilizar para proporcionar servicio de lectores de
online, como hombres hacerse pasar por mujeres y noticias a un gran número de clientes ubicados en una red
problemas con la libertad de expresión se convirtieron en local. El NNTP fue diseñado como complemento de nuevos
una regla general que en algunos casos llegaron a poner en paquetes, como son B News o C News para aprovechar las
peligro el proyecto. nuevas características de NNTP.
Un paquete alternativo soportado por NNTP es INN
(InterNet News). Éste funciona con un sofisticado demonio
3. USENET (USER NETwork) que mantiene varias conexiones de manera concurrente y
3.1 Historia de Usenet eficiente con NNTP, esta es una de las opciones para los
La idea de crear una red de noticias nació en 1979 servidores de noticias de los sitios de Internet.
cuando dos estudiantes graduados de la Universidad de Usenet (o USER NETwork) es un sistema de discusión
Duke, Tom Truscott y Jim Ellis, pensaron usar UUCP127 distribuido alrededor del mundo, que proviene de Usenix
para conectar máquinas y así realizar intercambio de Network (UNIX Users Network). Fue concebido por la
información entre usuarios de Unix. Ellos configuraron una Universidad de Duke por los estudiantes Tom Truscott y
pequeña red de tres máquinas en Carolina del Norte. Jim Ellis en 1979, otros estudiantes en University of North
Inicialmente, el tráfico fue manejado por un número de Carolina escribieron el primer lector de noticias en 1980.
scripts (después reescritos en C), pero nunca sacaron una En 1981, un estudiante en Berkeley escribió otra versión
versión al público. Estos fueron rápidamente reemplazados del software de Usenet, esta versión del software de Usenet
por "A News", la primera versión pública del software de fue actualizada a mediados de 1986 y la mayoría de los
noticias. ―A News‖ fue diseñado para manejar unos pocos cambios fueron para la nueva estructura de nombres de los
artículos por grupo y día. Cuando el volumen continuó grupos de noticias, y ambientes de control para los
ampliándose, éste fue reescrito por Mark Horton y Matt mensajes que se tienen y los que hace envíos, y otras
Glickman, quienes lo llamaron versión "B" (B News). La funcionalidades. Como la red iba creciendo, el back-end de
primera versión pública de B News fue la versión 2.1 en Usenet también tuvo que ser aumentado y en 1986 se creó
1982. Esta se fue ampliando continuamente, con nuevas NNTP (Network News Transfer Protocol), esto ayudó para
características adicionadas. el intercambio de los artículos entre diferentes proveedores
En 1987 B News fue reescrita y lanzada una nueva de Usenet. NNTP fue el primer software back-end usado
versión por Geoff Collyer y Henry Spencer; la versión "C" por los proveedores de Usenet. Más adelante fue creada una
o C News. Desde esta versión se ha encontrado una gran alternativa llamada INN, o Internet News. INN no es un
back-end, sino que es un sistema completo de noticias por
derecho propio que contiene un demonio de noticias que
127
UUCP (Unix to Unix Communication Protocol): puede mantener muchas conexiones NNTP al mismo
Protocolo de Comunicaciones de Unix a Unix). Protocolo tiempo.
que utilizan los sistemas UNIX para comunicarse entre
ellos. Permite comunicar dos computadoras para enviarse
entre sí archivos

344
3.2 En qué consiste USENET f/f4/Usenet_servers_and_clients.svg/245px-
Consiste en un grupo de noticias (newsgroups) cuyos Usenet_servers_and_clients.svg.png
elementos son clasificados jerárquicamente por el sujeto.
Los "artículos" o "mensajes" son publicados en esos grupos 3.3 Conceptos errados de Usenet
de noticias por personas con un software apropiado, estos Es bueno tener en cuenta que Usenet ha generado una serie
artículos son distribuidos a otros sistemas interconectados de ideas y conceptos equivocados que vale la pena aclarar
por medio de una variedad de redes. Algunos grupos de con las siguientes pautas:
noticias son moderados y en esos grupos los artículos son Usenet no es una organización
primero enviados a un moderador para su aprobación antes Ninguna persona o grupo tiene autoridad sobre Usenet en
de ser adicionados a los grupos de noticias. su totalidad. Nadie controla a quien obtiene las noticias,
Para no entrar en confusión es preciso mostrar cómo quien publica los artículos, o cualquier otra situación. No
son constituidos los grupos de noticias en Usenet: existe "corporación Usenet" al igual que ningun "grupo de
Los grupos de noticias comúnmente publicados "lista usuarios de Usenet".
del grupo de noticias activos" se encuentran comúnmente Usenet no es una democracia
en news.lists.misc y en otros grupos. Usenet no es una persona o grupo, por lo tanto no se puede
También se pueden encontrar grupos en Usenet que decir que Usenet tiene un gobierno, por lo tanto Usenet no
son como "jerarquías alternativas de grupos de noticias" puede ser una democracia, autocracia o cualquier otra cosa
(comúnmente publicados en news.lists.misc). parecida.
Al igual que también se pueden encontrar grupos de Usenet no es imparcial
noticias que están restringidos para regiones específicas o Después de todo, ¿quién puede decir que es imparcial? si
para organizaciones. alguien se está comportando en forma imparcial ¿quién va a
Cada sitio en Usenet toma sus propias decisiones detenerlo?.
acerca de si los grupos están disponibles para sus usuarios, Usenet no es correcto
esto varía de sitio a sitio. Algunas personas no entienden el derecho de "libertad de
Usenet está disponible por medio de una amplia expresión", esto significa para ellos poder usar
variedad de sistemas y redes pero el tráfico moderno de un computadoras para decir lo que quieran, y tener la razón.
Usenet se hace por medio de Internet o UUCP (Unix to Esas personas están erradas. Libertad de expresión no
Unix Copy), este es un servicio al cual se puede acceder significa tener libertad para hablar.
desde Internet usando el protocolo NNTP sobre TCP, Usenet no es un utilidad pública
aunque también se puede acceder a él por medio de otros Algunos sitios de Usenet son fundaciones públicas o
sistemas, un ejemplo de esto es BBSs. Todos los usuarios subsidiadas. No hay monopolio de gobierno en USENET, y
pueden leer o enviar mensajes a distintos grupos de noticias poco o nada de control de gobierno.
ordenados de forma jerárquica. Usenet no es una red académica
No es ninguna sorpresa que muchos sitios del USENET son
universidades, laboratorios de investigación o instituciones
académicas. Originalmente la antigua URSS anexó un
vínculo entre dos universidades para el intercambio de
ideas e información que surgían entre las instituciones. Pero
con el paso de los años cambió el carácter de Usenet y hoy
en día la mayoría de los sitios de Usenet son entidades
comerciales.
Usenet no es un medio de publicidad
Dado que Usenet tiene sus raíces en la academia, y depende
fuertemente de la cooperación, dicta que la publicidad debe
ser mínima, es tolerada si es poco frecuente, informativa y
de bajo nivel.
El grupo de noticias "comp.newprod" no es una excepción
a la regla: los anuncios de productos son mostrados pero
con un moderador que los mantiene en un bajo nivel bajo su
supervisión.
Usenet no es Internet
Internet es una red de alto rango, y algunas partes son
Ilustración 3. Diagrama de unos servidores y clientes de subsidiadas por varios gobiernos. Esto involucra varios
USENET. aspectos de tráfico, de los cuales y Usenet es sólo uno e
http://upload.wikimedia.org/wikipedia/commons/thumb/

345
Internet es sólo una de las varias redes por las cuales juegos se accede generalmente mediante una conexión vía
Usenet transita. telnet entre cliente, la máquina del jugador que se quiere
Usenet no es una red UUCP conectar y el propio servidor. Para poder acceder al MUD
UUCP es un protocolo (actualmente es un conjunto de no es necesario disponer de aplicaciones específicas,
protocolos) para enviar datos de a conexiones punto a pudiendo emplearse terminales básicos ya instalados que
punto, típicamente usada para módems. Los sitios que usan soporten el protocolo telnet, como los que se pueden
UUCP involucran varios aspectos de tráfico, de los cuales encontrar en las distribuciones de los sistemas operativos o
y Usenet es sólo uno. UUCP es sólo una de las varias redes usando software diseñado exclusivamente para esta clase de
por las cuales Usenet transita. juegos, tales como zmud, gmud, tintin++, etc.
Usenet no es una red Unix La primera versión de MUD (V.1) salió a la luz en 1978 y
No se debe asumir que todas las personas usan una era un prototipo, el cual fue escrito por el estudiante de la
máquina Unix. Sin embargo la mayoría de los elementos universidad de Essex (Reino Unido) Roy Trubshaw, sobre
usados para leer y publicar en Usenet vienen de diferentes un DEC PDP-10 usando el lenguaje de programación
sistemas. MACRO-10. La memoria utilizada por el juego era
demasiada elevada para aquella máquina (50K como
3.4 De que no se responsabiliza Usenet máximo) así que desistió y dejó suspendido el proyecto
Usenet tiene como nota aclaratoria que no responde por hasta 1979. La segunda versión (V.2) estaba escrita en
ninguna de las actividades que realicen sus usuarios: lenguaje assembler, y en ella se podían crear objetos
Usenet.com no controla los grupos de noticias en Usenet. dinámicamente, pero como resultaba muy tediosa de
No creamos el grupo de noticias o los grupos de noticias en mantener, fue reescrito en BCPL. La versión 3 (V.3) se hizo
Usenet. Cada grupo de noticias que se crea es pública en 1980 y ya estaba construida con el concepto de
responsabilidad única de la persona que la creó. No ser un juego, después que Richard Bartle entró en el
controlamos qué gente pública en Usenet. Nuestros proyecto y se encargó de todo después que Roy salió de la
servidores se clasifican como una ―red transitoria.‖ El universidad. Richard se encontró con un aplicación en
nombre del nombre del grupo de noticias de por sí no donde varios usuarios podían comunicarse y de lo que se
significa que se publicara en el grupo de noticias al cual encargo fue de a finalizar las librerías necesarias para le
corresponde el nombre del grupo. ejecución de MUD. Después de esto se puso a disposición
de otros estudiantes de la institución, a esta versión se le
llamó MUD1 porque la mayoría de la gente con esta
3.5 Clasificación de los grupos de noticias versión era con la que jugaba, a pesar de no ser la primera
Los grupos de noticias se clasifican de acuerdo a un versión.
agrupamiento conocido como jerarquía. Por lo general estas Consistía en que un usuario tomaba control del avatar o
jerarquías prestan una valiosa ayuda para localizar los caracter conocido con el nombre de PJ o personaje jugado.
foros, de esta manera, existen grupos de usuarios sobre la Para lo cual debía crear una ficha que se rellenaría
gran mayoría de las disciplinas técnicas, lúdicas, científicas, mediante la obtención de puntuaciones en tiradas virtuales
que se pueda imaginar. Para una idea de la gran diversidad, sobre las estadísticas básicas del PJ, tales como fuerza,
algunas de estas categorías son: destreza, inteligencia, carisma, sabiduría y constitución. Se
biz. Temas relacionados con los negocios podía caminar por los alrededores hablar con otros
sci. Temas científicos caracteres explotar áreas peligrosas llenas de monstruos,
rec. Pasatiempos y recreación resolver acertijos, disfrutar su propia variedad de salas,
comp. Temas de Computadoras descriptores y elementos.
soc. Temas culturales y sociales que al conformarlos en
combinaciones tenemos: En su mayoría los MUDs proporcionaban un modo de
rec.arts.movies temas de cine juego alfanumérico, lo cual implicaba que el jugador
rec.music.bluenotes jazz y blues recibía toda la información por parte del servidor en modo
misc.fitness temas de ejercicios físicos, aeróbicos texto. Esta información se obtenía al ejecutar alguna acción
sci.archaeology ciencias y arqueología dentro del juego y estaba representada básicamente por
soc.culture.germany historia y cultura alemana descripciones de la sala (room) donde se encontraba el
jugador, de objetos, del inventario, de la ficha, del estado
4. MUD (Multi-User Dungeons) del personaje, etc. Tal como un Master crearía la
ambientación en un juego de rol.
4.1 Origen El jugador interactuaba con el mundo y los NPCs o PNJs
MUD Es un programa de computadora en el cual los (Non Playing Characters o mobs, todos aquellos personajes
usuarios pueden entrar y explorar, es un juego de rol en no controlados por el jugador, aunque existían algunas
línea que es ejecutado en un servidor. A esta clase de excepciones como es el caso de criaturas invocadas por los

346
propios jugadores) mediante el uso de comando tales como octubre de 1990.
atacar, caminar, obtener, mirar, considerar y los propios de Según Jill Serpentelli en el paper ―Conversational Structure
cada raza, gremio, clan, cofradía u orden. Lo que se and Personality Correlates of Electronic Communication‖:
buscaba era hacer crecer al personaje mediante la Curtis explica cómo fue la transición de AlphaMOO a
consecución de puntos de experiencia que definían el LambdaMOO. Después de corregir bugs en el sistema,
avance entre los distintos niveles a los que podía llegar un reescribiendo algo del código, agregando más capacidad de
jugador con su PJ. Estos puntos de experiencia solían programación, y escribiendo la documentación, él había
conseguirse al eliminar NPCs o realizar aventuras (también creado lo que él llamó ―una entidad verdaderamente
conocidas con su notación inglesa: quests). Avanzar de separada‖ del AlphaMOO original. Él tradujo este nuevo
nivel suponía muchas veces obtener mejoras para el sistema LambdaMOO, después de uno de sus nombres en el
personaje tales como aumento de la vida total, vigor y maná sistema y, según Curtis, ―porque es una palabra clave en
del mismo. Aprender nuevas habilidades que se traducían algo en otra investigación no MUD que realizo.‖ El nuevo
en comandos nuevos o hechizos, mejorar el ataque y la sistema fue anunciado como abierto para el acceso público
defensa del personaje, etc (esto variaba dependiendo del en USENET (un Sistema de publicación de boletines
MUD al que se conectara el jugador). Alcanzar niveles mundial) en febrero de 1991 (Curtis, comunicación
altos de experiencia implicaba a su vez mejorar en equipo y personal).
riqueza. El MOO fue desarrollado originalmente como un servidor
de MUD con el mismo estilo general (comparte mucha de
4.2 ¿Cuáles son los diferentes tipos de las de sintaxis de los comandos y convenciones de la
comunidad) como TinyMUD. Hay actualmente dos
MUD que encontramos? distribuciones del código del servidor del MOO, la más
Se pueden encontrar diferentes tipos de MUD. La familia popular es el LambdaMOO.
de MUD Tiny y Teeny eran normalmente con una La versión LambdaMOO de MOO que ganó renombre a
orientación más social; los jugadores de estos MUD principios de los 90, sigue siendo la distribución más
tendían a agruparse, realizar chats, encontrar amigos, ampliamente utilizada de MOO. Pavel Curtis continuó
hacerse bromas, y discutir sobre diferentes temas. manteniendo el servidor por varios años. Otros
La familia de MUDs PL, incluyendo Diku y AberMUD, colaboradores tempranos al servidor de LambdaMOO
estaban usualmente basados en juegos de aventura de estilo incluyeron a usuarios como Tim Allen (―Gemba‖),
roleplay; los jugadores daban vueltas en grupo o de forma ―Gary_Severn‖, equipo de Roger (―Rog‖), Judy Anderson
individual matando monstruos, resolviendo acertijos, y (―yduJ‖), y Erik Ostrom (conocido como ―Joe Feedback‖).
ganando experiencia en la búsqueda para convertirse en Más adelante, Erik Ostrom mantuvo el servidor, y el
magos. servidor ahora es mantenido por Ben Jackson y Jay Carlson
Todavía hay otros tipos de MUDs, tales como MOOs y y tiene un proyecto de LambdaMOO en SourceForge.net.
UnterMUDs. Cada tipo tiene su propio estilo único, y En el 2005, el servidor de GammaMOO se bifurcó de
fuerzan a los jugadores raramente a pegarse a un tipo de LambdaMOO con la meta de ser una tierra de prueba para
juego - no hay regla que diga que un LPMUD debe ser un las nuevas características no cualificadas, aun para la
combate orientado MUD, o que un TyniMUD debe ser un inclusión en la distribución principal del MOO (que tiene
combate orientado MUD. estándares muy terminantes para cualquier cambio). Puede
ser considerado como el equivalente de una ―rama del
5. MOO (MUD Object Oriented) desarrollo‖ que la mayoría de los proyectos tienen.
5.1 Origen
El MOO, junto con todos sus símiles, comenzó con los 6. CONCLUSIONES
juegos aventura basados texto. Con la llegada de la Podemos identificar claramente que PLATO fue la
Internet, el MUD fue formado como versión en red de uno cuna de los grandes desarrollos de los cuales podemos
de esos juegos. Se convirtió eventualmente en un árbol de resaltar:
diversos tipos de MUD, MOO se convierte en uno de ellos. En 1972 cuando PLATO IV salió al mercado incluía
Stephen White (también conocido como ―Ghondahrl‖ y una pantalla de plasma que tenía funciones de panel táctil,
―ghond‖) escribió la primera versión del servidor de MOO, además de ofrecer funcionalidades para conectarle
que fue lanzado el 2 de mayo de 1990 y utilizado para la dispositivos periféricos. Mucha de la tecnología usada en
operación de un servidor que llamó ―AlphaMOO‖. Pavel PLATO fue la base de numerosas aplicaciones de Xerox
Curtis, empleado de Xerox PARC y también conocido PARC.
como ―lambda‖, y ―Haakon‖ tomó el diseño, el lenguaje y En 1973 sale PLATO Notes, que se convierte unos años
el código, corrigió bugs y agregó características para mas tarde en el padre Lotus Notes.
lanzar la primera versión, llamada ―LambdaMOO‖ el 30 de En 1976 las herramientas de comunicación online,

347
marcaron la pauta de grandes inventos de la actualidad
como lo son Persona Notes (que se convertirá en el correo 7. REFERENCIAS
electrónico), Talkomatic (ahora conocidas como salas de [1] Serpentelli, J. 1992. Conversational Structure and
chat), Term-Talk (mensajería instantánea), Monitor Mode Personality Correlates of Electronic Communication.
(Compartir escritorio remoto) y los tan conocidos [2] Hauben, M, Hauben, R, and Truscott, T. 1997 Netizens
emoticonos. : On the History and Impact of Usenet and the Internet
De los juegos multi-jugador se pueden resaltar: (Perspectives). Wiley-IEEE Computer Society P. ISBN
Empire (basado en Star Trek), 0-8186-7706-6.
AirFight (precursor de Microsoft Flight Simulator), [3] Olaf. Kirch, Terry. Dawson. Colaborador Terry
Panther (similar al BattleZone de Atari), Dawson, 2000. O'Reilly.ISBN 1565924002
El original FreeCell [4] Pfaffenberger, B. 1994. The USENET Book: Finding,
Una gran variedad de juegos de rol inspirados en calabozos Using, and Surviving Newsgroups on the Internet.
y dragones. Addison Wesley. ISBN 0-201-40978-X.
Cabe resaltar que muchos de los juegos tipo MUD y MOO, [5] Quarterman, John S. 1989. The Matrix: Computer
funcionaron sobre PLATO como sistema base. Networks and Conferencing Systems Worldwide,
Los lineamientos de USENET, una red que permitió crear Digital Press; 2 Sub edition.
grupos de noticias y dar las pautas de comportamiento y [6] Rittner, D. 1997. Rittner's Field Guide to Usenet. MNS
divulgación de información por medio de grupos de interés, Publishing. ISBN 0-937666-50-5.
son los que actualmente se siguen en cuanto a grupos de [7] Smith and Sherwood, 1976, particularly the section
noticias entitled PLATO as a Communication Medium
Es importante resaltar que estos proyectos continúan [8] Turkle, S. 1997. Life on the Screen: Identity in the Age
funcionando algunos con los mismos nombres como es el of the Internet. ISBN 0-684-80353-4
caso de usenet.com, hay una gran variedad de proyectos [9] Woolley, D. 1994. PLATO: The Emergence of Online
basados en MUD y MOO como Aardwolf, The World Of Community.
Achaea, etc, adicionalmente PLATO ha sufrido una gran
variedad de transformaciones pero en la actualidad se le
encuentra como PLATO Learning.

348
BPM y la calidad del software.

Juan José Camargo Vega Luis Joyanes Aguilar


Facultad de Ingeniería, Universidad
Pedagógica y Tecnológica de Colombia Facultad de Informática, Universidad
Doctorando en Informática - Universidad Pontificia de Salamanca,
Pontificia de Salamanca – Madrid – España. Campus de Madrid, 28080 Madrid – España
jjcamargovega@yahoo.com luis.joyanes@upsam.net

349
RESUMEN 1.1 Definición de BPM
Este artículo se refiere a BPM (Business Process BPM [21] ―es el conjunto de servicios y herramientas que
Management), y la calidad en el desarrollo del software. facilitan la administración de procesos de negocio. Por
En el caso de BPM, se presentan los conceptos básicos administración de procesos entendemos: análisis,
iniciando con los fundamentos, definición, benéficos, definición, ejecución, monitoreo, y control de los
funciones, estándares, la arquitectura, workflow, procesos‖.
metodología y el ciclo de vida necesaria, para la Business Process Management (BPM) [13] ―es la
implementación de BPM. Y sobre la calidad desde metodología empresarial cuyo objetivo es mejorar la
presentar su estado del arte y fundamentos teóricos, de eficiencia a través de la gestión sistemática de los
igual forma se muestra los diferentes modelos de calidad procesos de negocio, que se deben modelar, automatizar,
desarrollados por varios autores, tales como: McCall, integrar, monitorizar y optimizar de forma continua‖.
Boehm Barry, Arthur Jay Lowell, Gilb Tom, Dromey [9] ―Es una disciplina que combina capacidades de
Geoff, FURPS, Barbacci Mario, ISO/IEC 9126, y Basili software y expertise (mejores prácticas, métricas,
Víctor (GQM). metodologías, lógica de negocios, políticas corporativas,
servicios) para acelerar procesos de negocio y facilitar la
Palabras clave innovación empresarial. Dicho en otras palabras es la
BPM, definición de BPM, beneficios de BPM, funciones categoría de software que integra el contenido, las
de BPM, arquitecturas de BPM, calidad, modelos de aplicaciones informáticas, y la gente de forma coordinada
calidad. a través de procesos de negocio automatizados y en
mejora continua‖.
ABSTRACT ―BPM es una disciplina de gestión que combina una
This article refers to BPM (Business Process visión centrada en procesos y de integración de
Management), and quality in software development. In the funcionalidades que pretende mejorar la efectividad de las
case of BPM, we present the basic concepts starting with organizaciones‖ [19].
the basics, definition, benefits, functions, standards, BPM ―es un enfoque sistemático a la gestión y la mejora
architecture, workflow, methodology and life cycle de la organización empresarial con la participación activa,
necessary to implement BPM. And the quality from gestión coordinada de todos los aspectos, la
present state of art and its theoretical foundations, especificación, diseño, implementación, operación,
likewise shows the various quality models developed by medición, el análisis y la optimización de los procesos de
several authors, such as: McCall, Barry Boehm, Lowell negocio en a fin de entregar de manera eficaz y eficiente
Jay Arthur, Tom Gilb, Geoff Dromey, FURPS, Barbacci los objetivos empresariales ‖ [12].
Mario ISO / IEC 9126, and Victor Basili (GQM).
1.2 Beneficios de BPM
Keywords Al inicio del estudio de viabilidad de implantar un BPM,
BPM, definition of BPM, the benefits of BPM, BPM es muy seguro llegar a encontrar que en la empresa
features, architectures for BPM, quality, quality models. existen algunos procesos que se pueden mejorar o sustituir
o eliminar, o en el mejor de los casos aquellos que hoy
1. INTRODUCCIÓN existen manuales se puedan automatizar, de manera que se
En el presente trabajo de investigación se presenta en su oprtimice y se preste un mejor servicio al cliente. Estos y
primera parte una descripción de la investigación, donde muchos más se consideran beneficios de BPM en la
se plasman los lineamientos primarios de BPM y la empresa, tal como lo menciona Michael Havey en [15].
segunda sobre la calidad del software, para abordar el En un proceso pueden existir varias actividades, las cuales
desarrollo del trabajo. en dado momento pueden resultar inactivas, pero se puede
Se hacer referencia a BPM, desde el estado de arte, notar como una ventaja el uso de BPM, que esas
pasando por sus fundamentos, definición, benéficos, y actividades nunca volverán a permanecer inactivas en el
funciones. Mientras que en quinta, de muestra el estado tiempo, esto debido a que con el software de BPM, se
del arte, estándares, arquitectura, workflow, y su ciclo de impulsa el flujo de procesos. De igual forma sucede con
vida. algunas actividades que de manera simultánea pueden
La segunda parte del artículo muestra algunas trabajar, buscando el ahorro en los tiempos de respuesta
experiencias, modelos, y los diferentes criterios de varios hacia el usuario.
autores respecto a la calidad del software. Es muy posible con BPM, incrementar la productividad,
El presente documento finaliza con una serie de es decir, que ayuda a realizar los trabajos más
conclusiones sobre lo hallado en la investigación. rápidamente y con menos mano de obra, lo cual significa
disminución de costos para las empresas. En una entidad
de servicios financieros se pudo disminuir en un 66% el

351
personal, en una compañía de seguros, se pudo disminuir entender por BPM. Es decir, es necesario hallar un
el personal en un 40%. BPM ayuda en la disminución del patrocinador de BPM, que esté dispuesto desde el inicio
tiempo de procesamiento y aumenta la satisfacción del hasta el final del proyecto, con esto se busca un
cliente. Es decir, en estos casos se puede incrementar la compromiso para poder realizar el cambio organizacional
prestación de servicios o dicho de otra forma, aumentar la en el empresa y debe ser parte de un comité organizado
productividad empresarial y disminuir el personal, como para implantar BPM.
beneficio de BPM. Jefe de Gestión de Procesos de Negocio. Es una persona
Toda empresa tiene en su interior unas normas o que debe supervisar y gestionar los procesos y
reglamento de trabajo, donde se plasman las reglas o actividades. Debe tener experiencia en BPM y ser
condiciones para que las personas las cumplan al pie de la aceptado en la empresa. Además, debe conocer en detalle
letra, de esta forma las empresa puede lograr su misión y todos y cada uno de los procesos, tener poder de
sus objetivos con mayor facilidad. Pero con la ayuda de negociación y excelente capacidad para comunicarse con
BPM, es posible lograr una auditoria en la empresa, de los demás de la empresa.
manera que se puede implementar controles de Comité Directivo de BPM. Conformado por un grupo de
cumplimiento. Es decir, en este caso se simplifica el personas responsables de establecer, supervisar y dirigir la
cumplimiento de las normas. estrategia de BPM, en la empresa. Este comité estará
Cuando se implementa BPM en una empresa se tienen presidido por el jefe de gestión de procesos de negocio y
algunos beneficios como: reducción de costos, por el patrocinador de BPM.
mejoramiento en el servicio al cliente, respuesta rápida Experto en Procesos de Negocios. Se encarga de la
ante cambios en el mercado, mejoramiento en la gestión de procesos internos en la empresa. Se encarga de
administración, control y visibilidad en los procesos de la divulgar la metodológia y conocimiento de BPM.
empresa [9]. Centro de competencia de BPM. Esta oficina está dirigida
Para Asentti en [3], los beneficios de BPM, son varios por el Jefe de Gestión de Procesos de Negocio, y esta
tales como: ―Mejor desempeño en las actividades, compuesta por expertos de procesos de negocios de la
Procesos más eficientes, Estandarización de los procesos, empresa. Se encarga de algunas tareas como: Definición
Incremento de las ganancias, Agilidad de mejora de los de la estrategia de BPM. Gestionar y coordinar todas las
procesos del negocio, Ayuda a automatizar actividades de BPM. Selección y apoyar la organización
proactivamente todos los procesos del negocio, de la herramienta de BPM. Operación de los procesos y
Administradores de negocio pueden medir, responder y métodos de herramientas. Diseñar y organizar la
controlar de manera más directa todos los elementos de arquitectura de procesos de negocios. Proporcionar la
sus procesos operativos, Responder con más eficiencia a formación y entrenamiento en BPM. Apoyar los proyectos
los cambios y retos continuos con respecto a las metas y de BPM en la empresa. Comunicación interna y
objetivos del negocio, Proporciona transparencia en comercialización de BPM, de ser necesario.
tiempo real de los procesos para ser medidos y saber que 1.4 Arquitecturas para BPM
procesos son críticos para el negocio, Facilita a los Respecto a las arquitecturas de procesos de negocio, se
tomadores de decisiones el control sobre los cambios, inicia con (Workflow Management Architectures),
reglas y políticas que gobiernan el comportamiento de los arquitecturas de Gestión de flujo de trabajo. El flujo de
procesos, Incrementar la productividad de los empleados trabajo se diseña usando una herramienta de modelado
y reducir costos operacionales, Incrementar la agilidad de gráfico de flujo de trabajo. Este modelo de flujo de
la organización para realizar cambios de manera más trabajo, es el mismo modelo para los procesos de negocio.
Eficiente‖. En este modelo lo importante es el tiempo cuando se
1.3 Funciones de BPM construye y ejecuta. La arquitectura maneja unos
BPM parte de unas fases o tareas necesarias para tal fin. subsistemas, como: El subsistema de modelos de flujo de
Como lo menciona Davis & Brabänder en [12], se debe trabajo, encargado de proporcionar los medios para
tener en cuenta las fases: Fase de estrategia del proceso, modelar los aspectos de los procesos de negocio. Los
donde se define la organización de la estrategia de BPM. modelos de flujo de trabajo, se almacenan en un
Fase de diseño del proceso, aquí se establece la forma repositorio o base de datos, es decir, allí están contenidos
para normalizar la BPM. Fase de aplicación del proceso, los demás flujos de trabajo de toda la empresa. Existe otro
en esta fase se precisa la aplicación de BPM en la subsistema llamado, motor de flujo de trabajo, quien
empresa. Fase de Control del proceso, se realiza la responde por la promulgación de procesos de flujo de
revisión y se busca la optimización de BPM. trabajo. Cuando se presenta una actividad diaria en la
Patrocinio de BPM. Antes de iniciar cualquier empresa, el motor de flujo de trabajo crea una nueva tarea
compromiso en BPM, es necesario tener un compromiso de flujo de trabajo basado en el modelo de flujo de trabajo
de la alta dirección de la empresa, con lo que se debe que se acaba de definir.

352
Arquitectura WfMC (Workflow Management Coalition), hacia arriba.
coalición de gestión de flujo de trabajo. La incorporación Al tomar el modelo de arriba hacia abajo, es partir del
de servicios de flujo de trabajo, que es la columna nivel mas alto, desde los objetivos del negocio. Mientras
vertebral de la arquitectura, se alimenta desde cinco que si es de abajo hacia arriba, se parte de los
interfaces: Definición del proceso de herramientas, flujo procedimientos de cada proceso, hasta llegar a los niveles
de trabajo de clientes y aplicaciones, aplicaciones más altos en la empresa. En este ultimo modelo, son los
invocadas, otros flujos de trabajo y promulgación de usuarios de los procesos los que definen como hacer su
servicios, y por ultimo la administración y herramientas de trabajo diario. Es un aspecto importante definir cual de los
seguimiento. dos modelos seguir en la implantación. Los analistas
1.5 Workflow deben verificar la mejor forma y la más eficiente para que
Para iniciar un proceso de BPM, es necesario iniciar por los empleados realicen mejor su trabajo diario.
el Workflow o flujo de trabajo, necesidades de los Casos de Excepción.
usuarios. Para cumplir esta tarea es necesario que la Se dice que ningún proceso es perfecto, por más que se
empresa se tome un tiempo prudente en algo llamado el haya analizado con suficiente tiempo. Siempre se
análisis empresarial, lo cual incluye el Workflow, los presentaran algunos imprevistos o errores en la solución, y
procesos existentes y las estrategias del negocio. Este son muy contados los casos inevitables. Siempre habrá
tiempo y demás recursos investidos para dicho análisis se algún detalle de un procesos que se paso o se olvido por
verán en el corto tiempo en la alta eficiencia de los todas las personas a cargo, y se encontrará mas tarde de
servicios que presta la empresa. Tener éxito en un pronto, dentro varias semanas adelante.
proyecto BPM, implica primero comprender los procesos Explorar indicaciones inesperadas.
de negocio de la empresa [14]. Es importante tener en En el diseño de nuevos procesos la empresa no deberá
cuenta carios aspectos para tener un verdadero éxito y tomar por cierto en un cien por ciento, esto se presenta
ventajas en la implantación de un proyecto usando BPM: cuando en alguna área de empresa o en un departamento,
se ha llevado un proceso determinado por varios años y se
1.5.1 Recomendaciones en Workflow esta buscando aumentar la eficiencia de ese proceso es
No tomar decisiones tecnologicas antes del proceso de necesario que las partes estén dispuestas a sacrificar el
análisis. método como siempre se ha venido haciendo dicha labor.
Si se toman algún tipo de decisión en la parte tecnológica Esto es aplicable a aquellas empresas donde por cualquier
antes de planear y analizar la empresa en su totalidad, es cambio por leve que sea, se crean conflictos innecesarios.
muy seguro de caer en un problema no fácil de solucionar Medir KPI
en el tiempo. Lo que se recomienda es que las decisiones Key Performance Indicators, KPI (por sus siglas en
tecnológicas sucedan como producto de la planeación de ingles), indicador clave de desempeño. Los KPIs son una
los procesos empresariales o lo que la empresa necesita y forma de medir el cumplimiento de los objetivos de la
quiere o lo que la empresa quiere trabajar en el futuro. Se empresa. Después de diseñar los procesos del negocio,
puede decir que es la primera tarea de BPM y no se debe debe incluirse una KPI, de manera que indique, si el
descuidar tal hecho. proceso esta bien para esa área o departamento de la
Incluir varios participantes en el proceso de diseño. empresa. Los KPI son escenciales, pues, es la forma de
Los procesos de negocios resultar mejor diseñados cuando medir el éxito o fracaso de BPM, además, muestra el nivel
intervienen varios departamentos o aéreas de empresa. Es de calidad de cada proceso de la empresa.
importante incluir en todos los procesos un buen número Reevaluar permanentemente el workflow después de su
de participantes en el Workflow. Además, de lo anterior aplicación.
se debe tener en cuenta a las personas que son parte de los Se puede decir que es una de las recomendaciones más
procesos, es decir, saber cual es el papel protagónico que importante de todas. Esto es debido a que las empresas
desarrollan en ese proceso, teniendo de presente que no es cambian o se transforman permanentemente, debido a la
necesario entrevistar a todos los empleados de la empresa. modificación de las necesidades de los usuarios, lo cual
Los participantes de un proceso sientan un valor genera cambios en los procesos al interior de la empresa.
empresarial. Los procesos tienen un ciclo de vida, llamado proceso de
Esta tarea se puede decir es una de la mas difíciles de mejora continua, de manera que garantice que los
cumplir. Pues son pocos los empleados que de verdad procesos de negocio de la empresa sean siempre
colaboran en el diseño de los procesos en un cien por pertinentes.
ciento. Esto es debido a que las personas tienen poca
motivación en colaborar al diseño de nuevos procesos, 1.6 Metodología de BPM
pero, se debe impulsar a esas personas a contribuir en el En [23] se define una metodología para BPM, en siete (7)
mejoramiento de la empresa. pasos o etapas así: Estrategia y organización, estudio, fase
Comparar el modelo de arriba hacia abajo y de abajo

353
de diseño, plataforma de selección, aplicación y pruebas y procesos de negocio, con la plataforma definida. Uno de
fase de operación y control. los aspectos interesantes en esta fase es la integración de
sistemas externos, y verificar con pruebas exhaustivas el
1.6.1 Estrategia y organización comportamiento de los procesos de negocios externos. En
En esta etapa es necesario realizar: Identificación del estas pruebas se debe contemplar probar el volumen de
mercado donde la empresa se desenvuelve. Evaluar las los datos y su crecimiento, los flujos de trabajo,
fortalezas y debilidades de la empresa. Identificar cuales restricciones de tiempo. De lo anterior es posible decidir
son las estrategias a largo, mediano y corto plazo. Los si es necesario rediseñar algunos aspectos, como el flujo
objetivos estratégicos. Organización de los procesos del de trabajo, que no se acomoda a la realidad para el cual
negocio. Procesos de negocio operativo e implementación fue diseñado. En el caso de si existe intervención humana
de procesos del negocio. en los flujos de trabajo, se verifica si existe buen
1.6.2 .Inspección entrenamiento en las personas.
El objetivo de esta fase es el de recoger y organizar la 1.6.6 Operación y Control
información sobre los procesos de negocio de la empresa. En esta fase se precisa la instalación de sub fases, que
Se identificaran procesos de negocio operativos. incluye, la migración de información, la capacitación de
Determinar las posibles restricciones, por culpa de los los usuarios, basados en el flujo de trabajo, lo cual implica
sistemas de información existente y que deben integrarse. formar al usuario en el nuevo flujo de trabajo que
Se crea un equipo básico, para poder obtener una visión previamente se ha definido. Respecto a la migración de
general de solicitudes, personas y unidades o áreas de los datos, se refiere a la nueva ubicación de ellos de donde
empresa. Para obtener la información necesaria se debe estaban, al nuevo flujo de trabajo o en los nuevos
hacer uso de las entrevistas. sistemas.
1.6.3 Diseño
1.7 Ciclo de vida de BPM
En esta fase se identifican y se seleccionan los procesos de
Según Davis en [12], el ciclo de vida de BPM consta de
negocios, que se tendrán en cuenta en el desarrollo del
cuatro fases principales:
proyecto. Para identificar es importante tener presente que
cada proceso se inicia y termina con un usuario o cliente, 1.7.1 Estrategia de Procesos de Negocios
que es quien solicita un producto o servicio. Cada proceso En esta fase existe con el fin de alinear los procesos de
siempre tiene un dueño o responsable, de manera que cada negocios que maneja la empresa. En las empresas las
persona es responsable de su proceso, de esta forma se estrategias del negocio dependen de diversas variables,
consigue que se pueda cumplir el objetivo de la empresa. una de ellas, el mercado. Pues, dependiendo del
Los procesos están conformados por objetos, y estos a su comportamiento del mercado variaran las decisiones que
vez pueden ser objetos que contienen información, como se tomaran en la empresa. Los cambios en las decisiones,
un pedido, una compra, un reclamo, una cotización o se ve reflejado en los procesos de negocios de la empresa.
cualquier otro tipo de información. Pero esos objetos
consiguen ser también físicos, tales como un producto 1.7.2 Diseño de procesos de negocio
terminado. Los procesos pueden tener algún tipo de Esta fase se debe adaptar la empresa a las necesidades del
limitaciones o restricciones, pues de esta manera de mercado, como se menciono en la fase anterior, y se debe
utilizan los recursos de la empresa de manera optima, lo partir desde el inicio, es decir, desde el diseño, el análisis,
cual trae consigo una disminución de costos de la optimización y pruebas de los procesos de negocios de
producción para la empresa. Es muy probable que se la empresa, en busca de un mejoramiento permanente.
tenga que contratar por algún motivo, procesos de
negocios externos, si esto sucede es necesario definir el 1.7.3 Implementación de procesos de negocio
tipo de contrato, la calidad de los procesos de negocios
necesarios. Es importante que los procesos de negocios en la empresa
1.6.4 Plataforma de selección permanentemente vivan actualizados o tengan un progreso
En esta fase es necesario garantizar la plataforma donde continuo o mejor aun, tengan innovación. Lo anterior se
van a ubicarse y ejecutar los procesos de negocios de la logra con ayuda de la implementación de nueva
empresa. Por decir algo, si la empresa tiene previsto como tecnología. Ahora bien, es fundamental que esa
plataforma una arquitectura orientada a servicios, es tecnología, tenga la característica de ser dinámica y
necesario verificar la tecnología existente. O si lo que se flexible, de forma que con facilidad y rapidez se pueda
quiere es una parte de intervención humana y otra con un cambiar algún proceso de negocio de la empresa. Para
sistema de flujo de trabajo. lograr una buena implementación es imprescindible
conocer muy bien la organización o tener en mente una
1.6.5 Aplicación y pruebas mapa de los procesos de negocio, pues así se vera
Esta fase inicia con la aplicación de los modelos de reflejado en el software. Los procesos de negocio se

354
pueden lograr de tres formas: Aplicación de normas de cada capacidad con factores y estos con criterios que
sistemas de Planificación de recursos del sistema ERP, ayudan a definir la calidad del producto.
(por sus siglas en ingles), arquitectura orientada a Las características asociadas a la capacidad de operación
servicios SOA,(por sus siglas en ingles), y la aplicación del producto, tiene que ver con cinco factores y a su vez
clásica de ingeniería de software. se debe tener en cuenta cinco criterios (operabilidad,
familiarización, comunicatividad, volumen y tasa de
entrada/salida y datos comunes), para la evaluación del
1.7.4 Control de Procesos de Negocio software. Aquí se determina la facilidad para manejar el
En esta fase se mide la eficiencia de los procesos de software, el ambiente del software con el usuario, la
negocio de la empresa. En esta fase se debe garantizar el posibilidad de compartir datos con otros programas.
control de la todas y cada una de las etapas del software
que maneja los procesos de negocio. La eficiencia se mide Factor 1: Facilidad de uso. Es el esfuerzo requerido para
contra los objetivos propuestos inicialmente, en los aprender a utilizar el software, preparar la entrada de
procesos de negocios. datos e interpretar la salida de la información.
Criterios que se deben evaluar:
2. CALIDAD DEL SOFTWARE Operabilidad: Propiedades del software que determina el
2.1 Definición de calidad de Software grado de facilidad de operación del software.
La norma ISO 8402 define: ―Conjunto de propiedades y Familiarización: Propiedades del software que
de características de un producto o servicio, que le proporciona al usuario un ambiente de climatización al
confieren su aptitud para satisfacer unas necesidades software.
explícitas e implícitas‖ [17]. Comunicatividad: Propiedades del software que permite
De acuerdo a la definición del Instituto de Ingenieros eficacia y facilidad para las comunicaciones.
Eléctricos y Electrónicos (IEEE, Std. 610-1990) ―La Volumen y tasa de E/S: Propiedades del software
calidad del software es el grado con el que un sistema, requerido para aprender el manejo del software, todo lo
componente o proceso cumple los requerimientos relacionadas con introducción y salida de datos,
especificados y las necesidades o expectativas del cliente consiguiendo los resultados esperados.
o usuario‖ [16]. Datos comunes: Propiedades del software que establece la
―El cumplimiento de los requisitos de funcionalidad y posibilidad de compartir datos o información con otro
desempeño explícitamente establecidos con los requisitos software.
de funcionalidad y desempeño explícitamente establecido,
de los estándares de desarrollo explícitamente Factor 2: Seguridad (integridad). Grado en el que se
documentados y de las características implícitas que se puede controlar el acceso ilegal al software o a los datos,
espera de todo software desarrollado profesionalmente‖ de personal no autorizado.
[20]. Criterios que se deben evaluar:
Como se menciona en [61], donde el Instituto de Control y auditoria de acceso: Atributos del software que
Ingenieros Eléctricos y Electrónicos (IEEE), presenta su ayuda a ejercer mejor control de acceso al manejo del
definición: ―La calidad del software es el grado con el que software.
un sistema, componente o proceso cumple los Integridad de datos: Hasta que sitio se puede permitir el
requerimientos especificados y las necesidades o acceso al software, por parte de las personas.
expectativas del cliente o usuario‖. ―La calidad se define
como cumplimiento de requisitos‖ [11]. Factor 3: Eficiencia. Es la necesidad de la cantidad de
2.2 Modelos de calidad de Software recursos físicos (hardware) y lógicos (software) que
Existen un sin numero de modelos de calidad de software, requiere el software para llevar a cabo sus funciones.
en este trabajo se presentaran los màs representativos. Es Criterios que se deben evaluar:
de aclar que existen varios modelos enfocados a la calidad Eficiencia de almacenamiento: La cantidad de recurso
del producto y otros a la calidad del proceso en el físico (hardware), necesario para que el software pueda
desarrollo de software. procesar sus necesidades.
Eficiencia de ejecución: Propiedades del software que
proporciona el mínimo de recurso de tiempo de ejecución.
2.2.1 Modelo de Calidad de McCall
El modelo de McCall Jim A., plantea calidad del software Factor 4: Corrección (exactitud). Es el grado en que
desde el punto de vista del producto, y desde tres aspectos cumple las especificaciones y satisface los objetivos
y/o capacidades importantes operación del producto, propuestos.
revisión del producto, y transición del producto, a su vez Criterios que se deben evaluar:
Compleción: Propiedades del software necesarias para la

355
implantación de todas las funciones requeridas. Modularidad: Propiedades del software que proporcionan
Trazabilidad: Propiedades del software al proporcionar una estructura de módulos independientes.
una traza o pista o rastro, desde los requisitos a la Instrumentación: Propiedades del software que
implantación respecto al desarrollo del software. proporcionan la posibilidad de examinar el
Consistencia: Propiedades del software que proporcionan comportamiento del software al momento de su ejecución.
técnicas, documentos coherentes en las diferentes etapas o
pasos en el desarrollo del software. Factor 8: Flexibilidad. Grado de esfuerzo necesario para
modificar el software en funcionamiento.
Factor 5: Fiabilidad. Es el grado o la probabilidad que el Criterios que se deben evaluar:
software funcione sin errores o sin fallas. Autodescriptivilidad: Propiedades del software que
Criterios que se deben evaluar: proporcionan explicaciones detalladas de cada parte del
Precisión: Propiedades del software que proporcionan el software.
grado de exactitud en los resultados esperados del Modularidad: Propiedades del software que proporcionan
software. una estructura de módulos independientes.
Tolerancia a errores: Propiedades del software que Capacidad de ampliación: Propiedades del software que
posibilitan la continuidad del funcionamiento bajo proporcionan facilidades para agregar capacidades
condiciones no usuales. funcionales o datos al sistema.
Simplicidad: Propiedades del software que posibilitan la Generalidad: Propiedades del software que proporcionan
implementación de funciones de la forma más holgura a las funciones realizadas.
comprensible posible.
Concisión: Atributos del software que posibilita la Características asociadas a la capacidad de transición del
concreción de código fuente en el desarrollo. producto

Características asociadas a la capacidad de revisión del Tiene que ver con medir si el software tiene la capacidad
producto. Está relacionada con el mantenimiento, de ser reutilizable, independencia del hardware y software
corrección de errores y facilidad de pruebas del software. donde esta instalado, evaluar el diseño del software.

Factor 6: Facilidad de mantenimiento. Grado de Factor 9: Capacidad de Reutilización. Grado de


esfuerzo para mantener funcionando el software, de los esfuerzo para emplear una parte o partes del software, en
problemas que puedan surgir en su funcionamiento. otro software.
Criterios que se deben evaluar: Criterios que se deben evaluar:
Consistencia: Propiedades del software que proporcionan Autodescriptivilidad: Propiedades del software que
técnicas, documentos coherentes en las diferentes etapas o proporcionan explicaciones detalladas de cada parte del
pasos en el desarrollo del software. software.
Simplicidad: Propiedades del software que posibilitan la Modularidad: Propiedades del software que proporcionan
implementación de funciones de la forma más una estructura de módulos independientes.
comprensible posible. Capacidad de ampliación: Propiedades del software que
Concisión: Atributos del software que posibilita la proporcionan facilidades para agregar capacidades
concreción de código fuente en el desarrollo. funcionales o datos al sistema.
Autodescriptivilidad: Propiedades del software que Independencia de la maquina: Propiedades del software
proporcionan explicaciones detalladas de cada parte del que independencia del componente físico o hardware, es
software. decir, que tan independientes es el software del hardware.
Modularidad: Propiedades del software que proporcionan Independencia del software del sistema: Propiedades del
una estructura de módulos independientes. software que proporcionan su independencia de la
plataforma donde se desempeña, es decir, hasta donde el
Factor 7: Facilidad de prueba. Es el esfuerzo requerido software es independiente del sistema operativo.
para probar el software de forma que se pueda asegurar
que realiza su función requerida. Factor 10: Transportabilidad. Grado de esfuerzo
Criterios que se deben evaluar: necesario para transportar o migrar el software de un
Simplicidad: Propiedades del software que posibilitan la entorno de operación a otro.
implementación de funciones de la forma más Criterios que se deben evaluar:
comprensible posible. Autodescriptivilidad: Propiedades del software que
Autodescriptivilidad: Propiedades del software que proporcionan explicaciones detalladas de cada parte del
proporcionan explicaciones detalladas de cada parte del software.
software. Modularidad: Propiedades del software que proporcionan

356
una estructura de módulos independientes. software (componente lógico - sistema operativo).
Independencia de la maquina: Propiedades del software Criterios que se deben evaluar:
que independencia del componente físico o hardware, es Independencia del dispositivo: Son aquellos factores de
decir, que tan independientes es el software del hardware. independencia entre los cálculos o cómputos que realiza el
Independencia del software del sistema: Propiedades del software y la configuración del computador. Es decir, si el
software que proporcionan su independencia de la software puede ser ejecutado en otro hardware con
plataforma donde se desempeña, es decir, hasta donde el diferente configuración.
software es independiente del sistema operativo. Auto-contenido: es la facilidad del software para
almacenar la información antes de ser usada, y la correcta
Factor 11: Interoperatividad. Grado de esfuerzo colocación de los dispositivos de entrada/salida antes de
necesario para operar conjuntamente con otro software. ser usados.
Criterios que se deben evaluar:
Datos comunes: Propiedades del software que establece la Factor 2: Fiabilidad. La capacidad del software para
posibilidad de compartir datos o información con otro mantener un determinado nivel de rendimiento cuando se
software. utiliza en determinadas condiciones.
Modularidad: Propiedades del software que proporcionan Criterios que se deben evaluar:
una estructura de módulos independientes. Auto-contenido: es la facilidad del software para
Comunicaciones comunes: Propiedades del software que almacenar la información antes de ser usada, y la correcta
ayudan a una facilidad de comunicación con otro colocación de los dispositivos de entrada/salida antes de
software. ser usados.
Exactitud: Capacidad del software para proporcionar los
En resumen el modelo de McCall, contempla tres (3) resultados esperados o convenidos, también es el grado de
capacidades, llamadas también visión del usuario, pues es precisión del software.
lo que realmente le interesa a este, es decir, la parte Robustez / Integridad: Es el grado en que el software
superficial del modelo. Además, McCall, contempla en su sigue ejecutándose o sigue funcionando correctamente en
modelo once (11) factores, que es la visión de la condiciones o circunstancias anormales.
dirección, hacer énfasis en las tareas un poco mas Coherencia / Consistencia: es el uso de un diseño muy
detalladas del modelo, los aspectos importantes para la similar y técnicas de documentación del software, por
dirección del proyecto de desarrollo del software. Y por ejemplo la definición de las diferentes variables y
ultimo veintitrés (23) criterios, también llamados, la constantes dentro del código fuente del software.
visión del desarrollador, es decir, las tareas con mayor
detalle que le interesan a quien hace el desarrollo del Factor 3: Eficiencia. Capacidad del software para
software. proporcionar funcionamiento apropiado, en relación con
la cantidad de recursos usados, en unas condiciones
determinadas.
2.2.2 Modelo de Calidad de Boehm Barry Criterios que se deben evaluar:
El modelo planteado por Boehm Barry W., Brown J. R., Responsabilidad: El software presta el servicio de acuerdo
Lipow M., Macleod G. J., Merritt, M. J. (1978), muy a su uso.
similar al modelo de McCall Jim, pero, Boehm, presenta Eficiencia de dispositivo: Es el grado de validez del
algunas características adicionales, fuera de las existen en software en función de los dispositivos de entrada/salida.
el modelo de McCall. Se encuentran en los dos modelos Accesibilidad: Es el grado con que la interfaz del software
similitudes de características que ayudan a lograr una permite al usuario realizar sus tareas especificas.
calidad total del software. El modelo de Boehm presenta
siete (7) factores y doce (15) criterios. Boehm, recalca Factor 4: Ingeniería Humana. Es una de las
mucho en su modelo, que el software debe ser útil al características más importantes donde se tiene en cuenta el
usuario, de lo contrario se ha perdido tiempo, dinero, recurso humano, sin el cual seria difícil cualquier labor, se
mano de obra y esfuerzo. Es decir, el software debe hacer consideran varios factores entre ellos: motivación,
lo que el usuario necesita que haga, utilizar los recursos responsabilidad, realización como persona,
físicos de manera correcta, también el software debe ser reconocimientos, posibilidad de superación, ascensos,
fácil de aprender a usar. salario y otras.

Factor 1: Portabilidad. Es la capacidad que tiene el Factor 5: Comprobabilidad. Facilidad con que una
software para poder transferirse de un entorno a otro, este aplicación o componente de un software facilita la
entorno se refiere a nivel hardware (componente físico) y creación y ejecución de pruebas con éxito, es decir,
pruebas que puedan causar fallos debidos a defectos

357
subyacentes. Medición. La medición de la calidad del software, inicia
Criterios que se deben evaluar: en la fase de desarrollo. Es decir, el software inicia la
Responsabilidad: El software presta el servicio de acuerdo medición con la aplicación de estándares en la
a su uso. codificación del programa. La parte compleja de medir
Accesibilidad: Es el grado con que la interfaz del software tienen como base en las funciones de decisión (IF-THEN-
permite al usuario realizar sus tareas especificas. ELSE, CASE, y DOWHILE).
Comunicación: Es la facilidad de las entrada en su forma Productividad. El autor considera que las métricas son
para el ingreso de la información. una herramienta importante para desarrollar mediciones
Auto-Descriptivo: Es la facilidad del software para el de la calidad del software, donde estas mediciones se
almacenamiento de la información antes de hacer uso del pueden utilizar para medir la productividad. Los dos tipos
software. de medidas son: medidas de tamaño (como las líneas
Estructuración: El software posee un claro patrón de ejecutables de código) y medidas de complejidad (que se
organización entre sus partes interdependientes. relacionan con declaraciones de decisión en un programa).
Calidad. La calidad del software es un subconjunto de
Factor 6: Comprensibilidad. Es la capacidad del medidas donde se enfocan características de calidad del
software para permitir al usuario entender o comprender, producto de software, de procesos del proyecto. Entre las
si ese software es conveniente y como puede ser usado mas importantes: Adaptabilidad, Completitud,
para tareas particulares en las condiciones de empleo Complejidad, Concisión, Corrección, Eficiencia,
necesarias. Expandible, Independencia del hardware, Operabilidad,
Criterios que se deben evaluar: Transportabilidad, Legibilidad, Fiabilidad, Robustez,
Coherencia / Consistencia: es el uso de un diseño muy Adaptabilidad, simplicidad, independencia del software,
similar y técnicas de documentación del software, por entre otras. Pero, Arthur, encontró cinco errores más
ejemplo la definición de las diferentes variables y importantes en la calidad que siempre suceden: se centran
constantes dentro del código fuente del software. más en los resultados, mas que en el aprendizaje. La falta
Auto-Descriptivo: Es la facilidad del software para el de concentración. La falta de ayuda. Se trata de involucrar
almacenamiento de la información antes de hacer uso del a todo el mundo y la enseñanza de la teoría en lugar de
software. desarrollo del mundo real.
Estructuración: El software posee un claro patrón de Métrica de Complejidad. Tiene que ver el número de
organización entre sus partes interdependientes. caminos que sigue el software (programa). Es decir, los
Concisión: Es la compactación del programa en términos caminos que toma dependiendo del tipo de ciclo que
de líneas de código desarrolle, esto se evidencia en el programa fuente del
Legibilidad: El modelo posee la característica que su software.
función fácilmente es distinguida por leer el código. Métrica de Corrección. Es la medida en que un software
(programa) satisface las especificaciones (requisitos) y
Factor 7: Modificabilidad. Es la capacidad del software cumple con las del usuario.
para ser variado, las modificaciones pueden ser Métrica de Eficiencia. Es la capacidad del software de
correcciones y/o mejoras y/o adaptaciones. permitir un buen rendimiento, en relación con la cantidad
de recursos utilizados, es decir, el grado de efectividad
Criterios que se deben evaluar: con el uso de los recursos, como hardware, software,
redes.
Estructuración: El software posee un claro patrón de Métrica de Flexibilidad. Es el esfuerzo requerido para
organización entre sus partes interdependientes. modificar un software (programa), para adaptarlo a otro
Aumentabilidad: Es la capacidad del software para medio diferente al que fue inicialmente diseñado.
adaptarse a otras funciones o componentes Métrica de Integridad. Es la medida en que el acceso a
computacionales o exigencias de almacenamiento de programas o datos por personas no autorizadas pueden ser
datos. controladas.
Métrica de Interoperabilidad. Es la capacidad del software
para interactuar con uno o varios sistemas.
2.2.3 Modelo de Calidad de Arthur Jay Lowell Métrica de Mantenimiento. Es la capacidad del software
El modelo de Arthur Lowell Jay, presenta varios criterios (programa) para recibir modificaciones como
para la evaluar un software. De estos criterios existen correcciones, mejoras o adaptación a un nuevo ambiente
algunos ya estudiados por otros autores del tema, entre de trabajo, cambio de en los requisitos.
otros, McCall y Boehm. Métrica de Portabilidad. Es el esfuerzo para transferir un
Criterios que se deben evaluar: software (programa) de una configuración determinada a
nivel de hardware y software a otro.

358
Métrica de Fiabilidad. Es la capacidad del software sistema o todo a otro sistema.
(programa) para mantener un nivel determinado de Intercambio: Capacidad del sistema para modificar
rendimiento cuando se utiliza en determinadas componentes de sistema.
condiciones. Actualización Es la capacidad del sistema para ser
Métrica de Reutilización. Es la facilidad con que un modificado por los diseñadores del sistema.
software (programa) o parte de él (modulo o componente) Instalabilidad: Es la puesta en marcha del sistema, donde
puede ser utilizado en otros programas. involucra la instalación del código, las nuevas versiones
Métrica de Estructura. Cuando el software posee un claro del sistema.
patrón de organización entre sus partes interdependientes. Portabilidad: Es la viabilidad para transportar un sistema
Métrica de Comprobabilidad. Es la facilidad con que un de un ambiente inicial a otro ambiente, donde se incluye
software facilita la creación y ejecución de pruebas con la portabilidad de: datos, lógica, medios de comunicación.
éxito, pruebas que puedan causar fallos debidos a Mejoramiento: Es la facilidad de reemplazar componentes
defectos. del sistema por otros que poseen mejor: función,
Métrica de Usabilidad. Es la capacidad del software para actuación, costo y/o plan.
ser comprendido, aprendido, usado y atractivo para el
usuario, cuando se usa. Factor 3. Utilidad. Es la facilidad de poder usar un
Aplicación de Métricas de Software. Las métricas son sistema.
usadas para cuantificar el software, los recursos para el
desarrollo de software y procesos de desarrollo de Nivel de experiencia en la entrada. Es el nivel de
software. conocimientos necesarios para que debe recibir de
entrenamiento el usuario para usar el sistema.
Entrenamiento de requisitos: Es el grado de
2.2.4 Modelo de Calidad de Gilb Tom adiestramiento al usuario, para lograr cierta habilidad con
El modelo de Gilb presenta sus factores y criterios, el sistema.
siguientes: Habilidad de manejo. Es el grado de habilidad al
maniobrar el sistema.
Factor 1: Disponibilidad. Es la disposición de un sistema Agradable. Es el grado con que los usuarios declaran estar
para realizar su trabajo para lo que fue diseñado. contentos con el sistema.
Criterios que se deben evaluar: Demostrabilidad. Es medir requisitos completamente,
Disponibilidad Es el grado en que un sistema funciona incluye requisitos elementales de calidad, demostración al
para lo que fue desarrollado, en lugar de hacer otra cosa, cliente o auto demostración, y demostraciones de ventas.
como producir una respuesta equivocada.
2.2.5 Modelo de Calidad de Dromey Geoff
Mantenimiento Es la medida de rapidez con que un
sistema puede ser llevado a un estado fiable y es la El modelo de Dromey, maneja siete criterios, de la manera
reparación de algún error, modificación o daño, en el siguiente:
software.
Integridad Es la medida de confianza con que el sistema Factor 1: Funcionalidad. Es una particularidad de
no ha sufrido ningún daño o la seguridad no ha sido calidad que depende de dos cosas: las propiedades de
violada. corrección y el grado de exactitud de la funcionalidad del
sistema. Las propiedades del producto que tienen que ver
Factor 2: Adaptabilidad. Es la medida de capacidad del con la funcionalidad son: calculable, completo, asignado,
sistema al cambio. preciso, inicializado, progresivo, variable, consistente,
estructurado, encapsulado y especificado.
Criterios que se deben evaluar: Calculable: Si sólo involucra cálculos o cómputos que
Flexibilidad Es la capacidad del sistema para adaptarse o obedecen las normas de la teoría de la computación y
ser adaptado por sus usuarios para satisfacer algunas están dentro de los límites definidos por el software, el
condiciones sin ninguna modificación fundamental del lenguaje de programación y/o la máquina.
sistema. Completo: Es la propiedad de estar acabado el software,
Conectividad Es el sopote como fue construido el sistema es decir, cuando tiene todos los elementos necesarios para
para poder conectarse a otras interfaces. que pueda realizar su papel, para el cual fue desarrollado.
Adaptabilidad: Es la capacidad de poderse modificar el Asignado: Es una especialización de la propiedad de
sistema y poder adaptarse a otras condiciones. integridad, usada específicamente por las variables, es el
Extensión: Es la capacidad de agregar una parte del valor que recibe una variable, ya sea de entrada o

359
asignada por parámetros, antes de usarse. para que funciones en otras plataformas o sistemas.
Preciso: Cuando una variable o constante se teclea Existen tres cosas primarias que afectan la portabilidad
imprecisamente. son las dependencias de la máquina, dependencias del
Inicializado: Cuando una estructura de lazo es recopilador y las dependencias del sistema operativo.
inicializada, todas las variables en el lazo son
inicializadas. Esta característica es una especialización de Factor 7: Reutilizabilidad. Es la facilidad del software
la característica asignada esto Se aplica a lazos, en la para adaptarse y modificase al momento de emplearlo en
programación del código del software. otros contextos sin el más mínimo cambio. La
Progresivo: Un loop o vuelta en el algoritmo de reutilización depende de la funcionalidad claramente del
recursividad es progresivo si hay evidencia clara que la software y su precisión.
estructura, hace el progreso hacia la terminación con cada
iteración o la recursividad llama la función asociada.
Variante: Es un guardia del loop, o guardia inductivo en la 2.2.6 Modelo de Calidad: FURPS
estructura recursividad. FURPS, es un modelo de calidad de software diseñado
Consistente: Si el uso de la estructura es consistente y por Hewlett-Packard, en el año 1970, al que se le ha dado
mantiene sus propiedades o funcionalidad de todos sus el nombre con el acrónimo en ingles FURPS
elementos. (Functionality, Usability, Reliability, Performance,
Estructurado: hace referencia a que en la programación Serviceability), o Funcionalidad, Usabilidad, Fiabilidad,
del software, debe haber sólo un solo punto de entrada y Rendimiento y Capacidad de Soporte.
solo una de salida.
Encapsulado: Las variables que son usadas puede tener un Factor 1: Funcionalidad. El software tiene la función
impacto significativo sobre la modularidad y de ahí necesaria para lograr la tarea solicitada.
depende la calidad de autonomía de los módulos del Factor 2: Utilidad. El software es fácil de usar o de
software. aprender en función de lograr la tarea deseada.
Especificado: Si la funcionalidad es descrita según Factor 3: Fiabilidad. Se refiere a la frecuencia y
condiciones previas, de un módulo o programa, se dice gravedad del software en los posibles errores.
que son especificados. Factor 4: Rendimiento. Es la eficiencia, es decir, con la
velocidad que el software ejecuta sus funciones. Se
Factor 2: Fiabilidad. La fiabilidad del software depende incluyen en general el rendimiento, la utilización de
en gran medida de las propiedades de la funcionalidad, es memoria y el tiempo de respuesta.
decir las propiedades de corrección de un programa. La Factor 5: Utilidad. Se relaciona con el soporte técnico, el
diferencia se presenta cuando un programa puede ser tiempo de respuesta, calidad de las correcciones y
correcto en lo que concierne a su especificación, y por lo facilidad de procedimientos de instalación.
tanto satisfacer sus exigencias funcionales y aún fallar
porque las entradas no satisfacen la condición previa
esperada. 2.2.7 Modelo de Calidad de Barbacci Mario
Según IEEE, la calidad de software es el grado que posee
Factor 3: Utilidad. Evalúa la calidad de la interfaz del el software en una combinación deseada de atributos (por
usuario (botones, menús, entre otros), plan y ejemplo, fiabilidad, interoperabilidad). Los atributos de
características del ambiente del software. calidad del software, parten desde el diseño de sistemas
críticos, donde se identifican los requisitos del software
Factor 4: Eficacia. Es la medida de la redundancia en vías de desarrollo, es allí donde se asigna recursos
computacional y la lógica. Son estos dos factores los que apropiados, como el procesador, la red de
más afectan la eficacia del software. Existe gran cercanía comunicaciones. Los sistemas deben satisfacer la
entre la estructura de control de programa y la estructura seguridad, la confiabilidad, en general todos los aspectos
de los datos, también define la diferencia de la eficacia del definidos en los requisitos.
software. El modelo contempla factores tales como:
Factor 5: Mantenimiento. Existen dos aspectos Factor 1: factores de rendimiento. Son los aspectos del
importantes a tener en cuenta: el software debe sistema que contribuyen a al rendimiento, estos incluyen
especificarse claramente y bien documentado, así se las exigencias del medio ambiente y el sistema de
permitirá realizar un mantenimiento completo y más fácil. respuestas a estas demandas. Se miden los siguientes
atributos: Latencia, Rendimiento, Capacidad y Modos.
Factor 6: Transportabilidad. Es el número de cambios a Latencia: Es el intervalo de tiempo que transcurre en la
compilar y ejecutar que es necesario realizar al software,

360
respuesta a un evento cuando es ejecutado, este intervalo sistemas informáticos.
en el software esta dado por un tiempo de partida (latencia
mínima) y un tiempo de finalización (latencia máxima). Integridad: Es la exigencia para que los datos y los
Rendimiento: El rendimiento se refiere al número de casos procesos sean protegidos, ante cualquier modificación no
donde las respuestas se han completado en más de un autorizada.
intervalo de observación. Por ejemplo, un sistema puede Disponibilidad: La disponibilidad de un sistema es la
procesar 120 transacciones por hora, pero eso no medida de su preparación para el uso.
garantiza que el dos (2) transacciones se han procesado
por minuto. Tal vez no se procesan las transacciones Factor 4: Deficiencias de seguridad. Son los aspectos del
durante los primeros 30 minutos y todas las transacciones sistema que contribuyen a la falta de seguridad, tal como
son procesadas durante los restantes 30 minutos. los riesgos, que son condiciones de errores o accidentes
Capacidad: Es la medida de la cantidad de trabajo que un voluntarios o involuntarios que llevan a consecuencias
sistema puede realizar y se mide en términos de indeseables. Se miden los siguientes atributos:
rendimiento. Que es el número máximo de eventos por Complejidad de Interacción y Fuerza de acoplamiento.
unidad de tiempo que puede lograrse si se puede escoger Complejidad de Interacción: Es el grado en el cual el
el número teóricamente ideal. En las redes esto se llama el comportamiento de un componente puede afectar el
ancho de banda, que normalmente se expresa en mega bits comportamiento de otros componentes.
por segundo. Fuerza de acoplamiento: Esta fuerza se extiende desde el
Modos: Se caracteriza por el estado de la demanda puesta acoplamiento flojo o suelto al acoplamiento apretado o
en el sistema y el estado del sistema, es decir, la firme y es el grado en el cual hay flexibilidad en el sistema
configuración de los recursos utilizados para satisfacer la para permitir eventos no planificados. Los sistemas Fuerte
demanda. Dos situaciones comúnmente encontradas son la acoplados tienen Procesos más dependientes del tiempo:
reducción de la capacidad y la sobrecarga. ellos no pueden esperar, las secuencias son más invariante
y el diseño total tiene alternativas muy limitadas en cuenta
Factor 2: Deterioro de la confiabilidad. Son los aspectos en el modo de hacer El trabajo. Los procesos débilmente
del software que contribuyen a la falta de confianza en el acoplados puede ser retrasados o ponerse en reserva, las
sistema. Se ha detectado que existe estrecha relación entre secuencias pueden ser modificadas y el sistema
los errores internos y externos del software. Se miden los reestructurado, tanto como hacer diferentes tareas o el
siguientes atributos: Disponibilidad, Fiabilidad, mismo trabajo de diferentes formas.
Mantenimiento, Seguridad, Confidencialidad, Integridad.
Disponibilidad: La disponibilidad de un sistema es la
medida de su preparación para el uso. 2.2.8 Modelo de Calidad ISO/IEC 9126
Fiabilidad: Es la medida de capacidad de un sistema para La norma de calidad ISO/IEC 9126 [18], fue creada por la
seguir funcionar con el tiempo. Organización Internacional para la estandarización (ISO)
Mantenimiento: Es la capacidad de un sistema para en 1991. La norma pretende definir un modelo de calidad
soportar la reparación y el perfeccionamiento. para el software y unas pautas por medir las características
asociadas al software. La norma ISO/IEC 9126 Software
Seguridad: Se define como la ausencia de consecuencias engineering – Product quality consta de 4 partes:
catastróficas ISO/IEC 9126-1:2001 Software engineering -- Product
en el medio ambiente de sistemas. Se dice que un sistema quality -- Part 1: Quality model
es seguro o no es seguro. ISO/IEC TR 9126-2:2003 Software engineering --
Confidencialidad: Es la no divulgación de información, la Product quality -- Part 2: External metrics
protección de los datos del sistema, la protección de los ISO/IEC TR 9126-3:2003 Software engineering --
sistemas informáticos. Product quality -- Part 3: Internal metrics
Integridad: Es la exigencia para que los datos y los ISO/IEC TR 9126-4:2004 Software engineering --
procesos sean protegidos, ante cualquier modificación no Product quality -- Part 4: Qualit in use metrics
autorizada.
Factor 3: Factores de seguridad. Son los aspectos del Factor 1: Funcionalidad. Es el grado con que el software
software que contribuye a la seguridad, tales como la cumple la existencia de un conjunto de atributos,
interfaz y los rasgos internos del kernel. Se miden los funciones y propiedades especificadas del software que
siguientes atributos: Confidencialidad, Integridad y satisfagan las necesidades para las cuales fue diseñado.
Disponibilidad. Las subcaracterísticas o criterios son: Conveniencia,
exactitud, Interoperatividad, seguridad, funcionalidad y
Confidencialidad: Es la no divulgación de información, la complacencia de funcionalidad.
protección de los datos del sistema, la protección de los

361
Criterios que se deben evaluar: Conformidad de usabilidad: Es la capacidad del software
Conveniencia: Es la capacidad del software para mantener para cumplir las normas, convenciones, guías o
fijas apropiadamente las funciones o tareas especificadas regulaciones que tienen relación con la utilidad.
y objetivos del usuario.
Exactitud: Permite evaluar si el software proporciona Factor 4: Eficacia. Capacidad del software para
resultados o efectos de acuerdo con las necesidades para proporcionar un rendimiento apropiado. Las
las cuales fue creado. subcaracterísticas o criterios son: Comportamiento del
Interoperatividad: Es la capacidad del software para tiempo, Utilización del recurso y Cumplimiento de
interactuar o acoplarse con otros sistemas previamente eficacia.
especificados. Comportamiento del tiempo: Es gasto de tiempo de
Seguridad: Es la habilidad del software para prevenir el respuesta del software ante un procesamiento.
acceso autorizado o no, a los programas y datos. Utilización del recurso: Es el grado en que el software usa
Funcionalidad: Es el conjunto de funciones y propiedades eficazmente los diferentes recursos, como hardware,
específicas establecidas en el software, tiene que ver con software, red, medios de comunicación y otros.
los requisitos de funcionalidad. Cumplimiento de eficacia: Es la capacidad del software
Complacencia de funcionalidad: Es la capacidad del para cumplir las normas, convenios, que tiene que ver con
software para cumplir las normas, convenios o leyes, que la eficiencia.
tiene que ver con la funcionalidad.
Factor 5: Mantenimiento. La capacidad del software
Factor 2: Fiabilidad. El software debe cumplir el para ser modificado (correcciones, mejoras o adaptación.
objetivo para que construido de manera satisfactoria. Las Las subcaracterísticas o criterios son: Analizabilidad,
subcaracterísticas o criterios son: Madurez, tolerancia a Variabilidad, estabilidad, Estabilidad y La Cumplimiento
fallos, Recuperabilidad, fiabilidad y complacencia de de mantenimiento.
fiabilidad.
Criterios que se deben evaluar: Analizabilidad: La capacidad del software para permitir
Madurez: Es capacidad del software para evitar el fracaso ser diagnosticado referente a deficiencias o causas de
como resultado. fracasos.
Tolerancia a fallos: Es el daño que puede ocurrir cuando Variabilidad: Es la capacidad del software para permitir
el software encuentra un error. una modificación especifica.
Recuperabilidad: Es la capacidad del software que tiene Estabilidad: Es la capacidad del software para evitar
para restablecerse desde un nivel especifico. efectos inesperados cuando se realizan modificaciones.
Fiabilidad: Es la probabilidad que el software cumpla el Estabilidad: Capacidad del software para validar el
objetivo de manera satisfactoria sin errores o fallos en un software modificado.
determinado periodo de tiempo. Cumplimiento de mantenimiento: Es la capacidad del
Complacencia de fiabilidad: Es la capacidad del software software para cumplir las normas, convenios, que se
para cumplir las normas, convenios o leyes, que tiene que relacionan con la capacidad de mantenimiento.
ver con la fiabilidad.
Factor 6: Portabilidad. Es la capacidad del software al
Factor 3: Utilidad. Es la capacidad del software para permitir ser trasladado de un medio (hardware y/o
permitir al usuario entender o comprender, si ese software software) a otro. Las subcaracterísticas o criterios son:
es conveniente y como puede ser usado para tareas Adaptabilidad, Inestabilidad, Co-existencia, Reemplazo y
particulares en las condiciones de empleo necesarias. Las Cumplimiento de portabilidad.
subcaracterísticas o criterios son: Comprensible,
Aprendizaje, Operabilidad, Atractivo y Conformidad de Adaptabilidad: Capacidad del software para adaptarse a
usabilidad. diferentes ambiente de hardware o software determinados,
Criterios que se deben evaluar: sin cambios distintos a los previstos inicialmente.
Comprensible: Es la capacidad del software para Instabilidad: La capacidad del software para ser instalado
permitirle al usuario entenderlo y usarlo para las tareas en en un entorno determinado.
particular. Co-existencia: Es la capacidad del software para convivir
Aprendizaje: Capacidad del software para permitir que el con otros programas independiente del entorno común que
usuario aprenda a operarlo. compartan los dos o mas programas.
Operabilidad: Propiedades del software que determina el Reemplazo: Capacidad del software para ser sustituido en
grado de facilidad de operación del software. lugar de otro software, para el mismo propósito, en el
Atractivo: Capacidad del software para que resulte mismo entorno.
agradable al usuario al momento de operarlo. Es la capacidad del software para cumplir las normas,

362
convenios, relacionadas con la capacidad de portabilidad. tr22.92.pdf [Consultado:29-Ago-10].
3. 3. CONCLUSIONES [2] Arthur Lowell Jay. (1993). Improving Software
Es importante conocer los factores, criterios y métricas, Quality An Insider's Guide to TQM. New York: Jhon
que existen y se deben tener en cuenta al momento de Wiley & Sons, Inc. - ISBN 0471578045.
realizar la evaluación de un software, para determinar el [3] Asentti.com. (2006). BPM. [En linea] Disponible en:
nivel de calidad del producto. Entre los modelos http://www.cepra.com.mx/asentti_v2/documentos/sinopsis
analizados se puede hallar que varios de ellos, presentan /tendencias_bpm.pdf [Consultado:20-Ago-10].
factores comunes como: Fiabilidad, Usabilidad, [4] Barbacci, Mario R., Klein, Mark H., Weinstock,
Mantenimiento, Eficiencia, y la Transportabilidad. En Charles B. . (1997). Principles for Evaluating the Quality
promedio cada modelo hace uso de ocho (8) factores de Attributes of a Software Architecture. [En línea]
calidad y mientras que a nivel de criterios el promedio es Disponible en:
de dos (2), esto se presenta debido a la óptica del autor, ftp://ftp.sei.cmu.edu/pub/documents/96.reports/pdf/tr036.
donde algunos modelos se les llama factor y en otros 96.pdf [Consultado:28-Ago-10].
criterios o viceversa. Uno de los modelos ilustrados [5] Basili, Victor R. Mashiko, Yasuhiro. (1997). Using the
(modelo de Boehm) llama la atención pues, es el único de GQM paradigm to investigate influential factors for
los estudiados que, tiene en cuenta el recurso humano. software process improvement. New York, NY, USA:
También se observó que en algunos modelos, lo que Publisher Elsevier Science Inc. Volume 36 , Issue 1 (Jan.
tienen como factores, en otro modelo se encuentra como 1997 ) - ISSN:0164-1212 .
criterio y una buena parte de los modelos presentan [6] Boehm, B.; Brown, J.R.; Lipow, M. (1976).
criterios que otros no lo contemplan. Quantitative Evaluation of Software Quality -
International Conference on Software Engineering
Como se mencionó por varios autores, BPM, aparece Proceedings of the 2nd international conference on
como metodología para mejorar la eficiencia en los Software engineering. San Francisco, California, United
procesos empresariales, es decir, que con BPM, es posible States : [En línea] Disponible en:
mejorar cada una de las fases de ingeniería de software, de http://portal.acm.org/citation.cfm?id=807736
manera que al final se tenga un producto con calidad, [Consultado:28-Ago-10].
basado en los factores de calidad. Cuando se desarrolla [7] Boehm Barry W.; Brown, J. R.; Kaspar, H.; Lipow,
software, es necesario aplicar algún paradigma o modelo M.; MacLeod, G. J.; Merrit, M. J. (1978). Characteristics
de ingeniería de software, la más conocida tiene unas of Software Quality. North-Holland, Nueva York: ISBN-
etapas, como: planeación, análisis, diseño, codificación, 13: 978-0444851055.
implementación y mantenimiento. Al observar el ciclo de [8] pmchile.org. (2008). ¿Qué es BPM? [En linea]
vida de BPM, se observa que existen algunas etapas muy Disponible en: http://www.bpmchile.org/ [Consultado:21-
similares a las usadas en ingeniería de software. Ago-10].
[9] bpmotion.sisorg.com.mx. (2009). Qué es BPM . [En
Con la implementación de este tipo de estudio en las linea] Disponible en:
empresas dedicadas al desarrollo de software, es muy http://bpmotion.sisorg.com.mx/bpm.html [Consultado:11-
probable que con la ayuda de BPM, mejoren may-09].
significativamente su calidad. Es bien sabido que BPM, [10] Cooper Mark y Paul Patterson. (2007). Business
maneja algo llamado Workflow o flujo de trabajo, lo cual Process Management (BPM) Definición y Soluciones
con esta característica, se podrá diseñar las etapas ¿Qué es BPM? [En linea] Disponible en:
necesarias de ingeniería de software y cada una de ellas http://translate.google.com/translate?sourceid=navclient&
con su correspondiente proceso de calidad, de ser así al hl=es&u=http%3a%2f%2fwww.cio.com%2farticle%2f10
final se tendrá un producto con calidad. Tal como lo 6609 [Consultado: 23-Ago-10].
menciona IBM, ―BPM permite a las empresas sobrevivir [11]Crosby Phillip B. (2007). Introducción a los procesos
y prosperar en cualquier economía, permitiendo una de mejora contínua. [En línea] Disponible en:
respuesta más rápida a la evolución de las expectativas http://www.wikilearning.com/curso_gratis/introduccion_a
del cliente y demandas del negocio. Y si es basado en _los_procesos_de_mejora_continua-
arquitectura orientada a servicios (SOA), BPM permite teoria_de_phillip_b_crosby/10913-10 [Consultado:16-
desarrollar los procesos de negocio dinámicos que son Ago-10].
fáciles de cambiar‖. [12] Rob Davis and Eric Brabänder . (2007). ARIS
Design Platform Getting Started with BPM. London:
4. BIBLIOGRAFÍA Springer-Verlag - ISBN-13: 978-1-84628-612-4.
[1] Arthur, J. (1984). Software Quality Measurement. [13] e-ngenium.blogspot.com. (2009). Que es un BPM
Datamation - Barrington: [En línea] Disponible (Business Process Management)? . [En linea] Disponible
en:http://www.sei.cmu.edu/pub/documents/92.reports/pdf/ en: http://e-ngenium.blogspot.com/2009/03/que-es-un-

363
bpm-business-process.html [Consultado: 11-Ago-10]. ago-09].
[14] Footen John & Faust Joey. (2008). The service- [20] Pressman Roger. (2006). Ingeniria del software.
oriented media enterprise : SOA, BPM, and web services Mexico: McGraw-Hill Interamericana -
in professional media systems. Burlington, MA 01803, ISBN:9701054733 Pag.463.
USA: Focal Press is an imprint of Elsevier ISBN 978-0- [21] soaagenda.com. (2009). Que es BPM, Que es BPMS.
240-80977-9. [En linea] Disponible en:
[15]Michael Havey . (2005). Essential Business Process http://soaagenda.com/journal/articulos/que-es-bpm-que-
Modeling . Sebastopol, CA 95472: O'Reilly Media, Inc., es-bpms/ [Consultado: 11-Ago-09].
ISBN: 0-596-00843-0 . [22] Solingen Rini Van, Egon Berghout. (1999).
[16] IEEE. (2002). La Calidad del Software. [En Línea] Goal/Question/Metric Method. AUSTRALIA : Publisher:
Disponible en: McGraw-Hill Professional - ISBN-13: 9780077095536.
http://dmi.uib.es/~bbuades/calidad/sld014.htm [23] Weske Mathias (2007). Business process
Consultado:15-Ago-10]. management concepts languages architectures . New York
[17] Organización Internacional para la Estandarización : Springer Berlin Heidelberg - ISBN 978-3-540-73521-2 .
ISO8402. (1994). Quality, ISO 8402. [En línea] [24] CUMMINS FRED. (2009). Building the agile
Disponible en: http://squac.iti.upv.es/glosario- enterprise with SOA, BPM and MBM. Lexington,
calidad/task,showpart/part,C/catid,30/ [Consulta: 16-Ago- Massachuset USA: Object Management Group, Inc.
10]. ISBN: 978-0-12-374445-6.
[18] ISO/IEC 9126-1:2001. (2001). Software engineering [25] Grupos de Ingenieria de Software y del conocimiento
— Product quality. [En línea] Disponioble en: de la Universidad de la Palmas de la Gran Canaria.
http://webstore.iec.ch/preview/info_isoiec9126- (1999). Garantía de calidad del software. Gran Canaria:
1%7Bed1.0%7Den.pdf [Consultado:20-Ago-10]. [En línea] Disponible en:
[19] Microsoft Corporation. (2006). La Arquitectura http://serdis.dis.ulpgc.es/~a013775/asignaturas/ii-
Orientada a Servicios (SOA) de Microsoft aplicada al is2/Apuntes/UT09.%20Garant%C3%ADa%20de%20cali
mundo real. [En linea] Disponible en: dad%20del%20software.pdf [Consulta: 16-ago-09]
http://www.willydev.net/InsiteCreation/v1.0/WillyCrawler
/2008.06.07.Articulo.SOA%20Real.pdf [Consultada:11-

364
Modelo de evaluación de software y desarrollo de herramienta CASE
para ingeniería de requisitos.

Andrea Catherine Alarcón Aldana Erika María Sandoval Valero


Universidad Pedagógica y Tecnológica de Colombia Universidad de Boyacá
Cra 16- 1 # 34-06 Tunja (Boy)-Colombia Cra 2a este # 64-169 Tunja (Boy)-Colombia
3002176098 3114569508
acalarcon@gmail.com emsandoval@gmail.com

365
RESUMEN 1. INTRODUCCCIÓN
La mayoría de los procesos de desarrollo de Software El desarrollo de software ha venido ocupando un lugar
involucran en sus fases iníciales la Ingeniería de requisitos importante en la Ingeniería, pero al igual que otras
(IR), fase que ocupa un lugar importante en el proceso de disciplinas, aún presenta fallas y errores; debido a dichos
desarrollo de software, debido a que si el personal fallos se han planteado técnicas y métodos para minimizar
involucrado no conoce con claridad los requisitos, se los problemas identificados en la crisis del software,
incurre en que los resultados obtenidos no sean los acontecimiento por el cual surge la Ingeniería de Software
esperados. Actualmente se cuenta con diversas herramientas [1], presentando así distintos modelos de proceso de
CASE que soportan tareas de IR, por lo cual a veces la desarrollo de software que se ajustan a las necesidades y
selección de la herramienta apropiada es una labor tipos de proyectos requeridos. La mayoría de los procesos
compleja, razón por la que esta investigación plantea un de desarrollo de Software involucran en sus fases iníciales
modelo matemático de evaluación de herramientas de la Ingeniería de Requisitos (IR), fase que ocupa un lugar
ingeniería de requisitos. De igual manera, partiendo de los importante en el proceso de desarrollo de software, ya que
resultados arrojados por la evaluación y comparación al no conocerse con claridad los requisitos por todo el
aplicando el modelo propuesto, se desarrolla la herramienta personal involucrado, se incurre en que los resultados
web RAQUEL, la cual herramienta permite optimizar el obtenidos no sean los esperados, presentando así los
proceso de gestión de requisitos del sistema en un proyecto mismos problemas de hace más de cincuenta años: altos
y obtener el Documento de Especificación de requisitos costos, baja calidad de software, clientes inconformes,
según la norma IEEE 830, así como también es posible incumplimiento de plazos, entre otros.
llevar a cabo un proceso de trazabilidad para hacer el En búsqueda de facilitar las tareas en el proceso de
seguimiento del cumplimiento de los requisitos propuestos desarrollo de software, surgen herramientas informáticas
en el documento durante las fases genéricas de un ciclo de que agilizan la labor desarrollada en la IR y otras fases del
vida. proceso de desarrollo de software. Dichas herramientas son
denominadas CASE (Ingeniería de Software Asistida por
Palabras Clave Computador), las cuales son apoyo para los integrantes del
Requisito, Ingeniería de Requisitos, Gestión de Requisitos, grupo de desarrollo, desde el principio hasta el fin del ciclo
Software libre, Metodología OOHDM. de vida, siendo de interés en esta investigación, aquellas
herramientas de apoyo a la ingeniería de requisitos, las
ABSTRACT cuales durante su ejecución se encargan de tareas tales
The majority of the processes of development of Software como extraer, analizar, documentar, revisar, negociar y
involve in his phases they initiate the Engineering validar los requisitos del sistema en desarrollo.
requirement (IR), phase that occupies an important place in
the process of development of software, due to the fact that Este escrito se enfoca a una etapa primordial en el
if the involved personnel does not know with clarity the desarrollo de software, pues muchas veces los
requirements, one incurs that the obtained results are not the desarrolladores se orientan a actividades básicas
awaited ones. Nowadays one possesses diverse tools CASE concernientes a la Ingeniería de Software, sin adentrarse a
that they support tasks of IR, for which sometimes the lo que realmente se desea obtener al finalizar el proceso;
selection of the appropriate tool is a complex labor, reason porque así como un médico no puede recetar a sus
for which this investigation there raises a mathematical pacientes medicamentos antes de haberle escuchado los
model of evaluation of tools of engineering requirement. Of síntomas que lo aquejan y sin haberlo examinado, los
equal way, departing from the results thrown by the desarrolladores de software no pueden dar soluciones sin
evaluation and comparison applying the proposed model, haber escuchado y analizado los requisitos que solicita el
there develops the web tool RAQUEL, who tool allows to cliente, es decir, en la mayoría de las ocasiones el proceso
optimize the process of management of requirements of the se orienta exclusivamente al diseño y código del programa
system in a project and to obtain the Document of sin tener en cuenta los requisitos del comprador a la hora de
Specification of requirements according to the norm IEEE demandar soluciones a un problema determinado. La
830, as well as also it is possible to carry out a process of Ingeniería de Requisitos es la fase en donde se definen
traceability to do the follow-up of the fulfillment of the claramente todos los requerimientos que ha de solicitar un
requirements proposed in the document during the generic cliente.
phases of a life cycle. La mayoría de los procesos de desarrollo de Ingeniería de
Software involucran en sus fases iníciales tareas como
Keywords planeación, levantamiento de información, determinación
Requirement, Engineering of Requirements, Management de las características que debe cumplir el software,
of requirements, Free Software, Methodology OOHDM. agrupadas en lo que hoy se conoce como Ingeniería de

367
Requisitos (IR), fase que ocupa un lugar importante en el evaluación para una herramienta CARE?
proceso de desarrollo de software, debido a que si el Contando con referencias propias (encuestas, entrevistas y
personal involucrado no conoce con claridad los requisitos, experiencia en el área) y teniendo como base algunos
se incurre en que los resultados obtenidos no sean los estudios realizados por diferentes departamentos
esperados, presentando así los mismos problemas de la encargados de Sistemas de Información [2], se encuentra un
crisis del software. factor fundamental en el momento de conocer las causas
Hoy día existen diversas herramientas que soportan tareas principales de éxito o fracaso de un proyecto de desarrollo
de IR, y a veces la selección de la herramienta apropiada es de software, aspecto en el que se coincide que está
una labor compleja, razón por la cual la investigación relacionado directamente con la identificación y gestión de
llevada a cabo plantea un modelo de evaluación de los requisitos.
herramientas de ingeniería de requisitos. Para la Ahora bien, en el momento de elegir una herramienta que
construcción del modelo se lleva a cabo una investigación permita optimizar las tareas de IR, en el entorno del
hipotético-deductiva, y se tiene en cuenta el concepto del desarrollo de software existe variedad de herramientas de
modelo matemático simple, el cual destaca algunas este tipo y la mejor alternativa (cuando no se cuenta con la
características fundamentales (Funcionalidad, confiabilidad, experiencia o conocimiento de alguna de ellas) es basarse
facilidad de uso, eficiencia, facilidad de mantenimiento, en un modelo que permita evidenciar de manera amplia y
portabilidad) que servirán como variables que permitan la concreta las características que se deben presentar en una
construcción de una fórmula matemática, con el fin de herramienta CARE, para la realización adecuada de
obtener resultados cuantitativos al momento de valorar Ingeniería de Requisitos.
totalmente una herramienta. Es de mencionar que no todos los productos y proyectos de
Así como también, partiendo de los resultados arrojados software requieren de la misma metodología de desarrollo,
por la evaluación y comparación aplicando el modelo aún así, en todos, se debe llevar a cabo la Ingeniería de
propuesto, se desarrolla la herramienta RAQUEL, la cual Requisitos, fase que influye en el éxito ó fracaso del
permite optimizar el proceso de gestión de requisitos a proyecto; como se mencionó antes, es fundamental contar
través de la web, es de mencionar que este es uno de los con herramientas que optimicen este proceso, pero, en
aportes de la investigación, dado que las herramientas muchos casos estas herramientas son propietarias, de
estudiadas y evaluadas no están orientadas a la web, y se escritorio o no manejan las fases relevantes de la Ingeniería
enfocan a otras fases de la IR, dejando de lado un proceso de Requisitos, no cumpliendo con las necesidades del
importante como lo es la gestión de requisitos. La proyecto, desde el punto de vista de quienes utilizan estas
herramienta fue desarrollada siguiendo la metodología de herramientas, generando así, aumento de costos y tiempo,
desarrollo OOHDM (Object Oriented Hypernedia Design pues en ocasiones los integrantes del grupo de desarrollo
Model), y una de sus principales características es que (especialmente los Ingenieros de Requisitos) no se
facilita la comunicación del equipo desarrollador de encuentran en un mismo lugar geográfico, haciendo difícil
software, permitiendo gestionar los requisitos del sistema la integración de la información atinente para la generación
en un proyecto software y obtener el Documento de del documento de especificación de requisitos.
Especificación de requisitos según la norma IEEE 830; por
medio de esta herramienta es posible llevar a cabo un
proceso de trazabilidad para hacer el seguimiento del
2.2 Información relevante
cumplimiento de los requisitos propuestos en el documento, Para poder llevar a cabo el modelo de evaluación se
durante las fases genéricas de un ciclo de vida recopiló información tanto primaria como secundaria; entre
la información que se ha tenido en cuenta están libros,
2. MODELO DE EVALUACION DE artículos y páginas web especializadas en el tema; éstas
CARE fuentes fueron consultadas tanto para determinar
Al hablar de CARE se hace referencia a la Ingeniería de antecedentes de la investigación como para el desarrollo del
Requisitos Asistida por Computador, término que se adopta proyecto, por otro lado, se plantearon diferentes hipótesis
en esta investigación, debido a que actualmente se cuenta para especificar claramente el propósito de la misma. En
con el apoyo de diversas herramientas para agilizar y esta sección se describe la forma en que se desarrollaron las
optimizar las actividades de la fase de Ingeniería de encuestas, actividad principal para la recolección de datos,
Requisitos. En las secciones siguientes se presenta algunas es así como se enuncia una encuesta principal, dirigida a
de las razones por las cuales se opta por proponer un casas de desarrolladoras de software, docentes expertos en
modelo de evaluación de CARE, la descripción del proceso la materia de Ingeniería de Software, especialmente
de construcción del modelo, y las características de la destacando información precisa en cuanto al conocimiento
herramienta que implementa el modelo para permitir hacer y uso de herramientas de Ingeniería de requisitos, también
la evaluación de herramientas de una forma sencilla. destacando el proceso que realizan para hacer la elicitación
2.1 ¿Por qué realizar un modelo de de los requisitos del cliente, y de esta forma contar con una

368
base que ayuda a la elaboración del modelo de evaluación. herramientas de Ingeniería de requisitos se tiene en cuenta
Se enviaron 178 correos electrónicos a docentes de el concepto del modelo matemático simple [7], donde se
universidades de todo el país (Colombia), entre las cuales destacan las características fundamentales de un software
se puede mencionar: La Universidad Nacional de (Funcionalidad, confiabilidad, facilidad de uso, eficiencia,
Colombia, La Universidad del Norte, La Universidad facilidad de mantenimiento, portabilidad), las cuales
EAFIT, Universidad de Los Andes, Politécnico Gran servirán como variables que permitan la construcción de
Colombiano, Universidad de la Sabana, Universidad del una fórmula matemática, con el fin de obtener resultados
Valle, Universidad Autónoma de Colombia, Universidad cuantitativos al momento de valorar una herramienta.
Industrial de Santander. También se realizaron encuestas Para asignar valores a las variables que se han especificado
personales en algunas instituciones como: Universidad en el modelo, se toma como referencia los porcentajes
Pedagógica y Tecnológica de Colombia, Pontificia clasificados en Nada, Bajo, Medio, Alto, para los cuales ya
Universidad Javeriana, Universidad Piloto de Colombia, se han determinado a cuanto equivale en valores
Universidad Católica de Colombia, Organización Zona R y porcentuales, datos que se han obtenido con la encuesta
Fundación Universitaria Juan de Castellanos. De la realizada, y el estudio consignado de cada herramienta
actividad anterior se obtiene que aún conociendo la CARE seleccionada; con estos valores se pasa a
importancia de la fase de Ingeniería de Requisitos en proporcionar estos datos en el modelo.
proceso de desarrollo de software, aún las actividades Contando con los datos obtenidos se tomaron variables
inherentes a esta se realizan de forma empírica, de igual como:i: número de iteraciones, en este caso se toman como
manera que solo un pequeño grupo conoce algunas el número total de ítems dentro de cada característica de
herramientas para el apoyo de la IR y son pocas las calidad.
personas e instituciones que utilizan estas herramientas. X, Y, Z, T, U, M: El valor para cada ítem dentro de la
característica a evaluar, así:
2.3 Construcción del Modelo de Evaluación Funcionalidad (X), Confiabilidad (Y), Facilidad de Uso
Para iniciar la construcción del modelo de evaluación, se (Z), Eficiencia (T), Facilidad de Mantenimiento (U),
recurre a verificar el estado del arte el respecto, hallando Portabilidad (M), esta variable representa cada una de los
que en efecto se han desarrollado diversas evaluaciones de valores por ítem dentro de cada elemento.
software, principalmente software educativo, y en cuanto a Resultado Final (RF): Es la sumatoria de las características
modelos o criterios de evaluación primordialmente se de calidad para obtener el porcentaje.
encuentra el estándar para el aseguramiento de planes de Para llegar a la ecuación final hay una serie de ecuaciones
calidad del IEEE 730:1989 [3], así como también las que tienen que ver con cada una de las características a
normas ISO (Organización Internacional de evaluar y sus subcaracterísticas; acá sólo se mostrará la
Normalización), destacando la familia de normas ISO 9000 primera ecuación (para hallar el valor de la característica
( 9001, 9003-2 y 9126) [4], que en su mayoría establecen Funcionalidad, pero se halla el valor de las demás
criterios generales de calidad que debe cumplir un producto características de la misma manera) y la final:
software, y que sirvieran de base para el estudio. Como se Ecaución 1:
menciona en otros estudios o propuestas de modelos de Ecuación de detalle para hallar el porcentaje de
evaluación [5], en la medida en que los analistas, y en este Funcionalidad
caso también los ingenieros de requisitos, disponen de un
criterio para identificar el software que se corresponde con
sus necesidades y con la solución de los problemas que Para llegar a esta ecuación, se tienen en cuenta una serie de
surgen dentro del proceso de análisis, un modelo de variables que se encuentran como características de este
evaluación de software se convierte en una herramienta factor de calidad, los cuales hacen tener más precisión a la
válida para caracterizar la tecnología de software. hora de dar un porcentaje de funcionalidad para
La encuesta realizada es la base para la construcción del determinada herramienta, se destacan las siguientes:
Modelo de Evaluación, es por ello que se realiza la Idoneidad: Reunión de las condiciones necesarias para
interpretación de los datos obtenidos. Para el análisis de la desempeña una función.
encuesta se presenta un análisis descriptivo, donde se tiene Exactitud: La capacidad del producto de software para
en cuenta las variables a tomar en la investigación, proporcionar resultados correctos o efectos convenidos con
aplicando así mismo la estadística descriptiva [6], la cual el grado necesario de precisión. (Esto incluye el grado
cubre cualquier procedimiento desde el uso de relaciones necesario de precisión de los valores calculados).
(proporción, porcentaje, índice, ratas), hasta poder llegar a Interoperabilidad: La capacidad del producto de software
analizar, organizar y visualizar los datos a través de para interactuar con uno o más sistemas específicos. (Se usa
descriptores, tablas y graficas. la interoperabilidad en lugar de compatibilidad para evitar
En la construcción del modelo de comparación para posibles ambigüedades con reemplazabilidad).

369
Cumplimiento: Es la capacidad que tiene el sistema de
desempeñar las funciones de forma puntual y efectiva.
Extensibilidad: Facilidad de adaptar el producto software a
los cambios de especificación.
Facilidad de reutilización: Es la capacidad de los elementos
del software de servir para la construcción de muchas
aplicaciones diferentes.
Trazabilidad de requisitos: Posibilita la verificación de la
transformación de los requisitos en elementos del modelo
sucesores, así como el análisis y gestión del cambio de ellos
verificando su complitud y coherencia.
Uso de plantillas: Es donde se organiza la información
respectiva de los requisitos.
Integración con otras fases del ciclo de vida: Es la facilidad
que posee el sistema para compartir recursos durante las
fases de ingeniería de requisitos.
Seguridad: estado de cualquier tipo de información
(informático o no) que nos indica que ese sistema está libre
de peligro, daño o riesgo.
Y la ecuación final quedaría de la siguiente manera: Figura 1. Pantalla evaluación Funcionalidad
Ecuación 7.

Representa el porcentaje total de las variables


seleccionadas, haciendo un promedio de las mismas y se
genera finalmente un porcentaje general, que se tomará
como el valor de rendimiento de la herramienta, de acuerdo
a las necesidades y requisitos establecidos por quien evalúa.
Para evidenciar los resultados de la investigación realizada
de una manera tangible se desarrolla un software sencillo,
mediante el cual se implementa el modelo propuesto y de
esta manera realizar las respectivas pruebas que permitan
verificar fiabilidad de los resultados que arroja. La interfaz
se presenta en la Figura 1, en la cual se esta evaluando la
característica Funcionalidad, y las demás características
han sido implementadas de forma similar. En la Figura 2 se Figura 2. Pantalla resultados finales
presenta el resumen de los resultados de evaluación de una
herramienta determinada, sirviendo como guía para el
3. DESARROLLO DE RAQUEL
RAQUEL (Herramienta CASE orientada a la web para
Ingeniero de requisitos en el momento de elegir una
gestión de requisitos), es una aplicación de fácil uso que
herramienta para apoyar las tareas y actividades de esta
fortalece la comunicación entre un equipo desarrollador de
fase.
software, permitiendo gestionar los requisitos del sistema
en un proyecto software que permite automatizar el
Documento de Especificación de requisitos según la norma
IEEE 830, y de igual manera, mediante un proceso de
trazabilidad permite seguir el cumplimiento de los
requisitos propuestos en el documento durante las fases
genéricas de un ciclo de vida.
3.1 Metodología de Desarrollo
De las metodologías de desarrollo de software existentes, se
eligió Object Oriented Hypermedia Design Model
(OOHDM) [8] apropiada para el desarrollo de aplicaciones
web, fácilmente entendible y no resultar ambigua en fases
posteriores del ciclo de vida. Esta metodología o modelo

370
fue diseñado por D. Schwabe, G. Rossi y S.D.J. Barbosa, Al llegar a esta fase, se define los ítems de información que
[9] y se considera como una extensión de HDM (Metodo de son parte del dominio del problema, se identifica también,
diseño de hipermedia). Ésta propone el desarrollo de cómo son organizados los ítems de acuerdo con el perfil del
aplicaciones mediante un proceso de cuatro etapas basicas usuario y su tarea; qué interfaz debería ver y cómo debería
(Diseño conceptual, diseño navegacional, diseño de interfaz comportarse. A fin de implementar todo en un entorno
e implementación), pero, presenta la opción de adicionar Web, se debe d
fases requeridas en un proyecto especifico, en este caso se ecidir además qué información debe ser almacenada, y
adicionó la fase de recolección de requisitos y la fase de finalmente se podrá observar el funcionamiento de la
pruebas, como se observa en la Figura 3. aplicación.
El desarrollo de la aplicación se llevó a cabo utilizando
programación orientada a objetos en el IDE Net Beans de
JAVA, y puesto que la base de datos es relacional, se tomo
la decisión de utilizar Hibernate como herramienta para
realizar el mapeo entre el mundo orientado a objetos de la
aplicación y el mundo entidad-relación de la base de datos.
Se utilizó la técnica denominada ORM (object/relational
mapping), que permite realizar la transición de una
representación de los datos de un modelo relacional a un
modelo orientado a objetos y viceversa. Hibernate facilitó
los procesos para la obtención y almacenamiento de datos
de la base de datos, lo cual redujo tiempo de desarrollo.
Figura 3. Fases implementadas para el desarrollo de Al usar JDBC, se incurre en un proceso complejo, además
RAQUEL que es una actividad dependiente de la estructura de los
datos, además que con el desarrollo de la investigación se
Las cinco fases desarrolladas en el proyecto son descritas a comprueba que es natural y sencillo trabajar directamente
continuación. con objetos, pero con los motores de bases de datos
.0-Recolección de Requisitos relacionales es una tarea casi imposible, y con los motores
En esta parte de la metodología se recolectó información orientados a objetos no se tendría certeza de los resultados
acerca de que es lo que quieren los interesados, para lograr y el tiempo a invertir ya que aun falta mucho por explorar
esto se utilizaron entrevistas, encuestas y otros medios de en este tipo de SGBD.
recolección de información. Después de esto se identifican
los diferentes actores que interactúan con la aplicación, La mejor opción entonces es utilizar un motor de
para luego entregar como evidencia de esta fase ERS los persistencia, que es el componente software encargado de
diagramas de casos de uso y de iteración del sistema. traducir entre objetos y registros. Actualmente se cuenta
1-Diseño Conceptual: con Hibernate, un motor de persistencia de código abierto.
Como es una metodología orientada a objetos, se necesita
establecer una perspectiva del sistema, en esta investigación 5. Aunque la metodología OOHDM no incluye la fase de
se define los sub-sistemas que existirán, sus diferentes pruebas para verificar el funcionamiento de la herramienta
relaciones y se desarrolla el modelo de clases. RAQUEL, se llevaron a cabo pruebas unitarias, pruebas de
2-Diseño de Navegación: integración, pruebas de sistema, además de haberse
En esta fase se describe la estructura de navegación de una validado con el modelo propuesto en la primera parte de
aplicación hipermedia en términos de contextos de esta investigación.
navegación, que son inducidas por las clases de navegación,
tales como nodos, enlaces, índices, y visitas guiadas. Como
también se tienen en cuenta los diferentes usuarios y sus
3.2 Descripción de la Herramienta
tareas, ya que se construye el mapa de la aplicación.
RAQUEL al ser una herramienta web, se identifica por
3-Resumen de diseño de interfaz
tener una estructura básica de página web. En la parte
Fase en la que se establece los diagramas en los cuales se
superior se encuentra un banner o encabezado el cual hacer
observen los eventos que puede provocar el usuario al
referencia al nombre de la herramienta, como se muestra en
realizar una acción (clic, doble clic), como también los
la Figura 4.
posibles estados en que estará un objeto dentro de la
interfaz (oculto, inactivo, reducido, normal, etc.) y los
eventos que ocasionan dicho cambio.
4-Aplicación o implementación

371
Figura 4. Logo y banner de RAQUEL
En la parte inferior tiene pie de página el cual identifica el
nombre al que pertenece la aplicación web y su tipo de
licencia correspondiente.

Menú principal: En todas las sesiones, se presenta un menú


ubicado en la parte izquierda el cual muestra u oculta
opciones correspondientes al tipo de usuario que está
navegando en la página (una sesión de usuario). Por Figura 6. Gestión de partes del ERS
Es de mencionar que así como cada proyecto de desarrollo
ejemplo el contenido disponible para un visitante es el
de software tiene sus propias características y necesidades,
presentado en la Figura 5.
de la misma forma RAQUEL permite quitar u omitir partes
del documento que no sean necesarias, y adicionar partes en
caso que la norma se actualice. De igual manera este
proyecto ha sido desarrollado al interior de un grupo de
investigación cuyo tópico central es el Software Libre, de la
misma manera, los productos de las investigaciones siguen
esta filosofía con el objetivo de dar a conocer los resultados
de las investigaciones, y permitir a otros grupos de
investigación y personas interesadas que contribuyan al
Figura 5. Menú correspondiente a usuario visitante mejoramiento y actualización de ésta y otras herramientas
software.
Usuarios: Para empezar a trabajar en la herramienta, se 4. CONCLUSIONES
debe hacer click en el botón ―registrarse‖, donde presenta el La evaluación y comparación de diferentes herramientas
registro de nuevos usuarios, ver Figura 6. permitió evidenciar algunas fallas y carencias de cada una
de ellas al momento de querer suplir las necesidades del
usuario y en el completo cumplimiento de lo que se desea
obtener, es decir un apoyo frecuente a la hora de
complementar la Ingeniería de Requisitos.

Algunas de las herramientas que apoyan tareas de


ingeniería de requisitos ofrecen un rendimiento que no es
Figura 5. Página registro de usuarios equivalente a un ciento por ciento, puesto que aun existen
puntos que no se toman como relevantes.
Utilizando la misma estructura y diseño de interfaz, se La implementación de un modelo evaluación es una
llevan a cabo procesos como el Registro de empresas, alternativa para los desarrolladores de software, puesto que
autenticación de usuarios, creación de proyectos y les permite tener un referente para seleccionar la
asignación de roles y tareas, y posteriormente llegar al herramienta más adecuada para la fase de Ingeniería de
módulo central de la aplicación, que es la gestión del las Requisitos a la hora de la creación y/o evaluación de un
partes del Documento de Especificación de Requisitos proyecto software.
ERS, siguiendo los lineamientos del estándar 830 del IEEE Raquel, la herramienta orientada a la web para gestión de
(Institute of Electrical and Electronics Engineers) [10], así requisitos, plasma el desarrollo de la investigación, desde
se organiza al ERS según las características de un proyecto un estado de arte que enfatiza en el tema de en gestión de
determinado (ver Figura 6), en trabajo colaborativo, ya que requisitos, pasando por la implementación de metodologías
como se menciona al inicio del documento, esta de investigación y desarrollo de software y resaltar que el
herramienta pretende facilitar la gestión de requisitos uso de herramientas de software libre facilita y mejora el
independientemente del lugar geográfico en el que se desarrollo de software.
encuentren los diferentes integrantes del grupo 5. REFERENCIAS
desarrollador, principalmente los ingenieros de requisitos.
[10] Pressman, R. Ingeniería de Software, un enfoque

372
práctico. 2005, Séxta edición, Ed Mc Graw Hill. ISBN a Distancia)
9701054733 [16] Herrerias, R. Palacios, F. Curso de inferencia
[11] Palacio, J. 2006. Compendio de Ingeniería de Software estadística y del modelo lineal simple. 2007. Delta
- Por qué fracasan los proyectos?. [Versión electrónica] Publicaciones universitarias. ISBN 84-96477-65-7
Recuperado Febrero 2010. Disponible [17] Brito A, K. selección de metodologías para el
en:http://navegapolis.net/files/cis/CIS_1_05.ppt. desarrollo de aplicaciones web. Edición electrónica
[12] IEEE 730-1989. Standard for Software Quality ISBN 13: 978-84-692-6641-0, Disponible en
Assurance Plans; 1989. Piskataway, NJ: IEEE. 1989. www.eumed.net/libros/2009c/584/
[13] Organización Internacional de Normalización – ISO. [18] SCHWABE, D. ROSI, G.; BARBOSA, S. Systematic
Disponible en http://www.iso.org/ Hypermedia Application Design with OOHDM.
[14] Macías, Y, et al. Modelo de evaluación para software Proceedings of the ACM International Conference on
que emplean indicadores métricos en la vigilancia Hipertext (Hypertext'96). Washington DC, March, 16-
científico-tecnológica. ACIMED [en línea], 2009 Vol 20, 1996
20, n 6 [Citado 2010-08-24] pp 125 -140. Disponible [19] Institute of Electrical and Electronics Engineers IEEE,
en : Standar 830-1998 Recommended Practice for Software
<http://scielo.sld.cu/scielo.php?script=sci_arttext&pid Requirements Specifications. E-ISBN: 0-7381-0448-5.
=S1024-94352009001200003&lng=es&nrm=iso>. DOI: 10.1109/IEEESTD.1998.88286
ISSN 1024-9435.
[15] Gómez, M. Elementos de Estadística descriptiva,
primera parte. 1998, Ed EUNED (Universidad Estatal

373
374
Un modelo preliminar de gobierno de tecnologías de información para
universidades colombianas

Carlos Hernán Gómez Rafael Antonio Tejada Lillyana María Giraldo


Universidad de Caldas, Municipio de Manizales, Universidad de Medellín
Universidad Nacional de Universidad de Caldas Cra 87 N 30-65, Medellín,
Colombia, Calle 93 Nro. 29-100, Colombia
Calle 65 N 26-10, Manizales, Colombia lmgiraldo@udem.edu.co
Manizales, Colombia rafael.tejada@gmail.com
ch@ieee.org

ABSTRACT limitaciones de las universidades en países en vía de


With an holistic and top down approach, within the desarrollo en el concierto mundial, como referente en el
framework of corporate governance, through the most proceso de identificación y definición del rol de las TI
important frameworks in information technology dentro de la gerencia y gobierno de las mismas.
governance (ITG) and taking into account specifically the Palabras clave:
IT governance models of higher education institutions, we Gobierno corporativo, gobierno de tecnologías de
propose a initial model of university Governance información, gobierno del conocimiento, Alineamiento
Information Technology (UGIT), this model seeks to estratégico TI, entrega de valor TI, gestión del riesgo TI,
eliminate the complexities of some of the frameworks gestión de los recursos TI, medida del rendimiento TI.
discussed and allow flexible and comprehensive approach
to the field of Colombian universities, without losing the 1. INTRODUCCIÓN
global perspective. It aims to capture the specificities and Históricamente el referente de los informes financiero era
constraints of universities in developing countries in el que daba cuenta de la salud de una organización, a
world, as a benchmark in the process of identifying and partir de allí se creía extrapolar todo el comportamiento
defining the role of IT in management and governance of de la empresa, desde sus rendimientos, su responsabilidad
them. ante los interesados, su nivel de respuesta a la sociedad,
Keywords: pero tal visión es limitada y solo muestra algunos aspectos
Corporate governance, information technology governance, del espectro, su visión restringida resalta la insuficiencia
knowledge governance, IT strategic alignment, IT value explicativa que nos priva de la visión holística integradora
delivery, IT risk management, IT resource management, IT
de todos los elementos con los que debemos contar para
performance measurement.
establecer su verdadero estado.
Recientemente los casos de fraude en grandes empresas
RESUMEN. como Enron, HIH, Tyco, Royal Ahold, Parmalat, por un
Con un enfoque integrador y descendente, en el marco del
lado y el efecto dómino que se está presentando en la
gobierno corporativo, pasando por los más importantes
economía de las grandes potencias mundiales desde el
marcos de referencia en gobierno de tecnologías de
último cuatrimestre de 2008, empezando por la crisis y el
información (GTI) y llegando al nivel de modelos
derrumbamiento de compañías emblemáticas en los países
específicos de gobierno para instituciones de educación
desarrollados, entre otros, muestran la vulnerabilidad de
superior, se propone un modelo inicial de Gobierno de
los enfoques que históricamente hemos utilizado para el
Tecnologías de información en el ámbito universitario
control y seguimiento de las organizaciones.
(GTIU) que busca eliminar las complejidades de algunos
Debemos entender que las empresas son un todo, un
de los marcos de referencia analizados y permitir un
sistema, en el cual debemos analizar todas las
abordaje ágil y completo para el ámbito de las
perspectivas: financiera, del cliente, Interna del Negocio,
universidades Colombianas, sin perder la perspectiva
e innovación y aprendizaje como lo plantean kaplan y
global. Se pretende recoger las especificidades y
Norton [1]. En esta última perspectiva tenemos el capital

375
humano, el capital de la información y el capital factor diferenciador con el cual se puede lograr
organizacional. Entendiendo la importancia de los otros vertiginoso posicionamiento en los mercados locales y
dos, el capital de la información juega un papel especial globales.
dado que es la componente de retroalimentación y El gobierno TI es un concepto que emergió súbitamente y
articuladora de todas las demás componentes y se convirtió en un importante aspecto en las TI, [4]. El
perspectivas de la organización, allí la gestión del gobierno TI se reconoce como una parte integral del
conocimiento se convierte en el cohesionador de esta gobierno empresarial, ―Consiste de liderazgo y estructuras
perspectiva. Las tecnologías de información y y procesos organizacionales que aseguran que las
relacionadas (TI) son impulsoras primarias en el capital de estrategias de la organización en TI soportan y extienden
información y conocimiento corporativo. las estrategias y objetivos de la organización‖ [5].
Las organizaciones deben aprovechar eficientemente los No obstante la reciente aparición de los enfoques de
desarrollos de las TI y apropiarlas estratégicamente para gobierno TI, se ve un gran dinamismo a nivel mundial en
generar importantes ahorros y obtener gran valor agregado busca de la implementación del mismo. En Europa y
de ellas, como por ejemplo las grandes oportunidades que Norteamérica el 50% de las grandes empresas están en
se presentan a las organizaciones con la cloud computing, proceso de implementación o ya tienen implementadas
en la cual de acuerdo con Joyanes, la idea clave es que prácticas de gobierno TI; Sur América aparece con un
los usuarios, las empresas, las grandes corporaciones gran potencial de implementación (43%). En promedio a
acceden a los servicios de TI a través de la ―nube‖ (cloud, nivel mundial el 70% de las grandes empresas son
una red pública generalmente Internet ―La Web‖ o una red consientes de la necesidad del gobierno TI[6].
Intranet); los clientes pueden acceder bajo demanda – El GTI es un importante subconjunto que proporciona
siguiendo el modelo ―gratuito‖ o de ―pago‖ por uso- a un información compartida y tecnología aplicada. Le ofrece a
gran número de recursos informáticos de modo dinámico, las empresas oportunidades de transformar la forma en
dotándose así de una enorme capacidad de procesamiento que hacen negocios y es estratégico para el crecimiento de
y almacenamiento sin necesidad de instalar máquinas las empresas. Esta dependencia e importancia del
localmente, lo que se traduce en considerables ahorros de gobierno TI lo hace parte integral de las responsabilidades
tiempo e incluso de consumo energético [2]. de gobierno de la empresa, no solo para los inversionistas
sino también para los reguladores y auditores. El
2. GOBIERNO DE LAS Gobierno TI ya no es opcional para los negocios [7]. Una
de las nuevas disciplinas a tener en cuenta para el
TECNOLOGÍAS DE INFORMACIÓN desarrollo del gobierno de la gestión del conocimiento en
(GTI) las organizaciones podría ser la investigación en el campo
Las TI han jugado un papel muy importante en los últimos del gobierno de TI [8].
40 años en las organizaciones y se han convertido en un La organización del control es una parte importante de la
gran activo silencioso de las mismas, su utilización ha función de gestión corporativa y se caracteriza como
sido indiscriminada y subvalorada, con un divorcio gobierno corporativo. El gobierno TI es la traducción de
importante entre la alta dirección y el aprovechamiento de esta función hacia las funciones de administración
las mismas, en tal sentido necesitamos establecer enfoques corporativa de los sistemas de información y las
de gobierno sobre estas tecnologías que estén enmarcados tecnologías de información [9]. Si consideramos que el
y alineadas en el contexto del gobierno empresarial y gobierno TI forma parte del gobierno corporativo, se
corporativo [3]. espera un marco de referencia integral para suplir las
Históricamente se ha evidenciado la creciente importancia necesidades de los altos ejecutivos [10]. Un grupo de
que tienen las tecnologías de información y relacionadas investigadores incluyendo a [11]; [12], [13], [14] han
(TI) en las organizaciones, volviéndose indispensable para intentado desarrollar modelos GTI holísticos pero todavía
el desarrollo de las mismas, pero el aprovechamiento de falta mucho para mejorarlos y fusionarlos en un solo
estas tecnologías no ha sido muy consciente del papel proceso de GTI.
estratégico que desempeñan en las empresas, de hecho las Actualmente existen varios enfoques que abordan de
TI han tenido un protagonismo dual en las empresas, a alguna manera conceptos del gobierno de la tecnologías
nivel operativo-táctico y a nivel estratégico, el primero ha de información de forma directa: el estándar australiano
sido evidente y es en el que las empresas han tenido AS8015 proporciona un modelo, los principios y el
mayor incursión hasta llegar a los niveles de convivencia vocabulario para ayudar a implementar un gobierno
trasparente en el ecosistema empresarial, pero el nivel efectivo del uso de las TI en las organizaciones [15], la
estratégico ha sido opacado por el nivel operativo-táctico, norma ISO/IEC 38500 proporciona un marco de
siendo pocas las empresas que han entendido la referencia para el gobierno efectivo de TI, marcando un
proyección de su negocio al utilizarlas de forma reconocimiento global de la importancia de este tema y
inteligente, convirtiéndolas en ventaja competitiva y la necesidad de formalizar su adopción [16], ayuda a los

376
altos niveles de la organización a entender y cumplir con Grembergen en Bélgica identificaron siete prácticas de
las obligaciones legales, éticas y regulaciones respecto al gobierno TI definidas como practicas mínimas en
uso en la organización de TI, recomienda que los empresas de buen comportamiento en cuanto a gobierno
directivos deben gobernar las TI a través de tres TI, con un nivel de madurez superior a 2: comité de
importantes tareas: evaluar, dirigir y monitorear [17], dirección TI, comité de dirección de proyectos, gestión de
Cobit del instituto de gobierno TI (ITGI) es un completo cartera, control y reportes de presupuesto TI, reportes del
marco de referencia que estructura el GTI en cinco áreas oficial en jefe de informática (CIO) al gerente
focales con el fin de proporcionar la información que la general/gerente operativo, metodologías de
empresa necesita para lograr sus objetivos [5], el enfoque gobierno/gestión de proyectos, liderazgo TI [13].
gobierno TI de IBM se divide en varias áreas focales Lufman desarrollo una importante herramienta de medida
denominadas disciplinas de gobierno que representan del alineamiento estratégico diseñando modelos de
diversas responsabilidades en una organización TI madures detallados para seis criterios de alineamiento:
[7],CMMI del SEI (instituto de ingeniería de software) es comunicaciones, medidas de competencia/valor, gobierno,
un marco de referencia de madures y capacidad que asociación, alcance tecnológico y madurez de las
integra modelos para ingeniería de Sistemas, desarrollo capacidades [22]. Los modelos de madurez de Luftman se
integrado de Productos, recursos humanos, adquisición de probaron por Silvius en un conjunto de empresas
Software [18], ITIL es un marco de referencia cuyo alemanas e internacionales, encontró que los puntajes
objetivo es ayudar en la entrega de servicio TI de alta evaluados de madurez del alineamiento Negocio-TI (BIA)
calidad a través del uso generalizado de las mejores fueron mayores de lo esperado y había una diferencia de
buenas prácticas bajo un conjunto integrado de procesos percepción de la madurez BIA entre los profesionales del
orientados a las mejores prácticas para administrar los negocio y los de TI [23]. Beimborn et al en un estudio a 6
servicios de TI [19], entre otros. organizaciones analizan la vinculación entre gestión de
El ITGI ha identificado que el GTI está conformado por beneficios y alineamiento estratégico y su influencia en la
cinco áreas focales: La alineación estratégica se centra en tercerización de TI, identificaron que el aspecto práctico
asegurar el enlace entre el plan del negocio y los planes de más importante del alineamiento operacional es el
TI. La entrega de valor tiene que ver con la ejecución de entendimiento mutuo entre el negocio y TI [24].
la propuesta de valor a través del ciclo de entrega, Bergeron et al utilizando una investigación a través de
asegurando que las TI entregan los beneficios prometidos 110 empresas pequeñas y de tamaño medio propone un
con respecto a la estrategia, concentrándose en la nuevo modelo de alineamiento estratégico con 6
optimización de costos y la provisión del valor intrínseco constructos, desarrolla nuevas medidas de estrategia TI y
de las TI. La administración de recursos trata de la estructura TI, identifica el impacto de los patrones de
inversión óptima, así como la adecuada administración de alineamiento en el rendimiento de las organizaciones [25].
los recursos críticos de TI: aplicaciones, información, Van Lier y Dohmen analizan la vinculación entre gestión
infraestructura y personas. La administración de riesgos de beneficios y alineamiento estratégico y su influencia en
requiere conciencia de los riesgos por parte de los altos la tercerización de TI, analiza los modelos para cada uno
ejecutivos de la empresa, un claro entendimiento del de los aspectos [26]. Van Lier y Dohmen encuentran que
apetito de riesgo que tiene la empresa, comprender los los casos de estudio con mayor alineamiento estratégico y
requerimientos de cumplimiento, transparencia de los beneficio administrativos están ligados al éxito de la
riesgos significativos para la empresa, y la inclusión de las tercerización de TI [26].
responsabilidades de administración de riesgos dentro de Grembergen et al genera una revisión, prioriza los
la organización. La medición del desempeño rastrea y objetivos de TI y los objetivos del negocio, examina
monitorea la estrategia de implementación, la terminación enlaces entre las metas del negocio, las metas de TI y los
del proyecto, el uso de los recursos, el desempeño de los procesos TI, considera las perspectivas del cuadro de
procesos y la entrega del servicio, [5]. mando integral para descomponer los objetivos [27].
Para Brand y Boonen GTI es el sistema por el cual se Bricknall et al compara el cuadro de mando integral de
dirige y controla TI en las empresas. La estructura del esta organización con el modelo SAM y el tradicional
GTI especifica la distribución de derechos y modelo de cuadro de mando integral de Kaplan y Norton,
responsabilidades entre diferentes actores, tales como la encontraron fuertes enlaces entre el negocio y las
junta directiva, los ejecutivos del negocio y de TI, y estrategias TI [28].
detalla las reglas y procedimientos para la toma de Dado que las organizaciones buscan a largo plazo la
decisiones en TI [20]. El gobierno refleja el liderazgo, las administración de beneficios, el estudio de Ward,
estructuras organizacionales y los procesos que las TI encontró que, mientras la mayoría de las organizaciones
hacen sostenible y extienden las estrategias y objetivos se centran en los procesos de administración de beneficios
organizacionales [21]. tempranos al principio de los proyectos, es poco probable
Con base al estudio realizado por De Haes y Van que se centren en la administración de beneficios al final

377
de cada proyecto [29]. Thatcher y Pingry encontraron que solución típica de gobierno está conformada por algunos
las inversiones en TI pueden no dar como resultado de los siguientes ítems: Matrices RACI128, métricas de
mejoras en medidas del valor del negocio, en este estudio efectividad del gobierno, especificaciones de las métricas
ven la inversión en TI como un bien donde la inversión en de operación que definen las métricas del día a día como
TI no crea una ventaja de mercado de la organización una base para ejercer el control sobre los procesos del
[30]. Tallon revisa aspectos acerca del impacto del valor negocio, librerías de política, especificaciones de
del negocio de TI en el rendimiento de la empresa, cumplimiento [34].
encontró una asociación entre el mayor valor del negocio
de TI y las organizaciones con estrategias de negocio
multicentradas [31]. 3. MODELO DE GOBIERNO DE
La investigación en las áreas focales se ha realizado en TECNOLOGÍAS DE INFORMACIÓN EN
aislamiento relativo, no se ha adoptado como un punto de
vista holístico. Para que el GTI sea aceptado como parte EL ÁMBITO UNIVERSITARIO (GTIU)
del proceso de gobierno corporativo de la misma forma
que ha sido aceptado el gobierno corporativo, la El modelo inicial de Gobierno de Tecnologías de
investigación en GTI necesita el desarrollo de modelos información en el ámbito universitario (GTIU) busca
que integren de forma coherente todas las áreas focales de eliminar las complejidades de algunos de los marcos de
GTI, incluyendo la incorporación de métricas. El estudio referencia analizados y permitir un abordaje ágil y
de [32] explora los factores que influyen las estructuras de completo para el ámbito de las universidades
gobierno TI, los procesos y las métricas de los resultados Colombianas, sin perder la perspectiva global. Se
y la construcción de un modelo que relacione estos pretende recoger las especificidades y limitaciones de las
factores a la efectividad de GTI. Dahlberg & Kivijärvi universidades en países en vía de desarrollo en el
analizan las medidas de la efectividad ITG, desarrolla un concierto mundial, como referente en el proceso de
nuevo marco de referencia de gobierno TI y una identificación y definición del rol de las TI dentro de la
herramienta de evaluación para medir la efectividad de gerencia y gobierno de las mismas.
GTI [33]. Peterson presenta una visión holística de GTI, Se espera tener un referente de las universidades en el
considera como aspectos importantes del GTI Figura 6 Gobierno universitario
efectivo los procesos estructurales y habilidades proceso de identificación y definición del rol de las TI
relacionales. Desarrolla un modelo GTI para uso en la dentro de la gerencia y gobierno de las universidades. Este
evaluación de la efectividad de la arquitectura TI. El modelo obedece a un enfoque ecléctico, diseñado para
modelo propone que el GTI está compuesto de entrega de ser flexible, evolutivo y poder ser usado por diferentes
valor TI, habilidad TI, complejidad TI y Valor TI [14]. tipos de universidades en cuanto a tamaño (grandes o
De Haes y Van Grambergen desarrollaron un modelo que pequeñas), tiempo de existencia (antigua o moderna) y
analiza los mecanismos relacionales y su papel en GTI, tipos de gobierno universitario.
examina GTI y los vínculos con estructuras relevantes, Los criterios que orientan el diseño del modelo de GTI
procesos y mecanismos relacionales [13]. para universidades se basan en un enfoque integrador,
Para IBM la perspectiva de gobierno TI se divide en robusto, pragmático y descongestionado, se adapta a los
varias áreas focales que representan diversas procesos, balancea la competencia de prioridades de los
responsabilidades en una organización TI. actores, permite la interacción entre equipos, enfoque
Colectivamente, estas áreas focales se denominan holístico, potencia el nivel de abstracción, focalización
disciplinas de gobierno. Cada una de estas disciplinas continúa en calidad.
conducen a desafíos TI únicos, pero ninguna de ellas
podría darse en forma aislada de las otras entre otros: El GTI como estructura incluye la existencia de funciones
gobierno de finanzas y priorización, gobierno de responsables en la toma de decisiones como los comités
estrategia TI, gobierno de arquitectura empresarial, de dirección, conformados tanto por ejecutivos del TI
gobierno de portafolio TI, gobierno de riesgos y como de la empresa, que se constituyen en el cuerpo de
cumplimiento, gobierno de datos, gobierno de desarrollo, gobierno primario sobre las operaciones de TI, directrices
gobierno de operaciones, gobierno de ciclo de vida [7]. de TI para la organización, proyección presupuestal de los
Cantor y Sanders explican que, si se piensa en el gobierno proyectos TI. Es responsable de traducir las estrategias y
como un proceso, entonces el producto de la ejecución de los objetivos del negocio en planes de acción de acción.
tal proceso deben ser un conjunto de activos tangibles, Garantizar la comunicación efectiva entre todas las partes
con frecuencia llamados artefactos. Se considera el
conjunto de artefactos como la solución de gobierno. Una
sobre una conexión serial o por módem. Este protocolo ha sido
superado por otros como el FTP, SMTP y NNTP

378
de la organización. El establecimiento de políticas, dirección universitaria para tomar decisiones estratégicas,
procedimientos y un lenguaje común a nivel de las TI en entender su apetito por el riesgo y sus motivadores claves
la organización. de desempeño, identificar los puntos críticos en los cuales
se necesita tomar decisiones. La aplicación de la estrategia
3.1 Gobierno Universitario en curso y su pertinencia y éxito deben ser evaluados en
El gobierno universitario es un conjunto de forma periódica.
responsabilidades y prácticas ejercidas por el consejo En la figura 2 se muestra que el GTI está conformado por
superior universitario y la gestión ejecutiva con el objeto tres dimensiones: Estructura del GTI, procesos de
de proporcionar direccionamiento estratégico, asegurar el gobierno de TI y Métricas de resultado TI. Las tres
cumplimiento de los objetivos, establecer una gestión dimensiones están impulsadas por el valor del negocio.
adecuada de los riesgos, verificar el uso responsable y La estructura de gobierno se orienta al logro del
eficiente de los recursos de la universidad ver figura 1. alineamiento de TI con el negocio e incluye mecanismos
La conformidad es un patrón de comportamiento para toma de decisiones, direccionamiento, y políticas en
sistemático de los interesados, administradores y personal cascada. La segunda dimensión, el proceso de gobierno de
de la universidad, que se encuentran concentrados en el TI, está impulsada por la incorporación de rendición de
logro de resultados sociales y financieros sustentables. cuentas en la organización, es decir el establecimiento de
Este comportamiento debe estar dirigido hacia el logro de políticas y procedimientos utilizados para implementar
los cuatro principales activos de la organización: los proyectos de inversión de TI. La tercera dimensión,
Infraestructura, clientes y terceros interesados, personal Métricas de resultado TI, evalúa las otras dos
interno, procesos y la creación de valor. dimensiones para determinar si se han logrado los
resultados esperados.

Figura 2. Gobierno Universitario.

La conformidad está enfocada sobre una visión ex post o


retrospectiva, contribuye directamente con rendición de Figura 7 Componentes modelo de GTI para
cuentas y aseguramiento, cubre aspectos como: universidades
 El papel del Rector como representante legal y máximo El modelo propuesto obedece a un enfoque integrador que
líder ejecutivo de la Universidad ve el GTI como un sistema. Como se ve en la figura 3
 El consejo superior universitario. GTI empieza con proveer direccionamiento de TI, es
 Consejo académico decir, establecer las estrategias de la organización, y
 Comités directivos de alto nivel. objetivos de desempeño. Segundo, se desarrollan y
 Control interno universitario asignan recursos a los proyectos de inversión de TI que
 Gestión del riesgo y auditoría interna. se alinean con estas estrategias. Tercero, se establece un
El desempeño contribuye directamente a la creación de ciclo continuo para medir el desempeño y comparar
valor y utilización de recursos existe una contribución estas medidas con los objetivos, promoviendo el
cruzada entre ellos. Considera todo el espectro para redireccionamiento o ajuste a los objetivos en la medida
asegurar que las metas estratégicas estén alineadas y se de lo requerido. Para tener éxito se debe tener en cuenta
logre la buena gestión. En esta dimensión deben que diferentes contextos estratégicos requieren diferentes
desarrollar un conjunto de herramientas y técnicas de indicadores de valor.
buenas prácticas que necesitan aplicarse de forma Consonante con el referente internacional se establecen
inteligente de acuerdo a la misma naturaleza de la los seis principios de buen gobierno corporativo de TI
universidad. La focalización aquí se da en ayudar a la propuestos por la norma [17]:

379
Responsabilidad. Establece claramente cómo entender las organización, sus factores críticos de éxito, y como
responsabilidades TI. Todos deben comprender y aceptar desarrollar un portafolio sinérgico de capacidades TI.
sus responsabilidades en la oferta o demanda de TI. La Debe promoverse una visión más universal del valor de la
responsabilidad sobre una acción lleva aparejada la información y la tecnología en la organización. La
autoridad para su realización.
comunicación efectiva de las estrategias y políticas de TI
Estrategia. Planear las TI para proporcionar mejor soporte
es crítica para el éxito de las estructuras y procesos de
gobierno TI.
A partir de la visión estratégica centrada en áreas focales,
a nivel de los procesos el modelo de referencia para el
Figura 8 Dimensiones GTIU gobierno de las TI se basa en las 5 perspectivas
propuestas por JISC [35]: gobierno, administración,
recursos, organización y servicios.
Los servicios utilizan recursos que están organizados a
través de la estructura y procesos de la organización. Los
servicios, los recursos y la organización son los
principales componentes de la administración de los
sistemas de información. Las actividades de gobierno son
envolventes y aseguran una efectiva administración y que
las actividades están debidamente alineadas con las
prioridades institucionales.

3.2 Conclusiones y trabajo futuro


a la organización. La estrategia de negocio de la  Las universidades no pueden ser ajenas a los procesos
organización tiene en cuenta las capacidades actuales y de gobierno, el GTI debe entenderse como una
futuras de las TI. Los planes estratégicos de TI satisfacen importante componente del gobierno corporativo, le
las necesidades actuales y previstas derivadas de la proporciona el marco de referencia y la estructura que
estrategia de negocio. vincula los recursos TI y la información con los
Adquisición. Establece la valides de las adquisiciones de objetivos y metas de la empresa, facilita e
TI. Las adquisiciones de TI se hacen por razones válidas, institucionaliza las buenas prácticas para la
con base a un análisis apropiado y continuo, con organización, planeación, adquisición, implementación,
decisiones claras y transparentes. Hay un equilibrio implantación, monitoreo y evaluación del desempeño
adecuado entre beneficios, oportunidades, costes y riesgos de las TI para asegurar que los activos de TI de la
tanto a corto como a largo plazo. empresa apoyen los objetivos del negocio.
Desempeño. Asegura un buen rendimiento de las TI. La  Debemos entender en las universidades que un proceso
TI está dimensionada para dar soporte a la organización, de administración es el resultado de un proceso de
proporcionando los servicios con la calidad adecuada para gobierno. A diferencia de un proceso de gobierno, un
cumplir con las necesidades actuales y futuras. proceso de administración implementa la cadena
específica de responsabilidad, autoridad, y
comunicación que empodera las personas en el
Conformidad. Asegura que las TI están de acuerdo a las quehacer diario. El gobierno se relaciona con la toma
normas. La función de TI cumple todas las legislaciones y de decisiones, mientras que la administración es
normas aplicables. Las políticas y prácticas al respecto asegurarse de los procesos de gobierno empresarial se
están claramente definidas, implementadas y exigidas. ejecuten.
Comportamiento humano. Asegura que las TI respetan los  Par que GTI sea ampliamente aceptado de la misma
factores humanos. Las políticas de TI, prácticas y forma que ha sido aceptado el gobierno corporativo, la
decisiones demuestran respeto por la conducta humana, investigación en GTI necesita el desarrollo de modelos
incluyendo las necesidades actuales y emergentes de todo que acompasen todas las áreas focales de GTI.
el recurso humano comprometido. Tiene en cuenta que los  Como se ha presentado la investigación en GTI en
procesos son llevados a cabo por personas con sus general y para las universidades en particular ha estado
correspondientes necesidades, capacidades y limitaciones. más dirigida a las áreas focales descritas y se ha
Mas que centrarse en los aspectos meramente realizado de forma independiente, no obstante esta
tecnológicos, la gestión de TI debe entender la investigación puede contribuir a la comprensión

380
holística de los componentes de GTI. [9]. Winter, Robert y Schelp, Joachim, Enterprise
Architecture Governance: The Need for a Business to
Las posibles preguntas de investigación que podrían
IT Approach. Fortaleza(Brasil) : ACM, 2008. SIGAPP
considerarse en el futuro respecto a GTI son:
23rd Annual ACM Symposium on Applied Computing.
Puede definirse un modelo holístico que integre las áreas
págs. 548-552.
focales de gobierno de TI específicamente para las
[10]. Dahlberg, Tomi y Kivijärvi, Hannu, An Integrated
universidades?
Framework for IT Governance and the Development
El desarrollo independiente de los procesos de
and Validation of an Assessment Instrument. [ed.]
administración de cada una de las áreas focales dentro de
IEEE Computer Society. s.l. : IEEE Computer Society,
las universidades conducen a una GTI más efectiva?
2006. IEEE Proceedings of the 39th Hawaii
Cuales son algunos métodos prácticos que las
International Conference on System Sciences. pág.
Universidades pueden utilizar para mejorar su GTI?
194b. 0-7695-2507-5.
Como pueden las Universidades evaluar de forma integral
[11]. IT governance maturity and IT outsourcing degree:
la madures de sus procesos de GTI?
An exploratory study. Dahlberg, Tomi y Lahdelma, P.
Que métodos prácticos pueden utilizar las universidades
[ed.] IEEE Computer Society. s.l. : IEEE Computer
para mejorar las medidas de GTI en las áreas focales?
Society, 2007. IEEE Proceedings of the Hawaii
Como pueden desarrollarse modelos de madures para
International Conference on System Sciences. pág.
todas las áreas focales de GTI en las universidades y
194b. 0-7695-2507-5.
como puede medirse con éxito un modelo de madures
[12]. De Haes, Steven y Van Grembergen, IT governance
total de GTI para la universidad?
and its mechanisms. Wim. 27, 2004, Information
Systems Control Journal, Vol. 1.
[13]. De Haes, Steven y Van Grembergen, Analysing the
4. REFERENCIAS Relationship Between IT Governance and Business/IT
Alignment Maturity. Wim. 2008. Proceedings of the
[1]. Kaplan, Robert S. y Norton, David P. The Balanced 41st Hawaii International Conference on System
Scorecard: Translating strategy into action. s.l. : Sciences - 2008.
Harvard Bussiness School, 1996. [14]. Peterson, Ryan, Crafting information technology
[2]. Joyanes A., Luis, La Computación en Nube (Cloud governance. [ed.] Taylor & Francis. 4, 2004,
Computing):El nuevo paradigma tecnológico para Information systems management, Vol. 21. 1058-0530
empresas y organizaciones en la Sociedad del .
Conocimiento. 76, 01-04 de 2009, Icade, pág. 95s. 02 [15]. Australian Standard. AS8015 Corporate governance
12-7377. of information and communication technology. 2005.
[3]. Gomez G., Carlos Hernan y Cuesta I., Carlos Alberto, 0-7337-6438-X.
Una perspectiva del gobierno de tecnologías de [16]. IT Governance Institute. ITGI Enables IS0/IEC
información en el marco del gobierno corporativo. 38500:2008 Adoption. Rolling Meadows : s.n., 2009.
Centro Editorial Universidad de Caldas, 2009, Vector. págs. 1-19.
1909-7891. [17] ISO/IEC. ISO/IEC 38500:Corporate governance of
[4]. IT Governance Institute, IT Governance: Moving information technology standard. 2008.
from IT governance to enterprise governance of IT. [18]. CMU/SEI CMMI. CMMI for Development version
Wim. 2009, ISACA Journal, Vol. 3. 1.2. 2006.
[5]. De Haes, Steven y Van Grembergen, IT Governance [19]. Office of Government Commerce UK. The official
Institute. Cobit 4.1. [ed.] IT Governance Institute. introduction to the ITIL service lifecycle. [ed.] TSO.
Rolling Meadows : IT Governance Institute, 2007. pág. 2007.
213. 1-933284-72-2. [20]. Brand, Koen y Boonen, Harry. IT Governance based
[6]. PricewaterhouseCoopers. IT Governance Global on Cobit. s.l. : Van Haren Publishing, 2004. 90-77212-
Status Report—2008. ITGI. 2008. págs. 1-73. ISBN 19-1.
978-1-60420-064-5. [21]. Raghupathi, W., Corporate governance of it:a
[7]. Mueller, Lynn, y otros. IBM IT Governance framework for development. ―RP‖. [ed.] ACM. 8,
Approach: Business Performance. s.l. : IBM, 2008. 2007, Communications of the acm, Vol. 50, págs. 94-
Red Book. 99.
[8]. Rouyet, Juan Ignacio Ignacio y Joyanes, Luis, [22]. Luftman, Jerry.,Achieving IT-Business Strategic
Applying IT Governance Concepts and Elements to Alignment: Aligning it with the business strategy. [ed.]
Knowledge Governance: An Initial Approach. 2009, Inc Taylor \& Francis. 4, 2003, Information Systems
Communications in Computer and Information Management, Vol. 20, págs. 9-15. 1058-0530 .
Science, Vol. 49, págs. 258-267. [23]. Silvius, A.J. Gilbert, Business and IT alignment in

381
theory and practice. [ed.] IEEE Computer Society. Empirical Investigation into Current Practice. [ed.]
Hawaii : IEEE Computer Society, 2007. 40th Hawaii IEEE Computer Society. s.l. : IEEE Computer Society,
International Conference on System Sciences. pág. 2007. Proceedings of the 40th Hawaii International
211b. 1530-1605. Conference on System Sciences. pág. 206a . 1530-
[24] Beimborn, Daniel, y otros, The Influence of 1605.
Alignment on the Post-Implementation Success of a [30] Thatcher, Matt E. y Pingry, David E., Modeling the
Core Banking Information System: An Embedded Case IT value paradox. [ed.] ACM. 8, 7 de 2007,
Study. [ed.] IEEE Computer Society. s.l. : IEEE COMMUNICATIONS OF THE ACM, Vol. 50, págs.
Computer Society, 2007. Hawaii International 41-45. 0001-0782.
Conference on System Sciences. pág. 234b. 1530- [31]. Tallon, Paul P., Does IT pay to focus? An analysis
1605. of IT business value under single and multi-focused
[25]. Bergeron, François, Raymond, Louis y Rivard, business strategies. [ed.] Butterworth-Heinemann. 3,
Suzanne, Ideal patterns of strategic alignment and 2007, The Journal of Strategic Information Systems,
business performance. [ed.] Elsevier Science Vol. 16, págs. 278-300. 0963-8687.
Publishers B. V. 8, 2004, Information and [32]. Bowena, Paul L., Decca, May-Yin Cheung y
Management, Vol. 41, págs. 1003-1020. 0378-7206. Rohdeb, Fiona H., Enhancing IT governance practices:
[26]. Van Lier, Joost y Dohmen, Ton, Benefits A model and case study of an organization's efforts.
Management and Strategic Alignment in an IT 2007, International Journal of Accounting Information
Outsourcing Context. [ed.] IEEE Computer Society. Systems, Vol. 8, págs. 191-221.
Hawaii : IEEE Computer Society, 2007. Hawaii [33]. Dahlberg, Tomi y Kivijärvi, Hannu. An Integrated
International Conference on System Sciences. pág. Framework for IT Governance and the Development
2006b. 1530-1605. and Validation of an Assessment Instrument. [ed.]
[27]. Wim Van, De Haes, Steven y Van Br, Hilde, IEEE. s.l. : IEEE, 2006. IEEE Proceedings of the 39th
Prioritising and linking business and IT goals in the Hawaii International Conference on System Sciences.
financial sector. Grembergen, [ed.] IEEE Computer pág. 1 10. 0-7695-2507-5.
Society. s.l. : IEEE Computer Society, 2007. 40th [34]. Cantor, Murray y Sanders, John D. IBM Operational
Annual Hawaii International Conference on System IT governance. [En línea] 15 de 05 de 2007.[Citado el:
Sciences. Vol. 40, pág. 235a. 0-7695-2755-8. 01 de 07 de 2008.]
[28]. Bricknall, Richard, y otros, Aligning IT Strategy http://www.ibm.com/developerworks/rational/library/may
with Business Strategy through the Balanced Scorecard 07/cantor_sanders/.
in a Multinational Pharmaceutical Company. [ed.] [35]. JISC. A Framework for Information Systems
IEEE Computer Society. 2007. Proceedings of the 40th Management and Governance. [En línea] 2007. [Citado
Annual Hawaii International Conference on System el: 15 de 07 de 2009.]
Sciences. pág. 235b. 1530-1605. http://www.ismg.ac.uk/Framework.aspx.
[29]. Ward, John, De Hertogh, Steven y Viaene, Stijn,
Managing Benefits from IS/IT Investments: An

382
Modelo para la Industrialización de Software en el Triángulo del
Café:Una Apuesta Productiva de Región

Cuesta, Albeiro alcuestame@unal.edu.co Joyanes, Luis


Alsus It Group S.A Lopez, Marcelo Universidad Pontificia de
gerencia@alsusitgroup.co Universidad de Caldas Salamanca C.Madrid
m mlopez@ucaldas.edu.co joyanes@upsam.net
Universidad Nacional de
Colombia - Manizales

383
RESUMEN
El modelo para la Industrialización de Software en el
Triángulo del Café, busca establecer una alternativa
productiva que permita el desarrollo económico y
social de la Región denominada ―Triangulo del
Café‖,ubicado en la parte central de Colombia en la
llamada Región Andina, compuesto por los
Departamentos de Caldas, Quindío y Risaralda, a través
de la consolidación de una Industria basada en el
Conocimiento como es la Industria de Software, partiendo
de las lecciones aprendidas de los componentes exitosos
endógenos de la Región que deben estar presentes en
dicho modelo y los componentes de los Modelos de éxito
Internacionales de los países que hoy son potencia en esta Figura 1. Proyección de la Industria alrededor de TIC,
importante industria, para amalgamarlos en una realidad Fuente: [1]
autóctona pero con mirada hacia el mundo,
permitiendo establecer una Industria de Software de
Talla Mundial en el Triángulo del Café – Colombia..
Palabras Clave:
Calidad, mercado, vigilancia tecnológica, investigación
e innovación, infraestructura e infoestructura,
emprendimiento, responsabilidad social, políticas.
1. INTRODUCCIÓN
La industria del software se ha venido consolidando como
uno de los principales renglones de la economía del siglo
XXI, según [1] para los próximos 10 años se
moverán 18.180 billones de dólares (Figura 1) en
temáticas tan diversas como: Figura 2. Modelo de Industrialización de Software
educación virtual, gobierno electrónico, convergencia
digital, Web 2.0 y Web 3.0, entretenimiento, negocios y En la Figura 2, se presenta el modelo bajo un enfoque
generación decontenidos entre otros. La industria y las sistémico, donde cada elemento o componente es
naciones que han tenido éxito en la industrialización del interdependiente y a su vez está interrelacionado con los
software como India, Irlanda, Estados Unidos, China, demás, lo que se simboliza a través del resplandor en
Rusia, entre otros, se han caracterizado por adelantar color azul que representa las interconexiones entre los
políticas e institucionalidad a corto, mediano y largo subsistemas del modelo. Además se presenta el tema de
plazo con el propósito de fortalecer la infraestructura conocimiento en forma integrada y transversal a todo el
tecnológica, reglamentar incentivos y regímenes modelo, por considerar la industria de software como
tributarios, potenciar la formación académica y el industria de conocimiento, que es precisamente la apuesta
talento humano, incorporar modelos de aseguramiento de que plantea la Región.
la calidad de reconocimiento mundial y atraer formas de El esquema se plantea sin delimitantes en su exterior
inversión extranjera. Se plantea a continuación un significando que es un sistema abierto y en permanente
modelo propio de industria de software para una Región comunicación con el entorno, es dinámico y receptivo
de Conocimiento, fundamentado en fortalezas endógenas a adaptarse a los permanentes cambios que genera el
y con elementos internacionales referenciados de países mercado en su creciente demanda de innovaciones y
que hoy son potencia en esta promisoria industria transformaciones acordes a las necesidades de
información y entretenimiento que nos acercan a un
mundo que requiere cada vez mas situaciones en tiempo
real utilizando el dispositivo que esté a su alcance para
estar en línea con el mundo tratados de manera
transversal con lineamientos de calidad logran alcanzar
el objetivo propuesta de una manera eficaz y eficiente.
Los componentes que se pueden considerar dentro del
alcance o la línea de acción de la Calidad de Software
son realmente muchos y muy variados, considerar por

385
ejemplo el papel fundamental de los programas de medir el esfuerzo y la calidad del trabajo utilizado en
computador, sin una lista de instrucciones a ejecutar determinados proyectos; superadas estas dificultades
definidas por un lenguaje de programación, los facilitará realizar una mejor planeación y proyección
computadores u ordenadores son realmente inútiles[3], la en el desarrollo de nuevos proyectos. Son muchas las
forma deprogramar, los métodos de programación, las problemáticas que pueden llevar al surgimiento de un
nuevas tendencias, etc, son elementos que de alguna proyecto de desarrollo de software, entre las cuales cabe
forma deben ser considerados y abordados para hablar destacar: incorrecciones, toma de decisiones, falta de
de Calidad de Software. La demanda de productos y control,exceso de gasto, costos de mantenimiento y
servicios relacionados con Tecnologías de Información evaluación de nuevos métodos; por consiguiente la
y Comunicaciones (TIC), especialmente en el campo del medición ayuda a superar algunos de los problemas
software, viene aumentando considerablemente en los proporcionando:requerimientos verificables, expresados
últimos años, tanto en Empresas como en en términos medibles, evidencias cuantificables para
Organizaciones el uso intensivo de las TIC, han apoyar las decisiones, mayor visibilidad en el desarrollo e
convertido dichas tecnologías en un factor clave y que identificación anticipada de problemas, realización de
gestionadas de manera correcta aportan valor a la predicciones de costo y plazo justificables, estrategias de
Organización[4], al tener un aumento en la demanda y prueba e identificación de los módulos problemáticos, y
por consiguiente en la oferta, la Calidad de Software debe valoración de los efectos en la productividad y
ser una característica requerida en productos y servicios. calidad. Sin embargo, con el paso del tiempo, los
Los modelos de calidad plantean y contemplan el tema de problemas que se generan en el desarrollo de software
las Métricas o Mediciones de software, sin y embargo no han ido disminuyendo, sino por el contrario, éstos
y dada su importancia en este caso podemos han aumentado y cada día aparecen nuevos problemas
considerarlo uno de los componentes claves si queremos conforme se utilizan nuevas herramientas y tecnologías.
hablar de calidad. La necesidad de medir es evidente, El incumplimiento de los plazos de entrega y el aumento
desde el comienzo de su historia en la mayoría de las del costo del software constituyen la regla más que la
actividades técnicas o científicas como medio para excepción. Hoy en día es impensable, en cualquier
evaluar, controlar o predecir, es claro que la ingeniería negocio, mejorar de manera consistente sin disponer de
del software no constituye una excepción. La propia una base cuantitativa, ya que esta nos ayuda a una mejor
filosofía de la ingeniería de software implica un interés evaluación, planificación, gestión y control de procesos en
claro por controlar y predecir el desarrollo y el el entorno en que nos desempeñemos.
mantenimiento del software. Además, el ingeniero de
Software puede utilizar la medición para ayudar a 2.2 Mercado
evaluar la calidad de los productos de trabajos técnicos y El desarrollo de Mercado debe entenderse como la
para ayudar en la toma de decisiones tácticas a medida integración de esfuerzos encaminados a la aceptación,
colocación, uso y consumo de los productos y servicios
2. DESCRIPCIÓN GENERAL DE LOS que ofrecerá la industria en los segmentos objetivo, lo que
COMPONENTES implica que las acciones de mercado deben estar
articuladas en un Plan Estratégico de Mercadeo y
2.1 Calidad. Ventas (PEMV) que servirá como guía para las
actividades comerciales, a continuación se presentan los
El tema de Calidad se constituye en un componente elementos base para su construcción.
transversal para la Industria de Software en cualquiera de Elementos para la construcción del Plan de Mercado .El
sus niveles. Hasta hace muy poco este elemento era análisis de la siguiente información debe conducir al
realmente un valor diferenciador en la Industria, sin planteamiento de estrategias para obtener ventajas
embargo, y gracias al desarrollo de una creciente competitivas que orienten el rumbo del desarrollo de la
Industria a Nivel Mundial, este componente pasa a ser Industria, a continuación se presentan los elementos
un requisito mínimo parasatisfacer la amplia demanda base que permitirán la construcción del plan de Mercado
mundial de servicios y productos de software, como para la Industria de Software en el Triángulo del café [5]
también una exigencia de los sectores público y privado
a nivel local e internacional. La Calidad de Software se
puede definir, como el grado en el que el software posee
una articulación definida y deseable de atributos de
calidad [2], considerando entonces una cantidad de
componentes interdependientes pero interrelacionados
entre sí, que que un proyecto evoluciona. Se ha
encontrado gran dificultad en el momento de cuantificar o

386
creciente con influencia en todos los sectores de la
Economía, que permite vislumbrar las grandes
oportunidades existentes para las empresas
especializadas en desarrollo Lograr una posición
competitiva exige de las empresas productoras de
software el manejo eficiente de las variables críticas de
éxito en el mercado, tales como tiempo, costo y calidad;
además de aprovechar el conocimiento y los nichos de
mercado específicos, a partir de las potencialidades
internas de las regiones, haciendo de la especialización
Figura 3. Bases Conceptuales Plan de Mercado en la producción de software como diferencial
competitivo
Bases Estratégicas. Para la realización de este ejercicio,
se propone el análisis de fuerzas competitivas de Porter
una herramienta esencial para la identificación de
2.4 Investigación e Innovación
estrategias. Se apoya en el concepto que la Industria
La Industria del Software a nivel mundial requiere una
defina su comportamiento estratégico según el juego de
permanente innovación no solo de sus procesos,
fuerzas del sector competitivo.
además de sus productos, sin embargo para pensar en
Bases Cuantitativas
innovar el punto de partida necesariamente debe ser la
• Focalización
investigación, es decir, la innovación sustentada en la
• Segmentos, Priorización y definición de
investigación, permite cambios y transformaciones con
segmentos objetivo. La segmentación de mercados es una
soporte científico. Un elemento de fundamental
de las herramientas analíticas más importantes en el
importancia considerado en el contexto internacional es
diseño de una estrategia de mercadeo y venta. También
el desarrollo científico y tecnológico con que cuente el
en el mercado de tecnología este recurso es esencial
país. Por este motivo, se evalúa la inversión en
puesto que las soluciones tecnológicas se demandan
Investigación y Desarrollo (I+D), aunque en otras
para atender problemáticas específicas de los usuarios.
latitudes, consideran el concepto de inversión en
El mercado de tecnología es un mercado de soluciones,
actividades de ciencia, tecnología e innovación (ACTI),
esto hace muy exigente el proceso de segmentación.
que es la sumatoria de la inversión en: I+D, formación
Bases Financieras
avanzada, servicios científicos y tecnológicos, e
• Costos del PEMV
innovación; actividades, todas, que contribuyen al
• Definición del Presupuesto
desarrollo científico y tecnológico. Según los datos
Bases Tácticas
suministrados por el Observatorio de Ciencia y
• Calendario de Negociación
Tecnología, la inversión en ACTI en Colombia alcanzó
• Estrategias Puntuales (Eventos de Apoyo)
en el 2005 el 0.52% del PIB, y para el 2006 bajó al
0.47%. Mientras que la inversión en I+D como porcentaje
2.3 Vigilancia Tecnológica en la del PIB ha estado estable en los últimos cuatro años
Producción de Software - VTPS alrededor del 0.18%, mucho más bajo que los porcentajes
de los Países líderes de la industria
La Vigilancia Tecnológica para Producción de Software
(VTPS), hace referencia a la necesidad de considerar las 2.5 Infraestructura e info-estructura
nuevas tendencias para el desarrollo de software a escala Las TIC‘s contribuyen en gran medida a la evolución
industrial. de un país.
―La vigilancia tecnológica es un proceso organizado, ―Conectividad se refiere a la integración global entre la
selectivo y permanente, de captar información del infraestructura de tic de un país - la incorporación de
exterior y las telecomunicaciones, así como los sistemas de
de la propia organización sobre ciencia y tecnología, hardware, software, y los usuarios finales, incluidas las
seleccionarla, analizarla, difundirla y comunicarla, para diversas habilidades que necesitan las personas para
convertirla en obtener el mejor uso de las herramientas.‖ [6].
conocimiento para tomar decisiones con menor riesgo Infraestructuras son las redes de comunicación, las
y poder anticiparse a los cambios.‖ ESI Center Andino. personas, la inversión en formación, los activos
La industria global del software se presenta como una complementarios, tales como los servidores, internet,
oportunidad para el desarrollo de las regiones, ha hosting y software. La primera encuesta de Tic‘s
mostrado en los últimos años un desarrollo acelerado y realizada por el DANE1 fue en el año 2001,

387
posteriormente en 2008 se realizó una compilación de 13,82% y nuevos empresarios de 11,73%. Estas cifras
Indicadores relacionados con las TIC‘s para conocer el indican que la actividad emprendedora de nuestro país se
nivel de uso y penetración en hogares, empresas de viene manifestando con mucha fuerza, el porcentaje de
tipo industrial, comercial, empresas que participan en actividades
De servicios y microestablecimientos, lo anterior con ―media o alta‖ tecnología es del 7,42%, lo que
datos de estudios realizados durante los años 2006 a demuestra que Colombia y Uruguay, son los países con
nivel Total Nacional y 2007 en 13 áreas metropolitanas los resultados más altos en este indicador, para toda
de Colombia. América Latina y posiciona a nuestro país en el selecto
―En el 2008 para el Total Nacional, el 83,8% de los grupo en los niveles más altos a nivel mundial en dicha
hogares poseía teléfono móvil (celular), frente al clasificación.
Departamento Administrativo Nacional de Colombia se encuentra permanentemente en los primeros
Estadística -DANE- Entidad responsable de la puestos a nivel mundial en tema de emprendimiento, al
planteamiento, levantamiento, procesamiento, análisis y igual que ―curiosamente‖ países Latinoamericanos como
difusión de las estadísticas oficiales de Colombia. 17,7% Perú y Bolivia que en este caso ocuparon el primer y
en 2003. En la cabecera en 2008, el 87,5% tenía segundo puesto. Otro indicador bien importante es que
celular, comparado con el 21,8% en 2003. En el resto, en el 92% de la población Colombiana considera que ser
2008 el porcentaje pasó de 70,8% a 4,6% en 2003. En empresario es una alternativa de carrera deseable y
2008 en el Total Nacional, el 77,2% de los hogares donde válida, es decir, que existe una interesante disposición
el jefe del hogar devengaba entre 0 y menos de 1,5 hacia el emprendimiento como actividad reconocida y
salarios mínimos tenía teléfono móvil,mientras que en los considerada muy importante, además el
hogares donde los jefes reciben emprendimiento es una actividad que en nuestro país
mayores ingresos laborales, la tenencia supera el 90%.‖ genera reconocimiento social, los Colombianos ven a los
[7]. emprendedores como personas que tienen un status alto
y generan respeto dentro del medio en el que se
2.6 Asociatividad desenvuelven.[9]
Es un elemento de colaboración y ayuda entre varios En Colombia se aprobó la Ley 1014 del 26 de Enero
individuos, empresas o comunidades, donde se toma la de 2.006, con la cual se busca fomentar la cultura
libre decisión de participar activa y solidariamente en Empresarial y de Emprendimiento a nivel Nacional. Para
búsqueda de una meta u objetivo en común. Los modelos ello el Estado asume un compromiso definitivo con este
de asociatividad han estado presentes en la evolución importante componente que para el caso del Modelo de
del hombre con el fin de buscar bienestar a partir de los Industrialización de Software en el Triángulo del Café, se
esfuerzos de cada participante para beneficio de una considera fundamental, puesto que las ideas de negocio
comunidad. orientadas a nuevos productos y servicios de software,
―Sin embargo, en el campo Empresarial los modelos deben hacer parte de la Industria, perfilando a los
de asociatividad,no son tan generalizados, Emprendedores a desarrollar su Empresa dentro del
principalmente por falta de incentivo por parte del modelo propuesto.
Estado y por falta de cultura de cooperación existente Uno de los compromisos fundamentales del Gobierno
en la mayoría de las PyMEs‖[8]. Nacional fue el de crear la Red Nacional de
Algunas organizaciones, tanto de los Gobiernos como de Emprendimiento, definiendo responsabilidades y actores
carácter privado, han realizado un esfuerzo para proponer institucionales que garanticen el cumplimiento
e incentivarel agrupamiento de las empresas, pero para de los objetivos propuestos. Dicha Red Nacional fue
lograrlo definitivamente es necesario un cambio radical adscrita directamente al Ministerio de Industria, Cultura y
en los empresarios de la Región y algo de formación en Turismo del País.
los modelos existentes de asociatividad Empresarial
2.8 Políticas de Gobierno
2.7 Emprendimiento
El emprendimiento se convierte en la oportunidad de Después de analizar los países que hoy son potencia en
nutrir con mano de obra calificada la Industria de la Industria de Software, podemos afirmar claramente que
Software local, aprovechando la fortaleza del número de ese desarrollo no habría sido posible sin que se
Instituciones Educativas que están formando profesionales considerara una apuesta definitiva para cada país, es decir,
en las áreas de TIC. a nivel de Gobierno o de Políticas de Gobierno se ha
En Colombia, la tasa de actividad emprendedora (TEA) desarrollado la Industria en cada uno de los países que
fue del 24,52% para el año 2.008, representada en una hoy son Potencia en este sentido.
distribución de nuevos emprendedores equivalente al La Apuesta productiva de dichos países ha considerado

388
el componente de Políticas de Gobierno, como un desarrollo de un marco legal e institucional que
elemento fundamental para su desarrollo. En nuestro fortaleciera, los procesos de innovación y la
caso Colombia a través de diferentes gobiernos ha articulación de la oferta y demanda tecnológica. A partir
venido acomodando sus políticas hacia esta importante de esta motivación se generan el Sistema Nacional de
Industria, donde la Directiva Presidencial 02 de 2.000 Ciencia y Tecnología – SNCyT (Ley 29 del año 1990 y el
[10], podría considerarse como la ―Piedra Angular‖ de Decreto 585 de 1991) y el Sistema Nacional de
dicho proceso, puesto que a través de ella se inicia el Innovación – SIN (Conpes 2789, 1995), con los cuales
tema de Gobierno en línea en Colombia, con proyectos se busca la integración de diferentes organismos como
específicos orientados al tema de infraestructura en el gobierno, el sector productivo, la academia entre
TIC, incluido el proyecto Compartel que permitió de otros.
alguna forma la conexión a internet en todo el país En los inicios de los años 90 se adelantó esta política
Este camino hacia el desarrollo Tecnológico y de buscando integrar el sector privado al funcionamiento de
Infraestructura en TIC, se muestra fortalecido con la Ciencia y Tecnología (CyT), mediante su
elementos tan contundentes como el Plan Nacional de participación en once consejos nacionales, encargados
las Tecnologías de Información y las Comunicaciones – de formular las políticas para igual número
PLANTIC-, donde ―el Gobierno Nacional ha de áreas; adicionalmente buscó apoyar la formación de
considerado estratégicas centradas en TIC para fomentar recursos humanos y fomentar la articulación a redes
la competitividad y la igualdad de oportunidades en internacionales de CyT (Conpes 2739, 1994). Para el
Colombia. Por ello se ha fijado como objetivo que, en período 1994-1998, con la Misión de los sabios se
el 2019, todos los colombianos estén conectados e propuso ―integrar la CyT a los diversos sectores de la
informados haciendo uso eficiente de las TIC para vida nacional, buscando incrementar la competitividad
mejorar la inclusión social y la competitividad‖, del sector productivo en el contexto de una política de
asignando recursos y movilizando los actores internacionalización de la economía, y mejorar el
fundamentales para lograr dicho propósito. Durante el bienestar y la calidad de vida de la población colombiana‖
proceso de construcción del Plan, se realizaron (Conpes 2739, 1994, p. 4). Adicionalmente se toman
adicionalmente reuniones con diferentes instancias del medidas para aumentar la inversión pública y privada
sector público y privado para lograr la coordinación y en CyT proponiendo por medio de él, el incremento
alineamiento con la visión Colombia 2019, con el Plan de un 0,5% del producto interno bruto (PIB) en el año
Nacional de Desarrollo 2006-2010, con la Política 1994 hasta el 1% en 1998. A partir de ello, nacen los
Nacional de Competitividad, con el Plan de Ciencia y Centros de Desarrollo Tecnológico (CDT); las
Tecnología y con el Programa Estratégico de Uso de incubadoras de empresas de base tecnológica (IEBT), los
Medios y Tecnologías de la Información y la centros de productividad (CDP) y los parques
Comunicación (MTIC) en la Educación Descripción. tecnológicos. También se generan instrumentos
Pero definitivamente la realidad más importante y que le financieros y de fomento a la innovación como el capital
ofrece todo el apoyo e impulso a la Industria de software semilla, los fondos de cofinanciación, los incentivos
Colombiana, es el hecho que el Gobierno Nacional a tributarios para la inversión en CyT y los fondos de
través del Ministerio de Cultura, Industria y Turismo, capital de riesgo.
haya considerado al Software como uno de los Por medio del Conpes 3080 del año 2000 se formula un
sectores estratégicos de talla mundial, donde se desarrolló marco de política centrado en la articulación y el
incluso el Plan de Negocios para impulsar la Industria del fortalecimiento del SNCyT para el período de los años
Software en nuestro país. 2000-2002 con el cual se propone ampliar y consolidar
Otra de la Políticas de Gobierno fundamentales para esta objetivos y estrategias anteriores e incorporar otros,
Industria de conocimiento como lo es la Industria de como el apoyo a la agenda de conectividad —para
Software, es la Política de Ciencia y Tecnología, aprovechar las Tecnologías de la Información y la
puesto que en la actualidad el conocimiento y sus Comunicación (TIC), para el desarrollo del país—, la
variadas aplicaciones son elementos centrales para el puesta en marcha del Fondo Nacional de Productividad y
desarrollo económico y social de las industrias Competitividad, la especialización y articulación de
contemporáneas, las cuales reconocen que el poder fuentes de financiación de innovación. Finalmente, con
tecnológico es un factor de diferenciación que permite el Conpes 3280 de 2004 se proponen alternativas para
mejorar la posición competitiva en un largo plazo. Se mejorar la información, coordinación y
constituye esta Política en un elemento relevante para el complementariedad de las fuentes e instrumentos de
desarrollo industrial. apoyo a las empresas, además del seguimiento y la
Esta fue generada a partir del año 1990 cuando se evaluación de los resultados obtenidos. Sin embargo estos
incrementó el interés por mejorar la productividad y mecanismos de promoción han sido poco difundidos
competitividad de la industria, conduciendo al y carecen de comprensión y aprovechamiento

389
por parte del sector productivo, generando más Normativo, este componente está integrado por el
necesidades en cuanto a herramientas eficientes para la conjunto de leyes y normas generales que las diferentes
generación de un ambiente instancias del estado orientan para regular el
productivo capaz de responder a las exigencias de la funcionamiento de las empresas, los mercados y la
globalización. Ante ello, recientemente se ha competencia, es decir, seconsidera el marco externo
promulgado la Ley 1286 de Ciencia, normativo.
tecnología e innovación, por la cual se busca fortalecer Operacional, en este componente se consideran los
los incentivos brindados en el pasado y para lograr que las elementos que hacen referencia a la producción de
actividades de ciencia, tecnología e innovación sean bienes y la prestación de servicios de acuerdo a sus
efectivamente la base de la Política Nacional de objetivos y las metas definidas por la empresa.
Competitividad. Económico, considera todas las variables micro y
Adicional a lo anterior, es necesario reconocer que el macroeconómicas que afectan el nivel de rentabilidad de
conocimiento tal como lo plantea la Visión para el año la Organización, su nivel de gastos, de ventas, etc.
2019 de Ciencia, Social, este componente está directamente relacionado
tecnología e innovación debe producirse, difundirse, con el tema de la RSE, puesto que pretende satisfacer las
usarse e integrarse para contribuir a la transformación necesidades de los diferentes actores, de modo que le
productiva y social permita contribuir a la calidad de vida y el bienestar de la
del país. Por ello introducir los temas de gestión de la sociedad.
tecnología en el ámbito empresarial es de gran Ambiental, al igual que el anterior, este componente
importancia ya que para ser actores de la sociedad del también está relacionado con la RSE, puesto que hace
conocimiento, es necesario tomar decisiones y acciones referencia a los aspectos para la identificación del impacto
adecuadas que fortalezcan el desarrollo tecnológico del ambiental, la protección del medio ambiente y el
país. desarrollo sostenible.
Uno de los factores que mayor impulso ha dado al sector
ha sido el político, dentro del cual se enmarcan las leyes La Responsabilidad Social Empresarial RSE, considera el
y normas que incentivan el desarrollo económico, desarrollo integral de una organización, puesto que se
siendo éstas las principales jalonadoras de éxito de la preocupa inicialmente del nivel y calidad de vida de
industria del Software en las economías todos los actores que intervienen en la Empresa, pero
emergentes. además exige el cuidado con el entorno y con el medio
ambiente. La RSE busca es de algún modo compensar o
2.9 Responsabilidad Social Empresarial equilibrar el bienestar general y el uso adecuado de los
La Responsabilidad Social Empresarial con las siglas recursos siempre en busca de la conservación del planeta.
RSE, es la capacidad de respuesta que tiene una
empresa, una entidad o REFERENCIAS
una organización, para mantener en equilibrio y con un [1] Mojica FJ. Los Negocios del Futuro en la Economía
adecuado grado de satisfacción a los diferentes actores delConocimiento. Semana Internacional del
que tienen que Conocimiento, Oct 29-31, Manizales. PP. 64-51. 2008..
ver con el proceso de desarrollo de dicha organización, [2] Piattini M, García F, Garzás J, Genero M. Medición y
como son sus empleados, sus clientes, sus proveedores, Estimación del Software, Técnicas y Métodos para
etc. (stakeholders o grupos de interés). Entonces se Mejorar la Calidad y la Productividad. Madrid,
considera a una Empresa o a una Organización Editorial Ra-Ma. ISBN: 9788478978588. P: 308. 2008.
socialmente responsable cuando las actividades [3] Joyanes L. Fundamentos de Programación,
que realiza se orientan a la satisfacción de las Algoritmos,Estructura de Datos y Objetos. Madrid, Mc
necesidades y expectativas de los actores internos y Graw Hill. ISBN: 9788448161118. P: 766. 2008.
externos que de alguna forma [4] Sánchez A, Mejía J, Cuevas G. Gobierno de la
contribuyen al éxito de la Empresa y a lograr las metas Externacionalización del Proceso de Software. Revista
de la misma. La responsabilidad social se ha vuelto un de Procesos y Métricas de las Tecnologías de la
asunto de primer orden Información (AEMES). 2008 Enero 2008:25.
para las empresas debido tanto a las exigencias del [5] Ospina C. PEMV - Plan Estratégico de Mercadeo
mercado como al incremento de la sensibilidad con los y Ventas. 1 ed. Manizales: Alsus IT Group S.A, PP.
problemas y retos sociales y ambientales que afronta la 120. 2009.
humanidad en su conjunto[11]. [6] Waverman L, Dasgupta K. Connectivity Scorecard.
Una gestión empresarial considera diferentes escenarios Nokia Siemens Networks,consultado en 2010 20 -
de actuación, como los siguientes: Febrero, P: 65. [On

390
line]http://www.connectivityscorecard.org. 2009. Anual Colombia 2008. ed. Colombia: Imprenta Nacional,
[7] DANE. Indicadores Básicos de Tecnologías de la PP. 92. 2009.
Información y la Comunicación TIC. ed. Bogotá: [10] Pastrana A. Directiva Presidencial 02 de 2000.
Departamento Administrativo Nacional de Estadística, PP. Bogotá: Presidencia de la República de Colombia, P
28. 2008. 2000.
[8] Rosales R. La Asociatividad como estrategia de [11] Confecámaras. Manual para la Consultoría de
fortalecimiento de las PyMEs. USA: Universidad de Responsabilidad Social Empresarial. Segunda ed. Bogotá:
Texas, 1997 Septiembre de 1997. Confederación Colombiana de Cámaras de Comercio, PP.
[9] Vesga R, Quiroga R, Gómez L, Varela R, Pereira 108. 2008.
F. GEM, Global Entrepreneurship Monitor: Reporte

391
392
Comunidades de práctica y Web 2.0, estratégias para la democratización
del conocimiento en la empresa.

Lillyana María Giraldo Marín Carlos Hernán Gómez Gómez Rafael Antonio Tejada
Docente investigadora Docente investigadora Quintero
Universidad de Medellín Universidad de Caldas Profesor catedrático
Medellín Colombia Medellín- Colombia
(054)- 2606012 (054)- 2606012 Universidad de Caldas
Medellín- Colombia
lmgiraldo@udem.edu.co ch@ieee.org (054)- 2606012
Rafael.tejada@gmail.com

RESUMEN concept of democratization of knowledge in organizations,


Desde un análisis de integración y correlación de lo general a lo analyzing the characteristics, features and aspects of the
particular y partiendo de las organizaciones como contexto communities of practice (CoP's) as a knowledge
propio en las actuales circunstancias de generación de management strategy in organizations can support this
conocimiento y estimulación del aprendizaje organizacional e objective.
individual, se exploran los conceptos de: comunidad de práctica y This article begins with the concepts presented as:
democratización, como estrategia para compartir y orientar el uso
community of practice, knowledge management strategy,
del conocimiento en las organizaciones. El presente artículo tiene
como objetivo aportar a la construcción del concepto de
web 2.0 technologies and democratization. Finally, an
democratización del conocimiento en las organizaciones, analysis which seeks to relate the concepts of democracy
analizando las particularidades, las características y algunos and community of practice, so that from here you can
aspectos propios de las comunidades de práctica (CoP´s), como answer the question: are supported by the CoP's web 2.0
una estrategia de gestión del conocimiento en las organizaciones technologies, a strategy for democratization knowledge in
que puede favorecer dicho objetivo. organizations?. In the final section draws conclusions about
Este artículo se inicia con la presentan de conceptos como: the ideas explored product under consideration in this
comunidad de práctica, estrategia de gestión de conocimiento, document.
tecnologías web 2.0 y democratización. Por último se realiza un
análisis que pretende relacionar los conceptos de democratización Keywords
y comunidad de práctica, de tal forma, que desde ahí se pueda dar Communities of practice, Web 2.0, the democratization of
respuesta a la pregunta: ¿son las CoP´s apoyadas por tecnologías knowledge management.
web 2.0, una estrategia para la democratización del conocimiento
en las organizaciones?. En la parte final se formulan conclusiones
sobre la reflexión realizada producto del objeto de estudio de este 1. INTRODUCCIÓN
documento. Históricamente, la gestión del conocimiento (GC) ha tenido
un desarrollo en las organizaciones, a medida que el
Palabras Claves conocimiento adquiere más valor, él ha reemplazado al
Comunidades de práctica, web 2.0, la democratización, la capital como un factor importante de la producción, y así
gestión del conocimiento. mismo, se ha convertido en una variable económica
predominante para las empresas. Siendo una nueva fuente
ABSTRACT
de riqueza, que exige como recurso una estructura
From an analysis of integration and correlation of the
organizacional mas orgánica en la cual están en entre dicho
general to the particular and based on the specific context in
la estabilidad de los cargos y las funciones, demandando
organizations such as the present circumstances of
por lo tanto procesos de adaptación cada vez más
generating knowledge and stimulating individual and
centrados en la comunicación y el aprendizaje del
organizational learning, explores the concepts of
conocimiento. [1]
community of practice and democratization, as sharing
Sin embargo, es importante aclarar que la gestión del
strategy and guide the use of knowledge in organizations.
conocimiento ha estado inspirada en dos aspectos como: el
This article aims to contribute to the construction of the

393
advenimiento de las tecnologías de información y un tema especifico, y donde algunos de sus objetivos son: la
comunicación que han dado lugar en buena parte de su participación, las relaciones entre sus participantes, la
evolución a una proliferación y aumento de los datos y la comunicación, creación, innovación y la transferencia del
información en las organizaciones. La necesidad urgente no conocimiento, haciendo énfasis en la calidad superior, el
es de más información, sino de mejores maneras de mejoramiento continuo y el aprendizaje organizacional, lo
decantarla, organizarla e interpretarla, es decir, de cual exige un acceso al conocimiento de todos los
conocimiento. En este sentido, el desafío ya no es procesar miembros de la organización.
la información, sino crear, comunicar, disponer y conservar Estas nuevas demandas de las personas y las organizaciones
el conocimiento. Lo que lleva a identificar un segundo impulsan el desarrollo más agresivo, tanto del hardware,
aspecto y es el del reconocimiento que se hace del como del software y es en estas innovaciones que se le da
conocimiento como recurso y producto generador de toda la importancia a las tecnologías como medios a través
capacidad y ventaja competitiva. de los cuales se puede no solo capturar, almacenar y
En este sentido cabe destacar como las tecnologías en distribuir el conocimiento en la organización, sino que
general y en la actualidad las tecnologías web 2.0 han también aparecen tecnologías capaces de proveer
resultado ser un medio eficaz, a través del cual se puede plataformas tecnológicas donde es posible crear, compartir,
realizar procesos tales como: captura, almacenamiento y distribuir el conocimiento en el momento y lugar donde se
distribución del conocimiento. Y adicionalmente se destaca requiera y lo más relevante crear ambientes de
el atributo mas importante que estas tienen. Y es la colaboración.
posibilidad que tienen de interconectar la organización en Sobre la base de las consideraciones anteriores, otro
red, posibilitando la comunicación de la información y el aspecto importante de la GC son los distintos enfoques que
conocimiento entre los miembros de la misma y por fuera se le han dado a esta en las organizaciones, el primero es el
de ella, motivando con esto los ambientes de colaboración enfoque evolutivo, panorámico y duradero, el cual ha
que tanto reclaman las necesidades actuales de la empresa. permitido contemplar los rasgos más generales de los
En este sentido, en los últimos años estamos asistiendo al procesos de generación de conocimiento en una
desarrollo de entornos tecnológicos más interactivos y organización. El segundo enfoque se dirige a la
colaborativos. [2] construcción más intima y mas cotidiana del conocimiento,
Acordes con la evolución de la importancia del determinada por la calidad de los intercambios y la
conocimiento en las organizaciones y a la evolución de las participación de las personas que deben hacer una tarea en
tecnologías que se usan para gestionarlo, se puede definir conjunto, lo que crea un nicho para que los temas de
qué: la primera generación de gestión del conocimiento interés común generen implicaciones, ofrecimiento de
estuvo marcada por la orientación hacia la gestión de ayuda y apoyo mutuo, y de compartir significados y
contenidos, pues había una mayor disponibilidad y construcción de identidad. [2]
demanda para el almacenamiento y distribución de datos e En este artículo se destaca el segundo enfoque planteado en
información, por las facilidades que proporcionaban las el parágrafo anterior, ya que es en este escenario de
tecnologías de información y comunicación en ese colaboración donde pueden llegar a tener un mejor
momento, en esta generación se hizo un uso más mecánico desempeño las CoP´s, esto si están apoyadas por
de las tecnologías, es por supuesto debido a que era más tecnologías web 2.0 que realmente promuevan la
importante en hardware. comunicación entre los miembros de la comunidad y por
Para la segunda generación de GC, su evolución se da a ende se logre el objetivo deseado.
partir de la necesidad del intercambio entre las personas y De lo expuesto anteriormente, se podría afirmar, que las
la creación de conocimiento, estos dos nuevos aspectos CoP´s se presentan como una estrategia de GC, que permite
obligan a las organizaciones a crear estrategias que la integración, la comprensión, el compromiso mutuo y
permiten gestionar y promover la colaboración para el repertorio compartido de recursos intangibles, que es el
intercambio de conocimiento. A partir de estas nuevas resultado de una práctica compartida de las personas y de
demandas no solo se desarrolla el hardware, sino, que sus conocimientos desde la conformación espontánea de
también empieza el software a presentar desarrollos acordes dicha comunidad. Por lo tanto, las CoP´s deberán propiciar
a las necesidades de las personas y es por tanto que los escenarios donde se promuevan los procesos de
empiezan a aparecer lo que se conoce en la actualidad como creación, innovación, transformación e intercambio de
tecnologías web 2.0. conocimiento, que realmente permitan comunicar esté
Para la tercera generación de GC se hace necesaria la dentro de las CoP´s y de la organización, donde han
integración de esas colaboraciones, como una de las surgido ellas.
respuestas a esta necesidad se empiezan a conformar de 2. MATERIALES Y MÉTODOS
manera voluntaria en las organizaciones CoP´s, iniciativas El proceso de indagación que involucro la realización del
de GC que pretenden la conformación espontanea de artículo, implico inicialmente la selección de bibliografía
grupos de personas que comparten un conocimiento sobre

394
especifica, orientada por el concepto de comunidad de verbalizarlo, compartirlo, transformarlo y reflexionarlo dan cuenta
práctica, lo que llevo inicialmente a seleccionar 50 textos, de la naturaleza dinámica del mismo, fundamentado en la
relacionados con: trabajos de investigación, libros, verificación y convalidación que hacen los otros participantes
ubicando la relación entre el conocimiento y la acción en el
artículos, entre otros. Así mismo, para los temas de:
centro de la reflexión de la gestión del conocimiento, dándole con
tecnologías web 2.0, GC, estrategia de GC y esto una dimensión colectiva que permite crecimiento y
democratización, se hizo una revisión general para perfeccionamiento de dicho conocimiento. Si bien, durante el
seleccionar artículos y autores que estuviesen más desarrollo de este artículo se ha hecho énfasis en la importancia
específicamente relacionados con los temas en cuestión y que tienen las tecnologías como medios a través de los cuales se
aportarán más sobre la pregunta objeto de reflexión. puede compartir el conocimiento y propiciar escenarios de
En este mismo orden, y situados en la tercera colaboración al interior de las CoP´s, estas deberán ser usadas con
generación(integración de las colaboraciones) y segundo experticia y con objetivos claros, para así lograr los objetivos
enfoque de la gestión de conocimiento(valoración de los deseados.
intercambios y la participación), se realizó un análisis de
integración y correlación de lo general a lo particular, de 3.1 Comunidades de práctica, CoP´s
los conceptos desde los cuales se pretende abordar el objeto
de estudio de este artículo, lo cual implico partir de la El concepto fue creado en el año 2005 por Etienne Wenger
organización como ámbito para la creación, transformación, en su obra: “Comunidades de práctica: aprendizaje,
innovación, distribución y comunicación del conocimiento, significado e identidad”. Desde el enfoque de Wenger, la
condiciones necesarias para desarrollar y potenciar la organización no es una pirámide que se mueve por
creación de CoP´s, donde se faciliten la unión, integración relaciones de autoridad y de obediencia, todos saben que en
y alineación de procesos de GC orientados por principios las organizaciones la mayoría de los individuos no hacen lo
colaborativos, enmarcados en compartir lo que se que se les ordena hacer, por el contrario ellos hacen lo que
comprende, soportado por la negociación de un sus jefes hacen. Por lo tanto, los motores de la acción de las
compromiso mutuo, de compartir conocimientos desde los personas que conforman la organización no están en la
intereses comunes de sus participantes, lo que potencia el obediencia, sino, en el significado, es decir, en el sentido
involucramiento de todos los miembros de la comunidad que los individuos le otorgan a lo que hacen. Consecuente
con un mayor alineamiento de todas las funciones, como con lo anterior, el sentido dentro de la CoP es una
también un mejor diseño y control de procesos que son el construcción colectiva de los otros significados.
nicho para el surgimiento de una gran cantidad de Para Wenger las organizaciones son una ―constelación de
iniciativas de mejora con respecto a: la estrategia, cultura, comunidades de práctica‖, un conjunto de redes
los recursos, productos, la administración y los mercados. interpersonales productoras de sentido y generadoras de
Así mismo, se hizo un análisis horizontal para hacer una conocimiento. Cada comunidad tiene sus propios
correlación de categorías como: democratización, estrategia participantes, sus propios temas, su identidad y sus propias
de GC, para luego integrarlo al concepto de las CoP´s. formas de interrelacionarse, compartir y producir nuevo
Afín con el objetivo que se desprende de la pregunta que conocimiento. Así, se puede definir entonces que cada
orienta el presente artículo, se hizo una exploración de la comunidad tiene su propio sistema de creencias, tiene una
literatura sobre GC, de lo cual se evidencia la necesidad de forma particular de ver las cosas que produce sentido y
que futuros trabajos profundicen sobre el tema en cuestión conocimiento a través de la interacción entre quienes tienen
permitiendo abordar aspectos conceptuales, axiológicos y contacto más o menos cercano. Es decir, se podría afirmar
metodológicos involucrados GC al interior de las CoP´s en que desde su propia identidad las CoP´s tienen su propia
las organizaciones, apoyadas estas iniciativas de GC en las cultura y esta no es la misma de la organización.
tecnologías web 2.0. Por la naturaleza de la comunidad de práctica se reconoce
que estas tienen una dinámica propia, que puede o no ser
consecuente con la estructura formal donde está contenida.
La identidad de una comunidad de práctica no la define la
organización, ni tampoco ella misma, la identidad de la
3. RESULTADOS Y DISCUSIÓN comunidad surge de un proyecto colectivo que sea valioso,
construya autonomía y tenga sentido para sus miembros y
En la medida que el trabajo humano deja ser solo habilidad y
aborda el perfeccionamiento de competencias soportadas por la por ende para la organización.
posesión de conocimiento experto, pasa a convertirse en una serie Es en estas ideas de autonomía y proyecto colectivo de las
de actos singulares realizados con experticia que exigen funciones CoP´s, en donde se soportó la revisión de los textos para
decisionales complejas basadas en la comprensión y la dar cuenta de que las comunidades de practica deben
convalidación social del conocimiento, facilitando su propiciar la democratización del conocimiento, como una
crecimiento e innovación, en este sentido hay que reconocer que esfera que permite que sus participantes compartan y
el conocimiento reside en las personas que al aplicarlo, construyan conocimiento desde sus propias motivaciones

395
intereses y libertades, siempre en la búsqueda del bien Las CoP´s comparten un sentido de empresa común, un
común. sentido de mutualidad e interdependencia y un repertorio de
En esta misma línea, Wenger [2] afirma que, el alambique conductas compartidas. [3]
donde se destila el conocimiento en las organizaciones son Siguiendo a Wenger, este propone que las CoP´s tienen tres
las CoPs. Cada CoP es un conjunto de personas que hablan características esenciales que son las que la definen como
de sí mismas como ―nosotros‖ porque comparten un comunidad: Un dominio, una comunidad y una práctica, si
proyecto común, una identidad dada por la pertenencia a la bien todas las comunidades de practica tienen estas tres
comunidad y un repertorio de preguntas y respuestas frente características, estas pueden ser conformadas de distan
a los problemas que son objeto de trabajo de la comunidad formas. Algunas son muy pequeñas, algunas son muy
de práctica. Las CoP´s exploran la relación entre los grandes, a menudo con un grupo básico, y muchos
conocimientos organizacionales y la acción colectiva. Este miembros periféricos. Algunas son locales y otras están
autor construye su argumentación alrededor de la dispersas geográficamente. En algunas sus miembros
producción social de significados, de las experiencias y las pueden verse cara a cara, algunas utilizan internet como
acciones, dentro de un proceso que él llama negociación de único medio de comunicación. Algunas están dentro de una
sentidos. organización o son miembros de diversas organizaciones.
Al respecto para [3], La dimensión social de la construcción Algunas son reconocidas formalmente, a menudo con el
de sentido ha sido desarrollada por otros autores, Weick, apoyo de un presupuesto, y algunas son totalmente
considera que la creación de sentido tiene a la vez un informales, e incluso invisibles.
carácter dinámico y en construcción; se trata de crear, Para [4] las CoP´s son una fuente básica para la creación de
inventar y poner en escena ciertas interpretaciones sobre conocimiento. Consisten en un grupo de personas que se
una situación vivida.129 Pero, para Wenger, la noción de unen para compartir experiencias positivas o negativas,
negociación de sentido tiene un significado desde la procedimientos acertados o fallidos, pues su función
perspectiva social, estrechamente incorporada a la práctica. primordial es compartir prácticas a partir de las cuales sea
Así, él precisa, que es necesario comprender que el término posible crear o generar conocimientos para que el grupo
―negociación‖, tal como él lo concibe, está ligado al saber- pueda avanzar y obtener mayores y mejores éxitos, que se
hacer. traducen en mayores eficiencias organizacionales, lo cual
Es así, que el término comunidad de práctica se refiere, a la exige acceso y disponibilidad del conocimiento que lo
comunidad que actúa como un programa de estudios para la vincula con las lecciones aprendidas de los éxitos y fracasos
vida del aprendiz en la organización. Una vez que se del pasado.
articuló el concepto, empieza a versen estas comunidades Como todo proceso, se requiere una dirección que facilite
en todas partes, incluso donde no existe sistemas de los encuentros, sin desconocer que se puede crear un
aprendizaje formal [2]. Por tanto, no se circunscribe a la liderazgo colectivo. Se resalta que la función primordial de
organización formal de educación, sino, que también ubica las CoP´s, es compartir prácticas a partir de las cuales sea
otros espacios de aprendizaje como lo son las posible crear o generar conocimientos para que el grupo
organizaciones sociales o productivas. pueda avanzar y obtener éxitos. En este sentido las CoP´s,
Para Wenger, la supervivencia de una organización está se pueden proponer como modelos alternativos de
dada por su capacidad para diseñarse a sí misma como un aprendizaje individual y organizacional, así mismo, ellas
sistema social de aprendizaje, lo que quiere decir que no podrán asumir roles de liderazgo en procesos educativos de
solo deben considerarse las CoP´s, sino también las la organización.
relaciones que tienen entre sí ellas para participar en La condición de libertad y de democracia que tiene las
actividades de aprendizaje, pues es la disposición que CoP´s es la oportunidad que dan a sus miembros de
tengan los miembros de las comunidades para compartir relacionarse y moverse entre constelaciones de CoP´s,
conocimiento lo que potencia las condiciones de desde la posibilidad que brinda su concepción de
democratizar el conocimiento al interior de ellas y por fuera transformarse en redes sociales. Cada persona tiene
de las mismas en el contexto de la organización. autonomía para integrar varias CoP´s, esto siempre y
Por lo tanto, las CoP´s se podrían definir como algo más cuando se cuente con los dominios de conocimiento que
que equipos de trabajo, estas no son organizaciones validen y permiten esa participación en dicha comunidad y
corporativas, la naturaleza de una CoP es la espontaneidad esta participación puede cambiar de forma, en este sentido
con la que se conforman y la motivación de participación la persona puede elegir dejar de pertenecer a algunas o
que tienen sus miembros destacándose la intensidad de sus integrar otras. [5]
vínculos sociales y la intención de aglutinación que crea. Estas diversas formas de relacionarse y la flexibilidad que
permiten las CoP´s a sus participantes, conlleva a
identificar tres tipos posibles de interacciones que se dan en
ellas, estas son: la primera serían las interacciones internas,
la segunda las interacciones de la comunidad de práctica

396
con los demás miembros de la organización y la tercera la conocimiento y acepta el de los otros, otorgando valor a la
interacción entre las comunidades. Sus acciones misma comunidad; b) la empresa conjunta, aun cuando los
compartidas están vinculadas con ella y con otras intereses sean diferentes hay un proceso de negociación y
comunidades, sus miembros son al mismo tiempo miembros llegar a compartirlos y juntar esfuerzos para lograrlos y c)
de otras comunidades; sus mecanismos y herramientas están el repertorio compartido al ir adoptando rutinas, palabras,
disponibles para diversos grupos. [5] herramientas, maneras de hacer, símbolos, conceptos
Reorientar la atención hacia las CoP´s que operan dentro de incorporándolas a las prácticas.
una organización en las redes más amplias en las que se Si bien el concepto de CoP, apenas cuenta con escasos
conectan, permite encontrar un espacio intermedio entre el cinco años de desarrollo, son muchas las experiencias que
aprendizaje individual y el aprendizaje organizacional. las organizaciones han tenido en su implementación, por lo
Ayuda a pensar el aprendizaje colectivo en dos planos: el tanto estas experiencias han conducido a la evolución del
de la CoP´s, como ya se ha mencionado constituye una concepto, en este sentido autores como Henri y Pudelko
unidad de aprendizaje con un proyecto en común, un proponen aspectos como: la agrupación que se da de los
conjunto de recursos compartidos, una historia en común y participantes y de sus conocimientos, el vínculo social que
los de los ―puentes‖ entre comunidades practica, es decir, se desarrolla entre los participantes de la CoP´s , han
las relaciones entre sus miembros. [2], [5] marcando a las CoPs como la evolución final y madura de
Este concepto de construcción de aprendizaje desde lo grupos de personas que desean crear, transformar, innovar y
individual como desde lo organizacional y la existencia de compartir conocimiento en las organizaciones. Esta
puentes entre las CoP´s, es otro escenario de participación disponibilidad de las comunidades favorecen ampliamente
importante que promueve la democratización del los escenarios para la democratización del conocimiento en
conocimiento en las organizaciones. Pues permite la las organizaciones, pues los fuertes vínculos entre los
interacción de los individuos al interior de la comunidad participantes y su intencionalidad de agremiación
desde su autonomía, compromiso y responsabilidad, y contribuyen para su efectiva participación y colaboración,
también puede participar en la interacción entre así mismo, para el logro de sus objetivos comunes.
comunidades. 3.2 La web 2.0, colaboración e interactividad
Por su parte, [6] señala que una CoP es la creación de
espacios de comunicación entre miembros de una empresa La web 2.0 es un fenómeno que tiene su origen en la
para lograr que puedan compartir la visión, las historias y madurez y desarrollo de internet y en el uso masivo de las
las técnicas relacionadas con sus necesidades específicas en tecnologías de información y comunicación. En la
el puesto de trabajo en la cual todos deben aprender de actualidad millones de personas poseen tecnologías tanto en
todos. Es la construcción de una red social. sus hogares, en sus lugares de trabajo y con los dispositivos
Desde este punto de vista, lo más relevante es el cambio de móviles en donde se requiera, sin embargo, esto ha
paradigma que se produce al concentrarse el conocimiento requerido un gran desarrollo tecnológico que posibilite
en un grupo y no en una persona, permitiendo eliminar los cubrir estas demandas. En este sentido los autores [20],
egos que producen un bloqueo en el aprendizaje, en opinan que mil millones de personas en todo el mundo
consecuencia, aquellos que se sentían indispensables por tienen ahora acceso a internet, esto se traduce en que los
poseer la información y el conocimiento deberán cambiar, dispositivos móviles superan en una proporción de 2 por 1
permitiéndose el intercambio del conocimiento con otros a los computadores de escritorio.
individuos, y serán reconocidos por su participación y
liderazgo. Esta nueva tendencia es interesante y ayuda El termino web 2.0, fue acuñado en 2004 por Tim O'Reilly
sobremanera a acelerar la velocidad del aprendizaje; sin y Media Live International, aunque parece ser que el
embargo, dado que no todo podrá ser documentado, concepto sugiere una nueva versión de la World Wide
entonces es el grupo quien se posiciona como el especialista Web, no es lo que realmente significa. Por el contrario la
en un dominio del conocimiento particular [7]. web 2.0 hace referencia a algo más novedoso y popular, lo
Proporcionando con esto un liderazgo colectivo y en cual se define en términos de las muchas posibilidades que
algunos momentos particulares generando un liderazgo está ofrece para desarrolladores de software y usuarios y las
situacional. Lo anterior muestra como a partir de la formas de usarse.
participación, se genera un nuevo modelo mental colectivo Algunas de las definiciones de la web 2.0 que existen es la
con respecto a la posesión y utilidad del conocimiento, lo que propone Weinberger, este define la web 2.0 como una plataforma
que promueve el compartir conocimiento, suscitando en abierta, la cual ofrece a mejor posibilidad de edición, es un lugar donde la
gente puede conectar sus ideas, donde se dispone de un mayor ancho de
las personas ser más participativas dentro de las CoP´s.
banda, este autor define la web 2.0 como una evolución natural de la web
Pero esta voluntad de participación que tienen las personas 1.0. [8]
de la CoP, está orientada según [2] citado en [8] por las De acuerdo con los autores: [18], estos definen las
dimensiones de la CoP´S, estas son: a) compromiso mutuo características de la web 2.0 apoyados en otros, (MacManus
que consiste en el hecho de que cada miembro comparta su

397
y Porter, 2005; Hinchcliffe´s, 2006; Santamaría, 2007; acciones de democratización. En este sentido el uso
Cruz, 2007), plantean algunas características de la Web2.0, habitual del término democratización nos vincula con
que la diferencian de la Web 1.0: relaciones más horizontales, de libre participación, pero con
Publicación sencilla que puede ser utilizada sin la necesidad compromiso y alteridad. Desde esta perspectiva se pueden
de instalarse en el computador, ni de conocimientos del presentar como ejemplo de democratización: la
lenguaje HTML. democratización de las relaciones familiares, de las
Entorno de usuario amigable e interactivo. relaciones laborales, de la empresa, de la universidad, de la
Sindicación de contenidos RSS, mediante los cuales escuela, de la cultura, entre otras.
lectores de noticias pueden conocer las modificaciones e En [10], se plantea tres puntos fundamentales para entender
incorporaciones realizadas a una publicación. un proceso de democratización: Libertad de expresión,
Control de datos: el usuario tiene la capacidad para igualdad de derechos y representatividad y estructuras
gestionar qué, cuándo y cómo publicar la información. sociales sólidas y legitimadas.
Facilidad para la colaboración y la participación, En la génesis y consolidación de la comunidad de práctica,
permitiendo la construcción de auténticas redes sociales. los anteriores tres puntos fundamentales del proceso de
Software sin necesidad de instalarlo en la computadora. democratización deben orientar el compartir, transferir,
Colaboración en línea a través de los distintos recursos adquirir, aplicar y evaluar el dominio de conocimiento de la
disponibles. comunidad de práctica, lo cual debe dar pie a identificar a
Nuevas procedimientos para trabajar, comunicarse y la comunidad de practica como estrategia de generación de
participar en la web. valor, al estimular el aprendizaje organizacional e
Falta implementar estrategias de seguridad informática. individual. Por lo tanto, la estrategia de GC basada en la
Creación de nuevas redes de colaboración. consolidación de relaciones horizontales y en una forma de
convivencia de mayor participación que genera un capital
Debido a estas características, se ha señalado que la relacional como es la confianza podrá posibilitar la
emergencia de la web 2.0 representa una revolución social, democratización del conocimiento fundamentada en la
más que una revolución tecnológica. No se trata tanto de CoP, pues fortalece aspectos propios de la comunidad
una tecnología, como de una ―actitud‖, la cual consistiría, como: la ética, diferentes niveles de implicación de los
básicamente, en el ―estímulo a la participación a través de miembros, de ofrecimiento de ayuda, de apoyos mutuos, y
aplicaciones y servicios abiertos‖. [21] de compartir significados y construcción de identidad [1].
Estos autores también señalan, que cuando las comunidades
Si bien estas características nos plantean escenarios evolucionan, pueden tomar dos posibles caminos: el
colectivos, no son las tecnologías solas las que promueven primero es evolucionar hasta altos niveles de vínculo social
la colaboración entre los individuos que conforman la e intencionalidad de unión, y el segundo llevar al despojo
empresa, estás, si bien, sirven de apoyo, deberán ser las de los vínculos sociales y a la alteración del modo y del
organizaciones desde sus experiencias y retos las que tienen grupo. Si la comunidad se construye bajo los preceptos de
que definir el escenarios (estructura, cultura, dirección) democratización antes mencionados se espera que esta
para que las iniciativas de gestión de conocimiento como lo pueda llegar a tener la autonomía y la libertad de crear
son las CoP´s apoyadas con plataformas abiertas web 2.0 vínculos sociales inspirados en la intencionalidad de unión,
logren alcanzar el objetivo de democratizar el conocimiento pero con una unión soportada en la convicción del progreso
en la organización. de la comunidad y el de sus participantes y como resultado
de esta, la orientación de la organización al alcance de sus
3.3 Democratización del conocimiento objetivos.
La democratización entendida como la implementación, Estas dos alternativas que plantean Henri & Pudelko, son
ampliación y/o profundización de la democracia, debería elementos que combinados con el reto que tienen los
ser entendida como la necesidad de una mayor comprensión miembros de las CoP, como son, el de desarrollo personal y
de la naturaleza de las instituciones democráticas, su enriquecer la práctica profesional a través de compartir
funcionamiento y los motivos por los que progresan o conocimiento complementarios entre sus miembros [1], se
fracasan. La democracia tiene un sentido útil, sólo si se le convierten en los pilares que apoyan la estrategia de
define en términos institucionales, pero también supone gestión de conocimiento en la organización, donde la
negociaciones, compromisos, acuerdos y el convencimiento iniciativa son las CoP´s, y a través de estas se debe lograr
de la necesidad de resolución pacífica de diferencias. [9] permitir: el acceso, el intercambio, la integración, y la
La democracia como sistema de relaciones horizontales, no distribución igualitaria de los conocimientos entre los
solo designa una forma de organización política, sino participantes, inspirados en los principios definidos en el
también una forma de convivencia y organización social proceso de democratización.
menos vertical, más horizontal, con relaciones más Por esta razón, el análisis horizontal de la democratización
igualitarias entre sus miembros, que consolidan relaciones o del conocimiento y las CoP´s como estrategia de GC en la

398
organización, propone que si los participantes de la que existen y las que no existen (pero que deberían existir)
comunidad, que a la vez son miembros de la organización, entre las comunidades que constituyen el capital social de la
no están inspirados y motivados por los valores organización adentro y afuera. Dicho de otra manera tender
fundamentales que plantea la democratización, por los puentes entre ellas, condición que posibilita la interacción y
objetivos que tiene la CoP y por los retos tanto individuales por ende la democratización. [3]
como colectivos que persigue dicha comunidad, no se La familia, un grupo de colegas, un equipo de trabajo,
lograra una verdadera cohesión entre los miembros de la pueden ser vistos como CoP´s, siempre que haya un sentido
comunidad y por tanto los resultados obtenidos no van a ser de empresa común, un sentido de mutualidad o de
los esperados, perdiendo con esto su legitimidad como interdependencia y un repertorio de conductas compartidas.
grupo dentro de la misma comunidad y por fuera de ella. [3]
Por lo tanto para que las comunidades de practica en la Dicho de otro modo, la ventaja competitiva de la
organización se conviertan en verdaderos escenarios de organización es mayor en cuanto sus capacidades sean
participación y donde se pueda lograr una democratización realmente distintivas y difícilmente imitables, de aquí la
del conocimiento, estas deberán ser conformadas por importancia de la gestión del conocimiento en la
personas motivadas por sus propios intereses y los de los organización. [12]
demás, permitiendo una participación igualitaria entre sus Esta es la razón primordial por la que existen las
miembros para construir identidad y confianza al interior de comunidades de practica en las organizaciones, pues estas
la comunidad y por fuera de esta. se convierten en nichos de aprendizaje y de creación de
Para lograr el acceso, el intercambio, la integración, y la conocimiento relevante dentro de la organización,
distribución igualitaria de los conocimiento entre los apoyándose en estas para generar parte de su ventaja
participantes, inspirados en los principios definidos en el competitiva.
proceso de democratización, se deberá disponer de Si bien la democracia es un principio fundamental, no es
plataformas tecnologías abiertas basadas en los pricipios de algo que se de manera natural entre los miembros de las
la web 2.0 propuestas por la autora [19 ], estos son: CoP´s, para que exista un libre acceso al conocimiento de
La web como plataforma abierta otros, la actitud de los miembros para compartirlo. Las
La web como una plataforma donde se desarrollan servicios organizaciones deberán cambiar su cultura, estructura y la
La web como plataforma que permite y promueve la dirección. Pues solo si se tienen estructuras más planas y
participación activa de los usuarios flexibles, y se le da mayor autonomía a los individuos,
Aplicaciones de nivel 0, pueden funcionar bien mejores oportunidades de formación y se definen
desconectados, O´Reilly dio algunos ejemplos MapQuest y mecanismos de control y autoridad, donde reine la libertad
Google Maps de expresarse, de crear y de compartir, solo así se lograra
No a las aplicaciones web como el correo electrónico, una verdadera democratización del conocimiento.
mensajería instantánea y el teléfono. Las tecnologías web 2.0, poseen características que las
Estos principios de la web 2.0, unidos a las características convierten en medios naturales a través de los cuales se
de las CoP´s proponen los principios inspiradores de la puede crear, almacenar, compartir conocimiento, sin
verdadera democratización del conocimiento en la empresa, embargo no lo son por si solas. Las plataformas
pues si bien se había afirmado con anterioridad que no son tecnológicas web 2.0 o arquitecturas abiertas, deberán estar
las tecnologías, sino las personas las que pueden desde una acompañadas de políticas institucionales, de valores de los
actitud positiva promover la participación y el compartir, usuarios hacía el uso de estas con interese colectivos y de el
las CoP´s si bien no son las únicas estrategias para convencimiento de la alta dirección de que su uso
democratizar el conocimiento, si son una de las maneras de direccionado con el tiempo se convierten en un recueros
lograrlo. Y si se cuanta con una plataforma de apoyo de diferenciador difícil de imitar.
tecnologías web 2.0 se podría lograr mejores resultados en La Web 2.0 potencia espacios de interacción social, la
términos de colaboración entre los miembros de la CoP. participación colectiva y gratuita basada en tecnologías
abiertas, flexibles y fáciles de utilizar por los internautas.
4. CONCLUSIONES Según O‘Reilly (2005), la segunda generación web la
Las CoP´s son escenario que favorecen el aprendizaje información es la fuerza principal que la sostiene, donde se
individual y organizacional, la distribución, comunicación y construye una arquitectura de participación que provoca
la creación de nuevo conocimiento en las organizaciones efectos en las conexiones; y donde las innovaciones en la
que tienen bien definida su estrategia de gestión de construcción de los espacios virtuales y sistemas se realizan
conocimiento. Así mismo, las CoP tendrán que estar en a través de una conjunción de conocimientos y experiencias
constante evolución y crecimiento, pues, esto motivara la desarrollados por individuos diferentes, a modo de un
participación de sus miembros. [11] ―recurso de desarrollo abierto.‖ Asimismo, la web 2.0 es la
La comunidad de practica deberá entender las interacciones red (Internet) como plataforma, abarcando todos los
dispositivos; yendo más allá de la metáfora de la página de

399
la web 1.0 (sitios que no permitían la participación de practica-y-gestin-del.html
usuarios) para entregar experiencias ricas a los usuarios. [11] García, R., Ramirez, G., Angulo J. y Lozoya, J. 2007.
[18] Comunidades de práctica: una estrategia para la creación de
conocimiento. [en linea]. Disponible:
www.itson.mx/vasconcelos/documentos/volII-num2/RVE-
5.REFERENCIAS 2-2-9.pdf
[12] Sanz, S. 2005. Comunidades de Practica Virtuales:
[1] Beazley, H., Boenisch, J. y Harden, D. 2003. La Acceso y uso de contenidos. [en linea], disponible:
continuidad del conocimiento en las empresas, Colombia, www.uoc.edu/rusc/2/2/dt/esp/sanz.pdf
Editorial Norma, pág. 6. [13] Belly, P. 2004. El shock del management, México:
[2] Amberg, M. y otros. 2009. Designing an integrated McGraw-Hill, 2004.
Web-based personal learning environment based on the [14] Huntington, S. 1989. El Sobrio Significado de la
crucial success factors of social networks. En Méndez, A y Demacracia, Estudios Públicos. [en linea]. Disponible:
otros. Research, reflections and innovations in integrating www.cepchile.cl/dms/archivo_1061.../rev33_huntington.pd
ICT in Education. Badajoz, FORMATEX. 1075- 1080. f
[3] Wenger, E. 2000. Communities of Practice and Social [15] Dahl, R. 1991. Los Dilemas del Pluralismo
Learning Systems, [en linea],Vol. 7, No. 2, pp. 225-246, Democrático: autonomía versus control, México: Alianza
(26-junio-2009), Disponible = Editorial.
http://org.sagepub.com/cgi/content/abstract/7/2/225 [16] Clark, Katherine, Hammer, Maureen. 2008.
- (1998). Communities of practice: learning, meaning, and Communities of practice: the vdot experience, Knowledge
identity, pp. 45. (28-agosto-2010), Disponible: Management Review. [en linea]. Disponible:
http://www.infed.org/biblio/communities_of_practice.htm http://www.encyclopedia.com/doc/1P3-1605260291.html
[5] Wenger, E., McDermott, R. y Snyder, W. 2006. [17] Paniagua, E., López, B., Martin, F., Campos, M.,
Cultivating Communities of Practice, Boston: Harvard Cárceles, A., Rodriguez, A. y otros. 2007. La Gestión
Business School Press. Tecnológica del Conocimento, (Primera ed.). Murcia,
[6] Wenger, E., McDermott, R. y Snyder, W. 2002. España: Ed. Servicio de Publicaciones.
Cultivating communities of practice: a guide to managing [18] Domínguez, G. y Llorente, M. 2009. La educación
knowledge, Harvard Business School Press. social y la web 2.0: nuevos espacios de innovación e
[7] Gaviria, M. 2009. Gestión del conocimiento y interacción social en el espacio europeo de educación
comunidades de práctica en laboratorios de investigación superior, Pixel-Bit. Revista de Medios y Educación, Núm.
del Polo Científico Grenoblés en Francia, Rev. Interam. 35, julio, 2009, pp. 105-114, Universidad de Sevilla,
Bibliot [online]. 2008, vol.31, n.2, pp. 45-78. ISSN 0120- España, disponible:
0976. http://redalyc.uaemex.mx/src/inicio/ArtPdfRed.jsp?iCve=3
[8] Soto, E. y Sauquet, A. 2007. Gestión y Conocimiento en 6812381009
Organizaciones que Aprenden. México: Intenational [19] Levy, M. 2009. WEB 2.0 implications on knowledge
Thomson Editores S.A. , pp. 126-129. management, journal of knowledge management, vol. 13
[9] Vásquez, M. y Gore, E. Aprendizaje Colectivo y No. 1, pp. 120-134, Q Emerald Group Publishing Limited,
Capacitación Laboral, trabajo presentado en 2002 a la ISSN 1367-3270
Asociación de Desarroollo y Capacitación de la Argentina, [20] Musser, J. y O‘Reilly, T. 2006. Web2.0 principles and
en el XIII congreso de capcitación de ADCA, Buenos best practices, (electronic version), O‘Reilly Radar.
Aires, Argentina. [21] Downes, S. 2005. E-learning 2.0., elearn magazine.
[10] Lazo, D. Comunidades de Práctica y Gestión del URL. http://www.elearnmag.org.
Conocimiento. [en linea], disponible:
www.lavozdelazo.blogspot.com/2005/09/comunidades-de-

400
Inclusión Digital: Más allá del acceso y el uso de TIC

Omar Antonio Vega


Carrera 9 N0. 19-03 Oficina 239, Universidad de Manizales
Manizales, Caldas, Colombia
oavega@umanizales.edu.co, omarantonio.vega@gmail.com

ABSTRACT. cobertura en cuanto a los servicios de internet y telefonía


El artículo se desarrolla a partir de la ecuación Acceso + Uso móvil celular, dado por el número de usuarios de tales
+ Apropiación = Inclusión Digital, como fundamento para servicios. Sin embargo, a pesar de la información
enfrentar positivamente la brecha de una región. Sin existente, no hay suficiente claridad al momento de
embargo, es observable la marcada tendencia en algunas mostrar la apropiación de las TIC por parte de las
iniciativas, públicas y privadas, hacia el énfasis en la primera personas, que, en últimas, se constituye en la
etapa de la ecuación (el acceso), seguido en menor escala por manifestación de los cambios que la inclusión digital
conseguir los dos componentes (Acceso y Uso), descuidando
puede motivar.
la fase más difícil de lograr, pero que en últimas, la
responsable de la transformación social: la apropiación de las
TIC por parte de las personas y comunidades.
Keywords: 2. INCLUSIÓN DIGITAL
Inclusión digital, Acceso a las TIC, Uso de las TIC,
Apropiación de las TIC El término Inclusión Digital (e-Inclusion) empieza a ser
utilizado hacia el año 2002, cuando el Consejo Europeo,
1. INTRODUCCIÓN en la ciudad de Sevilla (España), aprueba el plan de
El acelerado desarrollo de las Tecnologías de la acción eEurope, considerado como la voluntad de unir
Información y la Comunicación, TIC, ha ocasionado una esfuerzos para no marginar a ningún grupo social de la
distancia entre las personas, comunidades y países que revolución digital, trascendiendo al ámbito nacional o de
pueden disfrutar de los beneficios por dichas tecnologías y organismos concretos y convertirse en base de la política
aquellos que están excluidos de hacerlo. comunitaria y de la actividad de las administraciones
Como una respuesta a la situación mencionada, aparece el públicas [1].
concepto de Inclusión Digital, hace cerca de 10 años, con A pesar de las múltiples definiciones que diversas fuentes
la pretensión de la universalización del acceso y uso de las han propuesto, en el documento se considerará como el
TIC, a lo que posteriormente se le ha sumado la conjunto de políticas y estrategias tendientes a eliminar
apropiación, como forma de alcanzar equidad en las los obstáculos que limitan o impiden la participación
oportunidades de desarrollo. activa y el aprovechamiento de las TIC en la economía y
De esa manera se ha originado una considerable cantidad en la sociedad de la información, sin exclusión alguna [2].
de iniciativas, tanto públicas como privadas y mixtas, De lo anterior, puede desprenderse que la Inclusión digital
orientadas en esa dirección, al punto de: - crearse el está basada en la sumatoria de tres componentes, que
Fondo de Solidaridad Digital, DSF, - establecerse las procedimentalmente se convierten en prerrequisito del
campañas nacionales de acceso digital, o – constituirse siguiente: 1. Acceso a las TIC, 2. Uso de las TIC, y 3.
entes nacionales, incluso al nivel de ministerio, para Apropiación de las TIC.
promover y manejar esta exigencia del mundo actual. 2.1 Acceso a las TIC
Acorde con lo anterior, periódicamente se emiten Este componente se constituye en la base del proceso, y se
comunicados, informes y estudios que muestran la ha pretendido lograr mediante estrategias de mercado
situación actual sectorial, regional, nacional o mundial. En tendientes a disminuir el costo de los equipos y servicios,
ellos se puede visualizar la rápida ampliación de la

401
así como con la ubicación de telecentros en barrios telefonía móvil. [5].
populares de las ciudades, y posteriormente llevados hasta Al considerar el sector rural, se estima que, 2.466
a poblaciones menores y aún caseríos rurales. millones de personas (74%), en el año 2008 están
Corresponde a la denominada Construcción de las cubiertas con el servicio de telefonía móvil celular, donde
conectividades, infraestructuras tecnológicas básicas [3], América alcanza el 73% de su población, Europa el 98%
relacionado los índices referidos a la sociedad de la y África solo el 52%. En el acceso a Internet, es notable la
información y consiste fundamentalmente en contar con diferencia entre los sectores urbano y rural, especialmente
computadoras y conexión a Internet a bajo costo, tener en los países en desarrollo, como en Mongolia (4,9% de
suficientes líneas telefónicas y un servicio a bajo costo, los hogares urbanos y 0,1% de los hogares rurales), o en
gozar de capacidades básicas que permitan hacer uso de Colombia (16,4% y 0,4%, respectivamente), mientras la
estos recursos, como saber leer y escribir y capacitación brecha digital rural es mucho menos pronunciada en los
mínima en el uso de computadoras países desarrollados, como se destaca en Japón, Canadá y
Mediante estas estrategias, las computadoras y, Nueva Zelanda. [6].
especialmente, los teléfonos móviles celulares han sido En Colombia, se aprueba la Ley de TIC 1341, del 30 de
adquiridas por personas de la mayoría de estratos sociales, julio de 2009, cuyos principales objetivos consisten en
aún en países considerados info-pobres. Es pertinente desarrollar lineamientos para extender las TIC y promover
considerar que la infraestructura y topografía de algunas el acceso, uso y propiedad de las mismas, además de
regiones dificultan una cobertura mayor de acceso. proteger los derechos de los usuarios y regular el sector a
El componente acceso a las TIC es, sin duda alguna, el través de la Superintendencia de Industria y Comercio, la
aspecto más estudiado, en diferentes ámbitos y por Agencia del Espectro Nacional de Radio y Comisión de
diferentes organismos. Entre los más destacados y Regulación de Comunicaciones (CRC). En ella se estipula
consultados están los preparados por la International que el gobierno y las empresas privadas deben funcionar
Telecommunication Union (ITU), como es el caso del como proveedores de servicios en lo que se trata de TIC y
Informe Evaluación de la sociedad de la información 2010 desarrollo de contenidos para el sector público (por
[4] que contiene el último Índice de Desarrollo de las TIC ejemplo, en educación), y se promueve la neutralidad
(IDI130), en el que 159 países están clasificados con tecnológica y de software, aunque esto queda limitado por
arreglo a su nivel de TIC y se comparan las cifras de 2007 los acuerdos existentes entre el gobierno y las empresas de
y 2008. En él se concluye que de las 10 economías TIC desarrollo de software. [7]
más avanzadas del mundo, ocho están en el norte de 2.2 Uso de las TIC
Europa (Suecia encabeza el IDI por segundo año Se convierte en un componente limitante, a pesar de las
consecutivo), mientras la República de Corea y Japón iniciativas de alfabetización digital adelantadas en
ocupan, respectivamente, los puestos tercero y octavo. instituciones educativas, telecentros, empresas y
Asimismo, indica que el precio de los servicios de organizaciones de diversa índole. Corresponde al
telecomunicaciones e Internet disminuye en todo el denominado Usos, apropiación y extensión de estas
mundo, sin embargo, los servicios de las TIC, tecnologías [3], que pretende generar y fortalecer
especialmente los del acceso de banda ancha fijo, siguen capacidades que permitan a los usuarios ser también
quedando fuera del alcance de muchas personas, debido a productores de contenidos para la red, la extensión
que, por ejemplo, una conexión de banda ancha básica implica la incorporación en el uso a grupos rezagados
cuesta en promedio hasta 167% de la renta nacional bruta (como mujeres y algunos grupos étnicos), mediante la
por habitante en los países en desarrollo, en comparación creación de políticas específicas que física y culturalmente
con apenas 2% en los países desarrollados. faciliten el acceso equitativo, generando un uso con
Como muestra de ello, se sabe que la telefonía móvil llegó sentido de las tecnologías digitales. Lo anterior requiere
a contar con 4.900 millones suscriptores a fines de 2009, que, además de superar lo relacionado con el acceso, se
es decir que dos terceras partes de los habitantes del logre la adecuación de contenidos y la participación de las
planeta cuentan con acceso a tal tecnología, lo que comunidades en la producción de estos, en un marco
significa que a pesar de existir brecha en la conectividad respetuoso de la diversidad étnica, cultural, social,
móvil, ella se ha reducido. En cuanto al acceso a tecnológica y ambiental, mediada por una labor educativa,
Internet, sus usuarios han crecido aproximadamente en sistémica y significativa, que potencie las capacidades, de
500% en el periodo 2000-2009, lo cual no ha logrado las personas y de la infraestructura instalada.
eliminar la gran brecha entre las economías avanzadas En los países no desarrollados conviven ciertas
(64% de penetración) y los países en desarrollo (18%), características que se convierten en obstáculo para que el
claramente, superior a la que se presenta en el acceso a la uso de las TIC se masifique, entre las que pueden
considerarse: - analfabetismo real, - analfabetismo por
desuso, - analfabetismo digital, - tecno-fobia, - edad, -
130

402
ubicación geográfica y –algunos patrones culturales. sólo tiene acceso a ellas, sino que cuenta con habilidades
Lo anterior ha llevado a que muchas personas que tienen para usarlas y llegan a ser tan importantes para sus
acceso a los equipos de cómputo y teléfonos celulares, actividades cotidianas (productivas, de ocio, relacionales)
sólo usen de ellos una mínima cantidad de las opciones que pasan a formar parte de sus prácticas sociales [11],
ofrecidas, llegando a casos extremos como solicitar ayuda que corresponde a la llamada Generación de cambios [3],
para realizar una llamada, conocer el contenido de un la cual hace referencia directa a la Apropiación social, que
mensaje o almacenar un número telefónico teniendo conlleva a nuevas formas de participación social mediante
equipos celulares de alta gama, o adquirir un PC con el uso intensivo de las TIC, en aquellas actividades
especificaciones alta para utilizarlo como máquina de generalmente ignoradas por los ciudadanos del común,
escribir. como el análisis de planes de desarrollo, veeduría
Pero esa situación no es exclusiva de sectores populares, ciudadana, organizaciones sociales y demás
sino que se manifiesta también en el ámbito académico, manifestaciones democráticas.
donde cabe señalar que de acuerdo a nuestra experiencia Al observar los componentes de las campañas o planes
como profesores e investigadores del área, todavía falta nacionales de alfabetización digital, como generalmente
mucho para lograr que nuestros estudiantes realmente se denominan a estas iniciativas que responden al contexto
logren una alfabetización cultural digital, pues, por decirlo internacional dado por el Plan de Acción de Ginebra 2003
de algún modo, están familiarizados con el lado operativo (Cumbre Mundial de la Sociedad de la Información),
de las computadores y del lenguaje hipermediático, pero puede notarse que pretenden lograr la apropiación de las
aún no llevan sus conocimientos técnicos a un nivel TIC. Algunos de esos componentes son:
superior donde efectivamente logren adquirir - Comercio electrónico, con la pretensión de incorporar a
conocimiento [8]. las empresas estatales y privadas, productores,
Se informa que, teniendo en cuenta el modelo de inclusión asociaciones y sociedad civil a la economía digital,
social que CINTEL ha venido consolidando, el impacto impulsando así el desarrollo productivo, social y
de la infraestructura tecnológica implementada en La económico nacional.
Boquilla [Cartagena de Indias] ha hecho que la población - Desarrollo productivo e innovación tecnológica,
aumente sus conocimientos en el uso de las herramientas mediante la promoción del desarrollo y fortalecimiento de
TIC y pueda usarlas en sus actividades diarias. La la gestión estratégica de las empresas basado en
utilización de computadores pasó del 24% en 2006 a 33% herramientas de TIC que permita mejorar las capacidades
en 2008; el conocimiento de Internet pasó del 30% en empresariales y automatizar los procesos de producción.
2006 a 39% en 2008; y la utilización de Internet pasó de - Gobierno en línea, que ofrece información y servicios
5% en 2006 al 21% en 2008.[9]. públicos a través de Internet buscando la modernización
De acuerdo con la CRC, el 91% de los colombianos del gobierno, la transparencia de la gestión pública y
tienen teléfono móvil celular; a pesar de ese hecho, la brindar al ciudadano la oportunidad para acceder y
telefonía móvil no ha sido utilizada para difundir participar activamente en los servicios del estado.
información relevante, ya que las empresas privadas sólo - Red académica y de investigación, que pretende
envían información comercial (incluso propaganda), pero capacitar en el uso informático a los integrantes de la
no ofrecen contenidos sobre el precio de las cosechas o comunidad académica, como también promover el
alertas meteorológicas, por ejemplo, lo que constituye un intercambio de información para mejorar los niveles de
desperdicio de oportunidades [7]. formación y producción científico-tecnológica y la
Queda claro que el uso de TIC, a pesar de dificultades de conexión a redes internacionales.
diferente origen, ha ido creciendo, principalmente - Telecentros o infocentros comunitarios, tendientes a
jalonado por procesos de capacitación y el acceso a estas facilitar el acceso a las TIC a grupos sociales menos
tecnologías por parte poblaciones jóvenes, que de cierta favorecidos y alejados de los centros de desarrollo,
manera han logrado que familiares mayores accedan y, fortaleciendo su integración social y económica,
quizás, usen estas nuevas herramientas. ampliando sus espacios de participación y de acceso a la
2.3 Apropiación de las TIC información y servicios públicos.
Se considera que apropiación es la acción y efecto de Mas, al analizar los diversos informes, en ellos poco se
apropiar, que a su vez se define como: Aplicar a cada cosa muestra el factor apropiación (incluso en ocasiones se
lo que le es propio y más conveniente, o Acomodar o hace sinónimo de uso), lo cual puede deberse a dos
aplicar con propiedad las circunstancias o moralidad de causas: - es mucho más difícil hacer un estudio que
un suceso al caso de que se trata [10]. implique el descubrimiento de variables cualitativas,
Sin embargo, al considerar la apropiación de las TIC, es quizás subjetivas, que manejar datos numéricos, y -
posible señalar que ella se concreta en un ámbito socio- mientras el acceso y uso puede lograrse masivamente, la
histórico específico. […] Esto implica que el individuo no apropiación es un proceso individual en función de
variables no siempre controlables.

403
Por ejemplo, en el caso del sector agropecuario prácticas sociales y asegurar su desarrollo.
colombiano, la opción de comercio electrónico se ha Los numerosos informes y estudios acerca de la situación
reducido a la presentación de algunos productos digital priorizan en el acceso y el uso, pero el componente
(información y figuras), y a la comunicación entre las apropiación es poco tratado, quizás por falta de
partes mediante correo electrónico y eventualmente chat, metodologías para medirla, ya que implica variables no
ya que la infraestructura existente en las zonas rurales, el controlables y procesos individuales, a diferencia de los
bajo nivel académico de los productores, el otros dos componentes más fáciles de cuantificar.
tradicionalismo en los procesos de mercadeo, junto al A pesar de que muchas iniciativas dejan vislumbrar la
desconocimiento y desconfianza de los avances pretensión de alcanzar la apropiación de las TIC, quedan
tecnológicos, se constituyen en óbices para la algunas dudas por los intereses de empresas y
implementación del e-commerce como práctica cotidiana organizaciones que están detrás de tales proyectos, en el
[12]. sentido de no poder identificar con claridad si la
Lo anterior no descarta de plano que se esté dando algún intencionalidad es la transformación social o la
tipo de apropiación… se sabe de algunos telecentros que a consolidación y ampliación de la sociedad de consumo.
partir de la Asociación de Cabildos Indígenas del norte
del Cauca (ACIN), han conseguido que las poblaciones
involucren a las TIC en su vida cotidiana como una 4. BIBLIOGRAFÍA
alternativa a sus procesos tradicionales, facilitando y
fortaleciendo la comunicación con otras organizaciones al [1] De Cabo, J.: Inclusión digital y derechos de la
igual que la gestión de proyectos comunitarios [13]. persona. Instituto de Empresa Business School,
La apropiación de las TIC aún no se ve con claridad en la Digital Convergence Weblog. Madrid (2005),
mayoría de procesos de Inclusión Digital, y a pesar de <http://convergence.blogs.ie.edu/archives/2005/09/in
tenerse de manera tácita como el objetivo principal de clusian_digit.php>
ellos, empiezan a surgir inquietudes desde la cotidianidad, [2] Vega, O.A. y Rodríguez Baena, L.: La inclusión
que implican un análisis profundo desde la teoría, tales digital como motor de desarrollo. Una opción para la
como: Colombia rural. En: Sociedad y Utopía, Revista de
- La disminución marcada de la comunicación cara a cara Ciencias Sociales, No. 32, 75-95 Fundación Pablo
entre personas ubicadas en un mismo entorno, para ser VI, Madrid (2008).
sustituida por el uso permanente, y hasta obsesivo, de [3] Garro Rojas, L.: Del estudio de las Brechas a la
redes sociales y telefonía móvil celular ¿podría Inclusión Digital. En: Primer Encuentro regional
considerarse como una muestra de apropiación Centroamericano de FELAFACS Sociedad,
tecnológica, al haberse convertido en una práctica social Democracia y Derecho a la Información, Universidad
presente en diversas partes del mundo? o ¿será sólo una Centroamericana "José Simeón Cañas", San Salvador
nueva manía potenciada por la sociedad de consumo, que (2007),
no supera la etapa del uso de las TIC? www.uca.edu.sv/deptos/letras/encuentro/memorias/14
- Los adelantos en TIC y su aplicación como resultado de garro.pdf
intereses, inicialmente de índole militar y posteriormente [4] ITU: Comunicado de prensa. Según un Nuevo
de reconocidas empresas de hardware y software, Informe de la UIT, el interés por las TIC aumenta en
organismos internacionales y otras instituciones que han todo el mundo y los precios disminuyen. International
operado como agentes dominantes, ¿tendrán como Telecommunication Union, Ginebra (2010),
verdadera intencionalidad la transformación social y el http://www.itu.int/newsroom/press_releases/2010/08-
mejoramiento de la calidad de vida, o por el contrario, es.html
buscará la masificación del uso de equipos a una clientela [5] Orduz, R.: El Índice de Desarrollo de las TIC: el
cada día mayor, utilizando incluso la obsolescencia informe de UIT 2010, Colombia Digital, Bogotá
inducida como estrategia de mercado para asegurar (2010),
inmensos y permanentes dividendos? http://www.colombiadigital.net/index.php?option=co
m_k2&view=item&id=40:el-%C3%ADndice-de-
desarrollo-de-las-tic-el-informe-de-uit-
3. CONCLUSIONES 2010&Itemid=284
[6] ITU: World Telecommunication/ICT Development
La inclusión digital está fundamentada en el logro de tres Report 2010: Monitoring the WSIS targets: A mid-
etapas (acceso, uso y apropiación), mediante las cuales se term review. International Telecommunication Union,
consigue, en un proceso progresivo, que las personas Geneva (2010), http://www.itu.int/dms_pub/itu-
tengan en las TIC un medio cotidiano para transformar sus d/opb/ind/D-IND-WTDR-2010-PDF-E.pdf

404
[7] Paz Martínez, O.: Monitor Mundial de la Sociedad de [10] RAE: Apropiar. Diccionario de la Lengua Española,
la Información 2009: Informe nacional Colombia. 22 ed. Real Academia Española, Madrid (2001),
Asociación para el Progreso de las Comunicaciones http://buscon.rae.es/draeI/SrvltConsulta?TIPO_BUS=
(APC) , Melville (Sudáfrica), 3&LEMA=apropiar
http://www.giswatch.org/gisw2009/es/country/Colom [11] Crovi Druetta, D.: Diagnóstico acerca del acceso, uso
bia.html y apropiación de las Tic en la UNAM. En: IX
[8] García Hernández, C. y Peñalosa Castro, E.: Congreso Latinoamericano de Investigación de la
Alfabetización cultural digital, un concepto Comunicación: ―Medios de Comunicación, Estado y
fundamental en la práctica educativa de las TIC. En: Sociedad en América Latina‖. ALAIC, México
IX Congreso Latinoamericano de Investigación de la (2008),
Comunicación: ―Medios de Comunicación, Estado y http://www.alaic.net/alaic30/ponencias/cartas/COMU
Sociedad en América Latina‖. ALAIC, México NICACION_Y_EDUCACIO/ponencias/GT6_3Crovi
(2008), .pdf
http://www.alaic.net/alaic30/ponencias/cartas/COMU [12] Vega, O.A.: e-Commerce agropecuario colombiano:
NICACION_Y_EDUCACIO/ponencias/GT6_5Garci una manifestación de brecha digital. En: Ventana
a-Penalosa.pdf Informática, No. 18, 187-203, Universidad de
[9] Batz, A.: Apropiación de TIC para la inclusión social. Manizales, Manizales (2008).
Caso de estudio la Boquilla.: Observatorio de [13] Portal Nacional de Telecentros en Colombia: Red
Políticas Públicas, Boletín POLIS. Boletín No. 6. 11- Nacional de Telecentros. Bogotá (2007),
13 Universidad ICESI, Cali (2009). http://www.telecentros.org.co/index.shtml
http://www.icesi.edu.co/polis/images/contenido/pdfs/ [14]
Boletin_6/boletin_6_articulo_5.pdf

405
406
Modelo de curso virtual WIMAX por medio de Web 2.0 para
ingeniería.

Jesús Augusto Guzmán Lozano, Roberto Ferro Escobar


Ingeniero de Sistemas, Universidad Distrital Ingeniero Electrónico, Universidad Distrital
Francisco José de Caldas, Francisco José de Caldas
Carrera 7 No. 40-53, Bogotá D.C., Colombia Carrera 7 No. 40-53, Bogotá D.C., Colombia
jaguzman@udistrital.edu.co rferro@udistrital.edu.co

RESUMEN. desarrollo en una Web social al estilo Web


2.0
Durante las últimas décadas las tendencias
en el mercado tecnológico son marcadas por Se aplico este modelo en estudiantes de
las herramientas, los usuarios finales y los ingeniería aplicándolo en tecnologías de
costos implícitos que conlleva implementar vanguardia y como casos de estudio se
una tecnología y su complejidad en el aplico al estándar Wimax IEEE 802.16
momento de aprenderla. Ya que si bien es (2004) usando el software de simulación
cierto que existen muchos recursos Opnet.
digitalizados en Internet, primero no tienen
una intencionalidad educativa, segundo
resulta difícil su ubicación ya que no se
Palabras Clave:
encuentran catalogados y finalmente no E-earning, Objetos Virtuales de
fueron creados para ser parte de un entorno Aprendizaje, Simulación, Opnet, Scorm,
e-learning. Wimax.

Pero así mismo como crece la complejidad


de las nuevas tecnologías, nos mantenemos
en una constante lucha por querer ABSTRACT:
aprenderlas, con el respectivo reto que lleva
el impartirla como un espacio adicional a In the last decade technology marketing has
las asignaturas propias del currículo. been established by different factors just
like the used tools, the final users, the costs
Es por esto que a partir de la plataforma of the implementation and its complexity to
virtual que la Facultad de Ingeniería de la be learnt. In spite of the existence of several
Universidad Distrital ofrece, planteamos el resources in internet they do not have de
desarrollo de cursos virtuales usando el teaching intention and they are very difficult
software de simulación Opnet versión to find because of their lack of classification
educativa y aplicando los estrictos and finally they were not created to be part
estándares de los Objetos de Aprendizaje. of a e learning environment.

Una oportunidad adicional para el As the complexity of new technologies


estudiantado, ya que el tiempo de duración grows, we try to keep updated with the
del curso es similar a la dedicación por respective challenge that implies include
parte de un interesado dentro de un them as a additional subject in the

407
curriculum profile. acceso de banda ancha.

That is why taking advantage of the virtual Por eso con la propuesta de un curso virtual y el estudio
platform of the Faculty of Engineering of de una tecnología actual; se pretende promover y facilitar
the District University. We propose the la penetración de este tipo de conocimiento e introducir a
development of virtual classes using Opnet aquellos que deseen, en el estudio de nuevas herramientas
simulation software as well as we apply the competitivas tanto en el ámbito educativo como industrial;
standard of learning objects. cuyo despliegue masifica otras tecnologías, como VoIP
(llamadas de voz sobre el protocolo IP) y promueve el uso
This kind of course is a good opportunity cada vez mayor del acceso de banda ancha.
for students, because the necessary time to
develop it is the same as a real course at the Adicionalmente, la implementación de espacios virtuales
same time they interact with a friendly como una herramienta de aprendizaje, es un tema
platform just like Web 2.0 style social webs. relativamente nuevo para la universidad Distrital; la cual
no presenta una propuesta formal para el desarrollo de
This model is applied to engineering prácticas de estándares y en específico sobre WiMAX. Es
students focusing on vanguard technologies necesario entonces proponer unas guías de teoría y
and study cases related with the Wimax laboratorio, en una aplicación que permita desarrollar y
standard IEEE 802.16 (2004) using the crear un escenario para este tipo de estudio y
simulation software Opnet. modelamiento; ya que hacen parte del proceso de
formación del ingeniero electrónico. Para lo cual se debe
Keywords: realizar un estudio del estándar IEEE 802.16-2004 y de
estándares e-learning.
E-earning, Virtual Learning Objects,
Simulation, Opnet, Scorm, Wimax.
1.1 Conceptos Generales sobre Redes
Inalámbricas
1. INTRODUCCIÓN Las redes inalámbricas utilizan ondas electromagnéticas
(radio e infrarrojo) para comunicarse, y con esto dejar de
Las tendencias en el mercado tecnológico son marcadas lado los cables los cuales se utilizan habitualmente para
por las herramientas, los usuarios finales y los costos establecer una red entre distintos dispositivos. En el
implícitos que conlleva implementar una tecnología y su momento las redes inalámbricas entrarían no ha
complejidad. reemplazar totalmente las redes alambicas existentes sino
De esta manera se puede explicar el porqué la tendencia a a complementarlas. Pero aun así las prestaciones son
nivel mundial del uso de tecnologías como WiMAX, la menores en algunos aspectos, al compararlas con las redes
cual se encuentra en constante crecimiento. Su reciente cableadas, por ejemplo cuando nos referimos a las tasas
adopción como aplicación inalámbrica confiable para el de transmisión.
desarrollo de la nueva Sociedad del Conocimiento131, • Entre las ventajas de las redes inalámbricas tenemos:
refleja la constante búsqueda de nuevas tecnologías en el • Dar movilidad
esfuerzo por mantener puntos de acceso de tal manera que • Instalar redes en sitios poco accesibles
se asegure el cubrimiento total y una funcionalidad • Evitar el cableado para crear o anexar una red
rentable las 24 horas del día. • Fácil y rápida instalación
• Flexibilidad
La tecnología WiMAX es bien conocida por reducir los • Menores costos
costos de la conexión inalámbrica, ya que es hasta 10 • Escalabilidad
veces más económica, permite conexiones de velocidades
1.1.1 Desarrollo de las Comunicaciones
similares al ADSL o al cable-módem, hasta una distancia
Desde la antigüedad siempre se ha tenido la necesidad de
de 50-60 km132, y es compatible con anteriores tecnologías
llevar la información desde un sitio a otro, ya fuese en esa
como Wi-Fi133 ; cuyo despliegue masifica otras época, por señales o un mensajero, con el paso de los años
tecnologías, como VoIP (llamadas de voz sobre el se fueron desarrollando los medios de transporte que
protocolo IP) y promueve el uso cada vez mayor del ayudaban a mejorar la velocidad, pero no fue hasta el
siglo XIX que se invento el telégrafo y que las
comunicaciones dieron un vuelco total al poder comunicar
dos puntos de forma instantánea, luego vino otro gran
R salto el teléfono que ya permitió establecer una
A

408
conversación por voz, y con el desarrollo practico de las
leyes del electromagnetismo se llevo a la realidad la radio,
la cual es una de las formas más importantes de trasmisión
de la información. El desarrollo de las comunicaciones de
radio, empezado por Marconi, De Forest, Tesla y otros a
principios del siglo pasado, pero cuyos fundamentos
teóricos fueron establecidos por Maxwell y Hertz en el
siglo diecinueve. Las primeras comunicaciones vía radio
fueron las del servicio telegráfico, por parte de Marconi
en 1896. La primera transmisión de voz vía radio se debe Figura 2. Evolución de las tecnologías de acceso
también al inventor italiano, en 1916. Marconi recibió el inalámbrico [20]
premio Nóbel de física en 1909 (compartido con Karl
Ferdinand Braun) por su desarrollo de la telegrafía
inalámbrica; en 1943, sin embargo, su patente de la radio 1.2 Definición de WIMAX
fue revocada en favor de Nikola Tesla. La creación del Este concepto es bien importante ya que será usado en
transistor, desarrollado en los laboratorios Bell en 1947 nuestro caso de estudio. WiMAX (Worldwide
por John Bardeen, Walter Brattain y William Shockley Interoperability for Microwave Access) es el nombre por
que es la base de toda la microelectrónica actual. Aunque el que se conoce al estándar tecnológico 802.16 de
también un desarrollo de gran impacto es el circuito comunicaciones inalámbricas de acceso en banda ancha.
integrado, llamado normalmente chip, patentado con el El estándar inalámbrico IEEE 802.16-2004 fue aprobado
nombre de circuito sólido en febrero de 1959. por el WiMAX Forum134 a mediados del año 2004 y en la
actualidad se encuentra en fase de adopción y definición
Esta asignación se tradujo a una mayor actividad en la comercial.
industria y la investigación de LAN (red inalámbrica de La buena acogida que está teniendo esta tecnología se está
alcance local) empezaba a enfocarse al mercado. Seis viendo respaldada por las mas de 100 organizaciones que
años más tarde, en 1991, se publicaban los primeros están trabajando en el desarrollo de la tecnología por
trabajos de LAN propiamente dicha, ya que según la ejemplo Intel está creando chips que serán el cerebro para
norma IEEE 802 solo se considera LAN a aquellas redes el 80% de ordenadores del mundo y Nokia y Siemens
que transmitan al menos a 1 Mbps. La red inalámbrica de están creando chipset para sacar nuevos móviles y PDAs
alcance local ya existía pero su introducción en el que implementen estas tecnologías.
mercado e implantación a nivel doméstico y laboral aun se
haría esperar unos años. Uno de los factores que supuso Este estándar aceptado en Diciembre del 2001, se basaba
un gran empuje al desarrollo de este tipo de red fue el en una sola portadora en la capa física y con
asentamiento de Laptops y PDA en el mercado, ya que multiplexación por división de frecuencia (TDM) en la
este tipo de producto portátil reclamaba más la necesidad capa de control de acceso al medio (MAC). El
de una red sin ataduras, sin cables [15]. inconveniente de este estándar es la utilización de una sola
portadora para la transmisión, y frecuencias de portadoras
extremadamente altas, hecho que limitaba a aplicaciones
de conectividad fija.
Con el tiempo el grupo de IEEE 802.16 produjo
subsecuentemente 802.16a como un arreglo al estándar
802.16 para permitir aplicaciones sin visión directa
(NLOS135) en la banda de 2GHz-11GHz, uso de múltiples

C
I (Responsible, Accountable, Consulted Informed
Figura 1. Estándares IEEE [21] para redes. - Responsable,Rinde cuentas, Consultado, Informado )
135
WEICK, Karl E. Sensemaking in Organizations. Thousand
Oaks: Sage, 1995.
También podemos observar en la siguiente figura la 135
El IDI combina 11 indicadores en un solo parámetro, que se
evolución que han tenido algunas tecnologías puede utilizar como comparador a escala mundial, regional y
inalámbricas. nacional, y para supervisar el desarrollo en el tiempo. Mide
el acceso, la utilización y los conocimientos de las TIC, y
comprende indicadores tales como hogares que disponen de
ordenador, número de abonados a Internet fija de banda ancha,

409
sub portadoras OFDM136, topologías punto-multipunto y gestión de carga.
en malla y una amplia variedad de canales con diferentes Simulador nivel de Enlace (Link level): protocolos nivel
anchos de banda. enlace y control de errores. Utilizan resultados del
Estas mejoras se reflejan en dos nuevos estándares o simulador de capa física o lo incluyen.
revisiones del estándar original IEEE 802.16a: el estándar Simulador capa física: cobertura, potencia, células,
IEEE 802.16-2004 conocido como WiMAX fijo y el análisis de obstáculos.
estándar IEEE 802.16e-2005 conocido como WiMAX Simulador protocolos: verificar, analizar y optimizar
móvil. Tanto una como la otra no requieren LOS dado que protocolos.
operan en bandas de frecuencias más bajas que la primera Simulador de terminal: simulador de aplicaciones.
variante de WiMAX 802.16. Específicos: gestión carga, gestión de recursos.
IEEE 802.16-2004 opera a la misma banda de frecuencia Generadores de escenarios.
del 802.16a y también utiliza OFDM para transmitir Otros: GIS (geographic information system)
múltiples símbolos usando 256 subportadoras. Simuladores integrados: con varias funciones de las
1.3 Simuladores anteriores.
Para la realización de este proyecto, se tomaron en cuenta Simuladores/emuladores Hardware: Sustituir un elemento
algunas de las principales herramientas que se utilizan de la red por el emulador para comprobar la funcionalidad
actualmente para la simulación del modelo y aplicaciones de los restantes elementos.
de una red WiMAX, con el fin de evaluar sus 1.3.3 Simuladores Para WiMAX
prestaciones, ventajas y desventajas. Para lo anterior, es En lo referente a WiMAX, encontramos que ya se ha
necesario aclarar el tipo de simuladores y sus objetivos. venido trabajando sobre simuladores comerciales y
1.3.1 Objetivos de un Simulador simuladores libres. Dentro de las herramientas que
En general un simulador debe tener como objetivos los incluyen módulos de WiMAX encontramos:
siguientes: ICS Telecom
Simplificar el proceso de desarrollo: Con herramientas NS
graficas, protocolos predefinidos, herramientas de análisis NCTU
y depuradores. Qualnet
Modelar conforme a los parámetros a medir OPNET Modeler
Ser escalable y configurable. A continuación describiremos de manera breve las
Diferenciar cuales son las simplificaciones del modelo y características de dos de las herramientas y su soporte
su alcance. para WiMAX.
Dar la posibilidad de definir distintos escenarios. 1.3.4 Selección de la herramienta de Simulación
Poseer una arquitectura abierta: Permitir el desarrollo de De las herramientas de simulación anteriormente
protocolos propios o especificaciones particulares. mencionadas, para el propósito de este trabajo se descarta
Optimizar la velocidad de simulación: Rendimiento. la opción de utilizar ICS Telecom, aunque es una
1.3.2 Tipos simuladores herramienta muy completa y potente; debido a que es de
Existen diversos tipos de simuladores, según de los carácter estrictamente comercial con versiones demo muy
parámetros que deseen modelar y analizar. Normalmente limitadas y cuyo licenciamiento es demasiado costoso. Por
existen combinaciones entre los diferentes tipos. otra parte, NCTUns, NS-3, QualNet, y OPNET Modeler
Simulador de Red (System Level): Analizar tráfico (estas dos últimas herramientas comerciales también) se
generado en la red, QoS handovers, control de admisión, ajustan mas a los propósitos de enseñanza; al ser software
libre o al poseer versiones educativas de las mismas.
Entonces, para el estudio y comprensión de WiMAX es
necesario seleccionar una herramienta de simulación que
y tasas de alfabetización permita un paradigma de diseño escalable y acorde con
135
WiMAX Forum® Industry Research Report – April 2009, los objetivos de simulación y del curso. Evaluando y
http://www.WiMAXforum.org/resources/research-dashboard comparando las características y prestaciones de NCTUns
135
Estándar IEEE 802.16 V 6.0, NS-3 V1.0, QualNet V 4.5 y OPNET Modeler V
135
Estándar IEEE 802.11
135 14.0.; se puede clasificar cada herramienta y todos los
WiMAX Forum es una asociación que reúne a fabricantes y
compañías del sector de las TIC con el objetivo de promocionar
parámetros de WiMAX implementados sobre éstas
la adopción del estándar 802.16 y desarrollar la 1.3.4.1 Implementación de funciones WiMAX
interoperabilidad entre los diferentes equipos. La siguiente tabla muestra las funciones WiMAX
135
No existe línea de vista entre el transmisor y el receptor implementadas en NCTUns V 6.0, NS-3 V1.0, QualNet V
(Non Line of Sight) 4.5 y OPNET Modeler V 14.0.
136
Orthogonal frequency Division Multiplexing

410
funcionamiento de este tipo de sistemas.
Tabla 1: Comparación de Funciones WiMAX La versión de MODELER contrario a IT GURU (la
implementadas en diferentes simuladores [24] distribución gratuita de OPNET) no presenta restricciones
sobre ninguno modelo; solamente aquellas de la versión
propia de OPNET que se trabaje. Sin embargo la licencia
educativa prohíbe la herramienta para uso comercial.
1.4.2 Características del modelo en OPNET
El modelo que posee OPNET Modeler 14.0 –
(Educational Version) para WiMAX son los siguientes:

Tabla 2: Características OPNET Modeler


Característica
***No lo soporta de manera nativa. Se pueden hacer
Del Modelo Descripción
simulaciones en el modo malla al modificar el código
El modelo incluye lo siguiente para efecto
fuente.
de la capa física (PHY):
1.3.4.2 Herramienta escogida OPNET Cabeceras de capa PHY
Después de una breve comparación entre los distintos Perfiles de PHY para OFDM, OFDMA y
simuladores citados para WiMAX, se decide enfocar la SC Modulación y codificación
atención en OPNET, esta decisión se consideró una vez
Interferencia Co-canal para OFDM y SC
que se observó que para los propósitos de enseñanza este
Modelado de Perdidas por trayectoria para OFDMA y SC
simulador cumple los objetivos y características para unir
PHY Desvanecimiento Multitrayectoria para
la teoría y la práctica: Es un simulador capaz de realizar
cualquier modelado genérico de red tomando en cuenta el canales OFDMA.
modelo de referencia OSI, lo cual incrementa la STC 2x1 soporte MIMO o SISO para
potencialidad de la enseñanza de las tecnologías existentes canales de enlace descendente (Downlink)
y emergentes de datos. OPNET es un simulador integrado, y soporte SISO para canales de enlace
lo que permite cumplir con todos los objetivos de un ascendente (Uplink).
simulador (mencionados anteriormente). OPNET provee Modulación y Codificación
una GUI (Interfaz Gráfica de Usuario) profesional y de Subcapa de
alta integración, en la cual el usuario diseña y edita la Convergencia
topología de la red, configura los módulos del protocolo (CS) El clasificador IP CS es implementado.
que manejará cada nodo de la red, asigna valores y define El modelo soporta tráfico Broadcast y
Trafico
parámetros específicos de cada dispositivo. Implementa la Multicast cuando está habilitado el
Broadcast y
mayor parte de las funciones para WiMAX que en modelado de la capa física (Physical Layer
Multicast
conjunto con la versión educativa que posee, permite Enable).
desarrollar el propósito de esta trabajo: el estudio y Las siguientes características de QoS son
comprensión de este tipo de tecnologías. implementadas
1.4 OPNET Simulator Flujo de Servicios (Admitidos y Activos)
OPNET es una herramienta descrita como un lenguaje de Calidad de Nombrar parámetros de clase de servicio
simulación orientado a las comunicaciones de datos. El servicio (QoS) Queuing/buffering por conexión
nombre de OPNET se deriva sus siglas en inglés Nombrar clase de servicio global y flujo de
(Optimized Network Engineering Tools) [19]. El aspecto servicio global
más significativo de esta herramienta es que provee Creación de flujo dinámico de servicio
acceso directo al código fuente de los elementos que El modelo soporta CDMA basado en
Ranging
conforman el esquema o modelo de red a simular [16]. ranging. Las fases, inicial y periódicas de
(sincronización)
OPNET es ampliamente utilizado como herramienta de ranging son modeladas.
enseñanza en las universidades por la facilidad de permitir Las siguientes características de movilidad
la visualización a través de objetivos modelados. son modeladas:
1.4.1 Modelo general de WIMAX en OPNET Anuncio de vecino
La plataforma de simulación OPNET MODELER V14.0 Movilidad Selección dinámica de configuraciones de
(Versión Educativa), es una herramienta que soporta intervalo de exploración predefinidas,
varios algoritmos de programación para la capa MAC y basado en niveles de medición.
PHY (capa física) que permiten comprobar el Escaneo, que puede ser iniciado por la

411
estación usuaria o la estación base y handover)
Handoff forzado cuando es iniciado por la Mensajes Ranging ( códigos CDMA y
estación usuaria. configuración de Ranging)
Asociación Se puede especificar la estación base a la 1.4.3 Limitaciones del modelo
inicial entre cual se conecta una estación usuaria. Por Las siguientes características no han sido implementadas
(SS, Subscriber defecto las estaciones de usuario se para el modelo de WiMAX en Modeler 14.0 –
Station ) y la conectan a la estación base más cercana. A (Educational Version):
estación base medida que la estación usuaria se desplaza, Control de Potencia
(BS, Base el ranging inicial es usado para asociarse Configuración de Control adaptativo
Station) con una estación base. Handover asistido por red
Mecanismos de Ranging iniciado periódicamente por la estación base.
solicitud y
asignación de Para la asignación de ancho de banda se 1.5 E-Learning
ancho de banda utiliza la solicitud directa o el modo GPSS. Es un sistema de educación a distancia en el que se integra
Existen dos métodos para el modelar la el uso de las tecnologías de la información y otros
perdida de paquetes: elementos pedagógicos (didácticos) para la formación,
Cuando el modelado de la capa física está capacitación y enseñanza de los usuarios o estudiantes en
habilitado, el modelo percibe los paquetes línea. Utiliza herramientas y medios diversos como
perdidos a causa de los efectos de éstos Internet, intranets, producciones multimedia (Textos,
sobre la capa física. imágenes, audio, video, etc.), entre otros. Literalmente e-
learning es aprendizaje con medios electrónicos:
Modelado de la Cuando el modulo de fragmentación está
enseñanza dirigida por la tecnología.
pérdida de habilitado, es posible configurar la estación
En la tarea de elaborar un curso en línea se involucran los
paquetes. usuaria para dejar caer un cierto porcentaje
siguientes roles: diseñador del curso, el programador de la
de PDU‘s para una conexión o flujo dado.
plataforma y el tutor del curso.
Solamente uno de los dos métodos se puede
usar durante una simulación.
El atributo que aparece como modo de
eficiencia de WiMAX determina cual
método es usado.
El modelo incluye la siguiente ayuda para
ARQ, un mecanismo de retransmisión que
reside en la capa MAC de WiMAX:
Capacidad para permitir ARQ para los
flujos de servicios individuales en los nudos Figura 7. Niveles de relación en el diseño de un curso
Solicitud de de estación usuaria. virtual [25]
Retransmisión Apoyo por conexión para las conexiones de
Automática rtPS, nrtPS y BE.
(ARQ) Capacidad para permitir la entrega en orden
de SDU‘s.
Capacidad para permitir cabeceras CRC-32
para flujos de servicios individuales. CRC-
32 es aplicado cuando ARQ es modelado
en un flujo de servicios.
Servicios Los siguientes servicios programados son
Programados. soportados: UGS; ertPS; rtPS; nrtPS y BE.
Control de El modelo permite configurar un perfil de Figura 8. Elementos de los ambientes virtuales de
Radio Enlace. control estático (Burst) para cada conexión. aprendizaje [25]
802.16e MAC PDU
Gestión de mensajes para 802.16e El diseño de un curso en línea consiste en la elaboración
(mensajes DSA, solicitudes de ancho de de objetos virtuales de aprendizaje e informativos con el
Mensajes MAC banda y MAP‘s) objetivo de promover y facilitar los procesos de
Mensajes ARQ (retroalimentación, descarte enseñanza. Es responsable tanto el diseñador, como el
y reajuste) programador y el tutor del curso, en relación con los
Mensajes de movilidad (anuncio de vecinos requerimientos del estudiante.

412
1.5.1 Ventajas que se encontraron libros, artículos, resúmenes y textos
Dentro de las ventajas, las más mencionadas son: completos del estándar fijo y móvil de WiMAX; los
Pone a disposición de los alumnos un amplio volumen de cuales se revisaron y estudiaron (Marco teórico). Se
información. revisaron las prestaciones del software a utilizar
Facilita la actualización de la información y de los (Familiarización del Modelo WiMAX en OPNET). Se
contenidos. evaluaron las opciones para desarrollar una aplicación en
Flexibiliza la información, independientemente del la plataforma Moodle de la Universidad Distrital
espacio y el tiempo en el cual se encuentren el profesor y (Familiarización con estándares E-learning y con LMS).
el estudiante.
2.1.1 Análisis de la información recopilada
Permite la deslocalización del conocimiento.
En esta fase se realizó un módulo de introducción a la
Facilita la autonomía del estudiante.
herramienta y del modelo de WiMAX OPNET, a partir de
Propicia una formación ―just in time y just for me‖.
la documentación de ayuda del software y material de
Ofrece diferentes herramientas de comunicación
implementación de redes sobre éste (laboratorios y
sincrónica y asincrónica para los estudiantes y para los
presentaciones, Understanding WiMAX Model Internals
profesores.
and Interfaces. OPNET Technologies, 2007).
Favorece una formación multimedia.
Facilita una formación grupal y colaborativa. 2.1.2 Diseño
Favorece la interactividad en diferentes ámbitos: con la Una vez elaborado el marco teórico y estudiado el
información, con el profesor y entre los alumnos. estándar 802.16-2004 se definió y elaboró lo siguiente:
Facilita el uso de los materiales, los objetos de
aprendizaje, en diferentes cursos. 2.1.3 Objetivos:
• Permite que en los servidores pueda quedar registrada la Crear una introducción sobre generalidades de redes y
actividad realizada por los estudiantes. radios enlaces.
Exponer la capa física de WiMAX y su característica
1.5.2 Desventajas de la herramienta principal en modulación y codificación adaptativa y
Requiere más inversión de tiempo por parte del profesor. OFDM.
Precisa unas mínimas competencias tecnológicas por parte Exponer la capa MAC y la implementación de QoS en
del profesor y de los estudiantes. diferentes niveles.
Requiere que los estudiantes tengan habilidades para el
aprendizaje autónomo. 2.1.4 Contenidos:
Puede disminuir la calidad de la formación si no se da una Diseño de Interfaz
ratio adecuada profesor-alumno. Para la incorporación del curso e-learning en el sistema de
Requiere más trabajo que la convencional. gestión de aprendizaje (Learning Management System,
Se encuentra con la resistencia al cambio del sistema LMS) Moodle, se seleccionó la herramienta Courselab
tradicional. (software libre). Ya que ésta permite el desarrollo de
Impone soledad y ausencia de referencias físicas. objetos de aprendizaje y el empaquetamiento tipo Scorm
Depende de una conexión a Internet, y que ésta sea para una rápida implementación sobre un LMS.
además rápida.
Tiene profesorado poco formado.
Supone problemas de seguridad y además de
autentificación por parte del estudiante.
No hay experiencia en su utilización.
Los objetos informativos son recursos digitales con el
valor agregado de que cuentan con una descripción
detallada (metadatos) de lo que contienen y como usarlos
en un contexto educativo. [17]
2. DISEÑO DEL MODELO DE CURSO
El desarrollo del proyecto se llevo a cabo en las siguientes
etapas:
2.1 Recolección de información
Se realizó un estudio de las diferentes tecnologías de
acceso de banda ancha inalámbricas, evaluando los
estándares definidos para estas, ventajas y desventajas
(Marco teórico). Se realizó una búsqueda electrónica en la

413
Figura 9. Ejemplo de contenido tipo Courselab de cursos como este en diferentes escenarios y/o
asignaturas.
Realizar una propuesta formal para la adquisición de
2.1.5 Actividades de aprendizaje software licenciado o libre, con soporte para la
Como actividades de aprendizaje se desarrollaron guías de investigación o la enseñanza en redes, dado que esto
laboratorio implementadas en el curso, con las cuales se permite la contextualización de la teoría con escenarios
lleva al estudiante a que alcance los objetivos propuestos. reales.
Al final de cada modulo se propusieron unas pequeñas
pruebas de conocimiento, que permiten evaluar la lectura 4. REFERENCIAS
y compresión de quien tome el curso. [15] Anurag Kumar, D. Manjunath, Joy Kuri. Wireless
Además cada laboratorio consta de una ayuda multimedia Networking.
anexa para la realización de los mismos. [16] Bluetooth. [En línea
http://spanish.bluetooth.com/Bluetooth/Technology/
Works/Compare/#8.
[17] Broadband Wireless Access with WiMAX/802.16:
Current Performance Benchmarks and Future
Potential. J.G.Andrews. 2005.
[18] Chang, X. Network Simulation with OPNET,
Proceedings of the 1999 Winter. 1999.
[19] Ergen, Mustafa. Mobile Broadband Including
WiMAX and LTE. s.l. : Springer, 2009.
[20] Forum, WIMAX. Fixed, nomadic, portable and
mobile applications for 802.16-2004 and 802.16e
WiMAX networks. 2005.
[21] Forum, WiMAX. WiMAX's technology for LOS and
NLOS environments.
[22] Golshan, Reza. Fixed and Mobile WiMAX
Overview. s.l. : Fujitsu, 2006.
[23] IEEE. IEEE standard 802.16-2004. 2004.
[24] Ilyas, Syed Ahson Mohammad. WiMAX Standars
and security. s.l. : CRC Press, 2008.
[25] J. G.Andrews, A.Ghosh and R.Muhamed.
Fundamentals Of WiMAX. Understanding
Broadband Wireless Access. s.l. : Prentice Hall, June
2007.
[26] Kumar, Amitabh. Mobile Broadcasting with
WiMAX: Principles, Technology, and Applications.
2008.
[27] Kwang Cheng Chen, J. Roberto B. de Marca.
WiMAX Mobile. s.l. : Wiley.
[28] Ltd., WebSoft. http://www.courselab.com/. [En
línea] 2009.
Figura 10. Vista previa módulos [29] Maestrosdelweb. [En línea]
http://www.maestrosdelweb.com/principiantes/
3. CONCLUSIONES Y TRABAJO evolucion-de-las-redes-inalambricas.
FUTURO [30] N. Davis, S. Ransbottom, and D. Hamilton. Teaching
La elaboración de objetos de aprendizaje sugiere la Computer Networks. s.l. : Ada Letters, 1998. vol.
creación de un esquema más robusto en cuanto a módulos XVII, pp. 104-110.
estadísticos y de evaluación. Lo cual permite que el [31] Nacional, Ministerio de Educación.
presente trabajo pueda ser tomado como base para la http://www.colombiaaprende.edu.co. Enlínea
creación de cursos que contengan estos módulos, los 2010.
cuales exigen mayor tiempo y unas bases pedagógicas más [32] OFDM (Orthogonal Frequency Division
fuertes. Multiplexing). Alicia Hinostroza C., Camilo Medina
Generar el espacio que promueva este tipo de proyectos L., Sandra Vásquez R. Bogotá : s.n., 2007.
en la universidad, a través de la utilización y complemento [33] OPNET. http://www.opnet.com/. [En línea]

414
[34] Pareek, Deepack. WiMAX taking Wireless to the Modeling. National Chiao Tung University, Taiwan :
MAX. s.n.
[35] Pietrosemoli, Alberto Escudero Pascual y Ermanno. [39] Soto, Silvia Elena Salas. Diseño Del Curso En Línea:
WiMAX y Soluciones no Estándar. Trabajo Interdisciplinario . s.l. : Universidad de Costa
[36] Resolución 2064. Comunicaciones, Ministerio de. Rica.
2005. [40] Subir Kumar Sarkar, T G Basavaraju, C
[37] Shah, Deepti Chandra- Shreyas. QoS in Puttamadappa. Ad Hoc Movile Wireless Networks.
WiMAX,2008. 2008. [41] Technologies, OPNET. WiMAX Consortium Model
[38] Shiang-Ming Huang, Ya-Chin Sung, Shie-Yuan Version 2, Software Design Document. 2005.
Wang. NCTUns Simulation Tool for WiMAX [42]

415
416
El proceso de testing y la implementación de la herramienta MANTIS
BUGTRACKER en el proceso

Carlos Enrique Montenegro Dr Juan Manuel Cueva Paulo Alonso Gaona


U. Distrital U. de Oviedo, España U. Distrital
310-2283601 34 98518 2451 3239300- ext 2508/09
cemontenegrom@udistrital.edu.co cueva@uniovi.es pagaonag@udistrital.edu.co
Luis Alejandro Sainea Rojas Rocio del pilar Cardona Medina
U. Distrital Bogotá, Colombia
3280143-ext 0091 3239300- ext 2508/09
alejo1289@hotmail.com rpcardonam@hotmail.com

RESUMEN Como consecuencia, se han desarrollado diferentes modelos


de madurez como guías para la evolución de las
En este artículo se muestra el proceso de Testing o Pruebas organizaciones en la gestión de software, las cuales
de Software apoyado en el software de gestión de incluyen el proceso conocido como Testing o pruebas al
incidencias Mantis137. software que ha ido evolucionando y parte de esta
El proceso de pruebas como herramienta para el evolución es la implementación de herramientas de
aseguramiento de la calidad en el desarrollo de software es software diseñadas específicamente para apoyar, facilitar y
factor clave para lograr la satisfacción del cliente, el dar mayor organización a este proceso.
cumplimiento de los objetivos del proyecto y los requisitos Aún cuando se han venido adoptando algunas prácticas
de sus productos; así como el establecimiento de procesos promovidas por esos modelos, es usual en el desarrollo de
de desarrollo maduros. los proyectos que por presión de obtener resultados o
Mantis, como una herramienta software diseñada para el simplemente por falta de disciplina en la ejecución, no se
reporte de incidencias, es un apoyo ideal en cualquier fase apliquen los procedimientos establecidos y se sacrifique la
de las pruebas al integrarse con el proceso operativo de calidad por mostrar resultados. Para evitar esta situación, es
las mismas. Caraterísticas como personalización, esencial establecer un proceso paralelo, integrado en la
disponibilidad e integridad permite su utilización gestión del proyecto que asegure, el cumplimiento de la
independiente del modelo de negocio al que se aplique. planeación, la utilización de prácticas adoptadas por la
Su adquisición gratuita presenta un beneficio/costo para el organización y se garantice la calidad durante la producción
negocio al cual se aplique, sin que esto represente una y entrega del software.
baja confiabilidad en el desempeño funcional de la
implementación. 6. ELTESTING
El proceso de pruebas como cualquier proceso requiere de
Palabras Clave afinación y personalización de acuerdo a las necesidades
de quien lo utilizará, tomando como base que la idea
fundamental de una prueba es la de simular el sistema,
Prueba, proceso, software, etapas, tiempos, resultados, Asegurando que el sistema hace lo que debe y no hace lo
calidad, aplicación, testing, Mantis, Roles, desarrollo, que no debe. El testing también es conocido como “proceso
incidencia, ejecución, costos. de evaluación de un producto desde un punto de vista
crítico, donde el "tester" (persona que realiza las pruebas)
5. INTRODUCCION somete el producto a una serie de acciones inquisitivas, y el
producto responde con su comportamiento como reacción.‖
El proceso de industrialización del software ha enseñado [1]
que la única forma de producirlo con calidad en forma
consistente es utilizando procesos de desarrollo controlados Aunque suene sencillo, las pruebas requieren de una gran
y estandarizados que tiendan al mejoramiento continuo. habilidad para identificar los puntos críticos de un
determinado sistema; se debe realizar un análisis que
permita evaluar de forma objetiva las capacidades, flujos y
resultados de un producto de software; realizando una
137
http://www.mantisbt.org/ verificación dinámica del comportamiento de un programa;

417
tomando como base un número finito de casos de prueba
que tendrán su campo de acción en diferentes escenarios
que evaluaran su resultado. CERTIFICACION PRUEBAS
Otra definición del proceso de testing es ―Las pruebas de
software es el proceso utilizado para calcular la calidad de
software desarrollado. Las pruebas de software son un
proceso, o una serie de procesos, diseñados para asegurar
que el código del ordenador realice las funciones para las
cuales fue diseñado y que éste no realice funciones no
planeadas. El software debería ser fiable y constante, sin
ofrecer sorpresas a los usuarios.‖ [2]

Para lograr este objetivo las pruebas deben estar soportadas


por elementos que permitan, en determinado momento,
sustentar la realización de las mismas. En la figura 2 se muestran los pasos presentes en cada
En la siguiente sección se definen los tipos de procesos, las etapa del proceso de pruebas, necesarios para la
certificación del mismo.
etapas de las pruebas, sus objetivos y los roles definidos
para cada una; y se mostrará como la herramienta Mantis se
Para comenzar se hablará de la estructura interna presente
integra como apoyo a las diferentes etapas:
en cada una de estas etapas que consta de 7 pasos cíclicos
en cada una, estos siete pasos son: Análisis Preliminar,
Planificación, ejecución casos de Prueba, generación
incidencias, reporte incidencias, pruebas de regresión y
certificación de las pruebas.

2.2.1 Análisis Preliminar

En este paso se revisa el flujo funcional de la aplicación, lo


cual permite al encargado de las pruebas formar una idea
general del propósito del desarrollo y los pasos críticos en
el mismo.

2.2.2 Planificación
En la figura 1 se muestran las etapas del proceso de
pruebas en el tiempo.
El objetivo de este paso es planificar el proyecto de
Testing, definir de forma estructurada el donde, cómo y
6.1 Tipos De Pruebas cuando se realizarán las pruebas, estableciendo el alcance
de las mismas.
―El testing puede probar la presencia de errores pero no la Se ejecuta el diseño de los casos de prueba a partir de la
ausencia de ellos‖ [3] especificación del producto los cuales serán la guía
Las pruebas están definidas en tres etapas: pruebas de detallada para un determinado escenario o funcionalidad a
desarrollo e ingeniería, pruebas de aseguramiento de validar.
calidad internas y pruebas con usuarios reales [4].
6.2 Los 7 Pasos En Una Etapa 2.2.3 Ejecución Casos De Prueba

No basta con solo definir los casos de prueba, también se


debe indicar los requisitos y el cómo serán ejecutados. Se
debe tener en cuenta que cada caso de prueba es diferente y
por lo tanto se evalúan distintas funcionalidades.
En este punto se debe realizar la implementación de cada
caso de prueba en el software, contrastando el
comportamiento esperado del mismo con su
comportamiento real de acuerdo al análisis realizado.
Se espera con la ejecución de los casos de prueba que

418
además de evidenciar las falencias inherentes al desarrollo, prueba implica una nueva versión de uno o más
se identifiquen posibles escenarios de mejora y los puntos componentes del sistema [6].
débiles sobre el producto de software. En esta etapa En este paso se certifica que la corrección de las incidencias
también se realiza la labor de configuración del entorno reportadas, no afecte el correcto funcionamiento de
cuyo objetivo es el de establecer un ambiente optimo de de software; que no se generen nuevas incidencias ya que en
pruebas instalando las herramientas necesarias y el software muchas ocasiones la solución de una, es la causante de
a probar en la versión correspondiente a cada ciclo de nuevas incidencias. Las pruebas de regresión permiten dar
prueba. parte de estabilidad sobre un módulo específico o en la
totalidad del software, ya que permiten perfeccionar el
2.2.4 Generación Incidencias cumplimiento real del flujo del programa. Este paso se debe
repetir iterativamente desde el paso 3 cuantas veces se crea
―El objetivo principal de las pruebas es descubrir fracasos necesario hasta cumplir con la especificación requerida en
de software, de modo que los defectos puedan ser el documento.
descubiertos y corregidos. Esto es una búsqueda no trivial.
Las pruebas no pueden establecer que un producto funciona 2.2.7 Certificación De Las Pruebas
correctamente en todas las condiciones, pero puede
establecer que éste no funciona correctamente en ―El proceso de pruebas es una investigación que provee a
condiciones específicas.‖ [5] quien la realiza información acerca de la calidad de un
producto o servicio bajo prueba‖ [7]
En este paso se listan y registran las fallas encontradas
después de la ejecución de los casos de prueba. Se deben En este paso se da el parte final del estado del software ya
discriminar las incidencias de acuerdo al impacto funcional sea positivo o negativo. Generalmente se toma como el
en el software dando prioridad a aquellas en las cuales el concepto soporte de la calidad en el producto software, ya
flujo normal del aplicativo se vea interrumpido que se espera que al final de los siete pasos el producto se
abruptamente. Se recomienda no dar tanta prioridad a las encuentre depurado y cumpliendo con lo especificado en el
incidencias que no interrumpan el flujo y que se encuentren documento de requerimientos.
en la especificación del producto ya que son fallos a nivel
de forma que pueden ser fácilmente corregidos.
2.3 Definición Etapas De Las Pruebas
Se deben analizar muy bien las incidencias generadas, ya
que en muchas ocasiones una incidencia que parece sencilla
y sin mayor importancia puede tener un gran impacto
funcional en el software. Un valor agregado de este paso es
la generación de mejoras sobre el producto software, este
tipo de análisis, aunque no es de fallo, es de vital
importancia para el proyecto al permitir realizar una labor
proactiva sobre el funcionamiento a futuro de la aplicación.

2.2.5 Reporte De Incidencias

En este paso se comunica al responsable las incidencias


asociadas al mismo. Al momento de registrar la incidencia
siempre se debe tener un responsable de su gestión, lo cual En la figura 3 se ilustra las tres etapas del proceso de
permite su pronta solución y cierre definitivo. pruebas y la secuencia de las mismas.
El reporte de incidencias puede llegar a afectar
considerablemente el tiempo estimado del proyecto si no se Una vez definidos y explicados los siete pasos internos de
administra de forma adecuada; una comunicación tardía o cada etapa, se define las tres etapas base en el proceso de
nula al responsable retrasa no solo el proceso de pruebas pruebas de software:
que se está ejecutando, si no también retrasa los tiempos
finales de entrega al cliente. 2.3.1 PRUEBAS DE DESARROLLO E INGENIERIA
2.2.6 Pruebas De Regresión Son también conocidas como pruebas unitarias o de
programador, tienen como punto central el código del
Cada ciclo de ejecución de casos de prueba está asociado a programa, la integración de módulos y sistemas; su objetivo
una versión del producto a probar, cada nuevo ciclo de es realizar pruebas puntuales sobre la lógica implementada

419
a un nivel no tan general del sistema, evaluando si la forma
en la que se implemento la solución a un determinado
requerimiento fue la más acertada en rendimiento,
adaptabilidad y escalabilidad a futuro en el software.
Las pruebas en esta etapa no solo determinan el correcto
funcionamiento del módulo implementado por un
determinado programador, también le permiten al mismo,
evaluar su trabajo y retroalimentar su experiencia
identificando nuevas técnicas de solución a un determinado
problema.

En la figura 4 se ilustra las tres etapas del proceso de


2.3.2 Pruebas De Aseguramiento De Calidad pruebas y los roles asociados en cada etapa.
Internas
Cada una de las etapas requiere de roles que asignan la
En esta etapa se realizan pruebas a nivel general del responsabilidad para cada una, cada rol tiene funciones que
sistema. Como su nombre lo indica, permite certificar la contribuyen al proceso de producción del software.
calidad del software al ejecutarse desde un punto de vista Los roles se definen para cada una de las etapas de la
objetivo funcional. En muchas ocasiones las pruebas de siguiente forma:
desarrollador son sesgadas inconscientemente por el mismo
programador, ya que al no integrar de forma total el sistema 2.4.1 Etapa 1
suelen presentarse fallos externos al módulo desarrollado
que el programador no tiene en cuenta y que afectan el Para la etapa 1 el rol asignado es el desarrollador.
resultado final de su implementación.
Son pruebas principalmente a nivel de interfaz de usuario, 2.4.1.1 Desarrollador
evaluando compatibilidad, funcionalidad, e instalación del
software; se incluyen mediciones de desempeño general del Es el responsable del primer filtro de fallos en un desarrollo
sistema. conoce como fue realizado internamente, las fortalezas y
Muchas compañías realizan esta etapa con un grupo debilidades de los distintos módulos que componen el
específico de usuarios externos también llamados Tester o desarrollo. Es su deber entregar una versión ―estable‖ del
Ingenieros de pruebas. Una de las principales ventajas de desarrollo a la siguiente fase del proceso de pruebas. Al
emplear usuarios externos en los grupos de pruebas realizar pruebas está en la obligación de entregar un
internas, es la fiabilidad en la evaluación. Aunque esta informe de los casos de prueba ejecutados, resultados
fiabilidad no es del todo cierta, si disminuye arrojados y versiones que solucionan estos errores.
considerablemente la predisposición a ejecutar casos de
prueba basados en el conocimiento previo del aplicativo. 2.4.2 Etapa2
En ocasiones el desconocimiento del como está hecho el
sistema es la mejor arma para evaluarlo. Para la etapa 2 se definen tres roles principales: Líder del
proyecto de Pruebas, Diseñador y Tester.
2.3.3 Pruebas Con Usuarios Reales
 Líder Del Proyecto De Pruebas
También conocidas como pruebas Funcionales, son
realizadas con usuarios actuales o potenciales que utilizarán
la aplicación; se ejecutan, preferiblemente, en distintas El líder es quien dirige el proyecto de pruebas, es el
plataformas y ambientes de trabajo. Estas pruebas son las encargado de revisar constantemente el avance del proceso,
únicas que realmente dan información acerca del posible validar la planeación realizada y vigilar que esta se cumpla.
éxito o fracaso de un producto, siendo el usuario que Es quien realiza en análisis inicial y define tiempos en el
solicitó el requerimiento quien determina si efectivamente cronograma de actividades.
se le entrega el producto esperado; se evalúa la satisfacción  Diseñador
del cliente, se realiza el informe final y se valida el proceso.
El diseñador es el encargado de realizar el diseño de los
2.4 Roles casos de prueba a partir de las especificaciones del
producto. Su labor incluye el realizar las matrices de puntos
de verificación que serán la base de los casos de prueba.

420
 Tester desarrollado en PHP y requiere de una base de datos.
Aunque se puede adaptar prácticamente a cualquier motor
de base de datos, la más recomendada para la ejecución de
Es el encargado de ejecutar los casos de prueba, reporta los Mantis es mysql la cual también es de distribución libre.
resultados obtenidos en la ejecución de los casos. Mantis se aplica principalmente a empresas que están
surgiendo y que no cuenten con un gran presupuesto,
2.4.3 Etapa 3 aunque se puede evidenciar en la práctica que muchas
empresas ya establecidas implementan la herramienta por
Para la etapa 3 el rol asignado es el cliente. su fiabilidad y reducción de costos.
Entre las características generales que se pueden ver están:
 Cliente
-Permisos de usuario por roles (administrator, viewer,
reportes, updater…).
Es la persona que necesita el producto es la más interesada
en la calidad del mismo, es el punto más objetivo a nivel de - Interfaz gráfica sencilla.
negocio ya que conoce las necesidades y el impacto que
tendría el funcionamiento incorrecto de algún modulo en el -Categorías dentro de cada proyecto, lo que permite
producto final. manejar los distintos tipos de actividades/intereses (interfaz
Gráfica, funcionalidad, etc) [10].
2.5 Herramientas De Documentación De
Pruebas 2.5.2 Mantis Y Su Integración Con El Proceso De
Pruebas
Actualmente se han desarrollado diferentes herramientas
que apoyan el proceso de testing, orientadas principalmente
a salvaguardar la documentación que soporta el proceso;
estas herramientas permiten administrar y soportar un
proceso de pruebas en cualquiera de sus etapas para dar
mayor confiabilidad y control.
Aunque existen muchas herramientas para este propósito
en su mayoría presentan un común denominador, el costo.
El costo es un factor que afecta considerablemente a una
empresa en cualquiera de sus áreas y como es bien sabido
toda empresa busca reducir sus costos sin afectar la calidad
de los productos que genera. Como resultado de esta
necesidad ha surgido una contraparte para estas
herramientas cuyo costo es poco accesible, son las
herramientas desarrolladas bajo licencia GNU[8] y que
permiten su libre utilización suprimiendo no solo el factor
costo, sino también la imposibilidad de adaptar la
herramienta a las necesidades de la empresa; un ejemplo es En la figura 5 se ilustra la integración de la
la herramienta Mantis [9]. funcionalidad presente en la herramienta Mantis con los
pasos de cada etapa en el proceso de pruebas.
2.5.1 Mantis
A continuación se explica la forma en la cual Mantis se
Mantis es una herramienta de gestión de incidencias (o bug integra con la parte operativa del proceso de pruebas que se
trucker en inglés) de código abierto. describió anteriormente.
Permite llevar un control sobre cada proyecto que se está
desarrollando, también llevar el registro en el tiempo de las  Creación De Proyecto
diferentes incidencias o bugs del desarrollo. Gracias a que
es un sistema web permite ser consultado en cualquier
Como se vio previamente, cada proyecto de desarrollo
momento y lugar eliminando la dependencia de estar en el
requiere la implementación de un proceso de pruebas que
lugar de trabajo para verificar el estado de una solicitud.
se adaptara al mismo. Para solventar esta necesidad, Mantis
Sirve para llevar un control completo de cada proyecto y
permite la creación de múltiples proyectos, brindando la
mantener el historial de cada incidencia en el tiempo; está
posibilidad de realizar procesos de pruebas en forma

421
simultánea sin afectar los tiempos del cronograma. Gracias entrega de un producto software, esta certificación debe
a esta posibilidad, cada evaluación de software puede ser tener bases demostrables que permitan apoyar el resultado.
configurada de forma autónoma con características Mantis, provee la funcionalidad de generar reportes de las
particulares tales como responsables, tiempos de incidencias que contiene. Además de ser el repositorio de
incidencias y flujo de solución de las mismas. las diferentes incidencias generadas, provee información
del estado de las pruebas en cualquier punto del proceso; no
 Registro De Incidencias solo en la parte final se pueden generar estos reportes.

 Características Modificables De Mantis –


El reportar una incidencia no es simplemente reportar un
Personalización
fallo en el sistema. El fallo reportado debe tener un flujo de
error, documentación que lo soporte, un grado de impacto,
una persona que lo reporta y un responsable de su solución. Mantis permite parametrizar funcionalidades de acuerdo a
Mantis ofrece estas funcionalidades permitiendo facilitar la las necesidades del proceso, las cuales pueden ser
comunicación entre quien reporta el fallo y quien debe implementadas en determinados escenarios que se
resolverlo; implementa una funcionalidad de notificación describen a continuación.
vía mail entre las partes suprimiendo la dependencia de
notificación hasta que la persona que tiene asignada la o Tipo De Usuarios
incidencia ingrese al aplicativo vea su asignación. Este
reduce tiempos en el proceso de pruebas y aumenta
Mantis tiene por defecto 6 tipos de usuarios, cada uno con
significativamente la calidad del proyecto software, ya que
características definidas que pueden ser implementadas en
al gestionar rápidamente un fallo se aprovecha mejor el
cada una de las etapas del proceso de pruebas:
tiempo dedicado a las pruebas del producto.
El manejo de estados y rótulos en las incidencias hace de
mantis una herramienta amigable con el usuario
o Espectador
permitiendo que se integre al cliente en el proceso de
pruebas aún antes de la etapa de pruebas funcionales; Este tipo de usuario se caracteriza por ser de solo consulta,
garantizando que el cliente esté informado del proceso de es decir es un tipo de usuario que no puede modificar la
pruebas, de su producto y del avance del mismo en caso de información registrada en el aplicativo, es ideal para el
requerirlo; el cliente puede acceder con un rol de consulta cliente de un producto de software que desee saber el
y fácilmente verificar la información de su interés sin estado del proceso de pruebas. Este tipo de usuario integra
interferir con el desarrollo de las pruebas que se están al cliente sin importar si tiene poca o nula experiencia en el
realizando de forma paralela. proceso de pruebas, brindándole la posibilidad de obtener
la información que requiere sin arriesgar la integridad de la
 Pruebas De Regresión información.

o Informador
El tener las incidencias asociadas a un caso de prueba
específico, permite que la realización de las pruebas de
regresión sea un proceso más sencillo. La reducción de Este tipo de usuario puede consultar y registrar incidencias.
tiempos en las pruebas de regresión con la ayuda de mantis Es idóneo para asignar a clientes que tengan más
se ve reflejada por los siguientes aspectos: conocimiento del proceso de desarrollo o pruebas de
- Notificación automática a la persona que reporto software. Este usuario permite conocer las dudas o posibles
la incidencia una vez cambie de estado la misma. requerimientos de mejora que un usuario solicita al
- Replica del error de forma ágil al tener el flujo del observar el proceso de pruebas además de crear una vía más
error presente en la incidencia. de retroalimentación por parte del cliente.
- En caso de presentarse un nuevo escenario de falla Este usuario no puede cambiar el estado de las incidencias
en la réplica del flujo, se puede notificar reportadas, esto asegura la integridad de los datos pre-
nuevamente en la misma incidencia y se cambia el existentes.
estado de la misma, esto evita que se cree una
nueva incidencia. o Actualizador

 Certificación De Las Pruebas Este tipo de usuario posee propiedades de consulta, reporte
y modificación de las incidencias. Al ser un usuario que
La certificación de un proceso de pruebas es el aval de puede alterar la integridad de la información, se restringe a

422
que solo pueda modificar las incidencias que fueron
reportadas por él. Es un usuario que se asigna Mantis apoya el proceso multiusuario. Este proceso permite
principalmente a los tester del grupo de pruebas. El un mayor aprovechamiento de la herramienta ya que provee
actualizador aunque puede modificar las incidencias solo se múltiples perfiles dependiendo de la función a desempeñar,
puede pasar a determinados estados. por cada uno de los usuarios; permite el registro simultaneo
Como valor agregado se tienen los reportes detallados para de incidencias y provee una consulta que permite evidenciar
cada uno de los usuarios que tengan este tipo de usuario; es el estado de las mismas (No Asignadas, Resueltas,
una ventaja ya que permite realizar mediciones de Monitoreadas, Reportadas y Modificadas); manejo de
productividad, avance del proceso y efectividad en las diferentes proyectos en simultaneo no solo registrando
pruebas ejecutadas. incidencias, sino también generando un reporte detallado
con la posibilidad de visualizar la información requerida
o Desarrollador por medio de filtros que facilitan su búsqueda.
De igual forma Mantis permite definir flujos de procesos
para cada uno de los proyectos permitiendo parametrizar
Este usuario contiene la funcionalidad del usuario
cada uno de acuerdo a la planeación establecida.
modificador, la única diferencia son los estados a los cuales
puede cambiar las incidencias.
 Pruebas Con Usuarios Reales
o Manager
Mantis permite una comunicación directa con el usuario
Es un usuario que puede modificar las incidencias final al permitir que él mismo realice las pruebas desde su
asociadas a su proyecto, tiene la potestad de reasignar lugar de trabajo sin necesidad de un acompañamiento
recursos y de extraer reportes específicos. Se asigna a los presencial del responsable del desarrollo.
líderes de proyecto o lideres de pruebas. La implementación de notificaciones vía Mail asegura una
pronta comunicación de incidencias reportadas,
optimizando los tiempos de respuesta por parte del
o Administrador responsable de la asignación.
La fácil utilización de la herramienta permite que el usuario
Puede modificar todas las propiedades del aplicativo sin no requiera de un gran plan de capacitación para su
restricción. Aunque no hace parte del proceso de pruebas, utilización, ni deba conocer en detalle el proceso de
la persona con este usuario es parte fundamental del pruebas implementado; basta con la indicación de cómo
proceso al configurar la aplicación a la necesidad del reportar y consultar lo reportado, en un caso especifico se
proceso. agrega la explicación de cómo generar los reportes en caso
de requerirlo. La utilización de la herramienta permite un
2.5.3 Mantis En Relacion A Las Etapas Del Proceso proceso más transparente en los tiempos de cronograma al
De Pruebas permitir que el usuario verifique el tiempo de pruebas
empleado, de esta forma se distribuye la responsabilidad de
cumplimiento entre el responsable del desarrollo y el
La herramienta puede fácilmente adaptarse a cualquiera de
cliente.
las tres etapas del proceso, ya que cuenta con los elementos
requeridos para la implementación de cualquiera de ellas.
7. CONCLUSIONES
 Etapa De Pruebas De Desarrollo E
Ingeniería  La implementación de Mantis en un proceso de
pruebas no tiene un alto grado de complejidad,
por el contrario es de fácil utilización y gran
La herramienta acompaña el proceso de pruebas unitarias solides.
siendo una etapa de un solo usuario. El tipo usuario
desarrollador provee las funcionalidades requeridas para  No importa lo estructurado que sea un proceso de
que el responsable del desarrollo pueda documentar las pruebas, siempre debe cumplir con las tres etapas
pruebas realizadas sobre el modulo implementado. En caso o escenarios de ejecución (programador, internas y
de ser necesario el aplicativo permite la parametrización de funcionales), y sus resultados deben ser soportados
reportes para que este tipo de usuario pueda generarlos. siempre; en este punto el uso de herramientas de
registro de incidencias dan fiabilidad a los
resultados.
 Etapa Pruebas De Aseguramiento De
Calidad Interna  Mantis al ser una herramienta de distribución libre,

423
no presenta un diseño pobre y de uso acotado, por [5] Kaner, Cem; Falk, Jack and Nguyen, Hung Quoc
el contrario cuenta con una gran robustez y (1999). Testing Computer Software, 2nd Ed.. New
soporte. York, et al: John Wiley and Sons, Inc.. pp. 480 pages.
 La definición de roles en un proceso de pruebas ISBN 0-471-35846-0.
permite identificar los responsables de las
actividades en el mismo; Mantis apoya esta [6] Black R., Managing the Testing Process, 2nd Edition.
directriz al permitir la integración de cada uno de Rex Black. Editorial Wiley,
los actores del proceso de pruebas de acuerdo a las
funciones que se le asignen. [7] Exploratory Testing, Cem Kaner, Florida Institute of
 El proceso pruebas se presenta como uno de los Technology, Quality Assurance Institute Worldwide
pilares de la calidad en los productos de software, Annual Software Testing Conference, Orlando, FL,
al proveer control, retroalimentación y November 2006
confiabilidad durante el proceso de desarrollo de
un software. [8] James Hacker.GNU General Public License, version 2.
 Mantis no es dirigida de forma directa a empresas www.gnu.org. http://www.gnu.org/licenses/old-
en gestación o de poca trayectoria; cuenta con la licenses/gpl-2.0.html. 01/06(2009). Accedido el 30 de
solides requerida para que su implementación sea Junio de 2010
exitosa en cualquier modelo de negocio que
maneje un proceso de pruebas. [9] MantisBT Team . mantis .www.mantisbt.org.
 El uso de la herramienta de gestión de incidencias http://www.mantisbt.org/ Accedido el 30 de Mayo de
Mantis es de gran utilidad en la adquisición de 2010
madures de un proceso de pruebas.
 La relación costo/beneficio es un importante [10] MantisBT Team . Mantis Bug Tracker Administration
beneficio que brinda la herramienta Mantis a la Guide. .www.mantisbt.org.
empresa que la implementa gracias a su http://docs.mantisbt.org/master/en/administration_guid
distribución libre. e.html Accedido el 30 de Mayo de 2010
 Mantis es una herramienta de gran utilidad al
presentarse una evaluación de auditoría, al ser la [11] Tran, Eushiuan (1999).
base en la cual se puede demostrar la ejecución de Verification/Validation/Certification". in Koopman, P..
un proceso de pruebas para un software evaluado. Topics in Dependable Embedded Systems. USA:
Carnegie Mellon University.
http://www.ece.cmu.edu/~koopman/des_s99/verificatio
8. REFERENCIAS Y CITACIONES. n/index.html. Retrieved 2008-01-13.

[1] ITtoolbox Role: IT Professional, Quality. Software [12] Savenkov, Roman (2008). How to Become a Software
Testing Process. it.toolbox.com. Tester. Roman Savenkov Consulting. p. 159. ISBN
http://it.toolbox.com/wiki/index.php/Software_Testing 978-0-615-23372-7.
_Process 28/01(2009). Accedido el 13 de Junio de
2010 [13] Exforsys inc. Life Cycle of Testing Process.
[2] Wikipedia. Pruebas de software . es.wikipedia.org. www.exforsys.com.
http://es.wikipedia.org/wiki/Pruebas_de_software http://www.exforsys.com/tutorials/testing/life-cycle-of-
03/06(2010). Accedido el 14 de Junio de 2010 testing-process.html.

[3] Rafael Acosta Álvarez: Edsger Wybe Dijkstra.


Memoria_BancoDeTransporte.pdf. www.rafaco.es.
http://www.rafaco.es/descargas/Memoria_BancoDeTr
ansporte.pdf. 01/11(2009) Accedido el 20 de Junio de
2010

[4] Presman, Roger S. "Ingeniería de software un enfoque


practico" pp. 316 Quinta edición.

424
Aproximación de un modelo unificado para la integración de
herramientas de Gestión de Configuración de Software

Fabian Augusto Olarte Bustos Javier Parra-Fuente


U. Pontificia de Salamanca Campus de Madrid U. Pontificia de Salamanca Campus de Madrid
Paseo Juan XIII, 3 Paseo Juan XIII, 3
28040 - Madrid 28040 - Madrid
+34 638534217 +34 900 101 829
faolarte@gmail.com javier.parra@upsam.net

RESUMEN empleada; luego se hace una definición conceptual del


La Gestión de Configuración (Configuration Management modelo propuesto; se muestran los resultados obtenidos y
CM), en la definición de Estublier[1], es la disciplina del finalmente se discuten los resultados y beneficios del
control de cambios de sistemas grandes y complejos. El modelo propuesto.
nombre de SCM corresponde a CM en el área del 2. EVOLUCIÓN DE SCM
Software[2]. Para abordar esta aproximación se realizó una En los años 50 el concepto de Gestión de Configuración
revisión sistemática de las diferentes publicaciones y (Configuration Management - CM) fue concebido por la
autores relevantes en el área, con fin de identificar las industria aeroespacial, debido a las dificultades presentadas
problemáticas que hoy en día se presentan en el ciclo de por la inadecuada gestión en los cambios de los documentos
vida del software originadas por la ausencia o una técnicos. El nombre de Gestión de Configuración de
deficiente aplicación de las prácticas de la SCM. Software (Software Configuration Management - SCM)
A lo largo del tiempo se han desarrollado varias herramientas que
corresponde a CM en el área del Software [2].
satisfacen parcialmente las necesidades que demanda un sistema
de SCM, por tanto, y en base a lo obtenido en la revisión A principios de los años 70 apareció el primer sistema de
sistemática, se propone un modelo que permita conseguir una control de versiones [3]. La idea era sencilla: cada vez que
interoperabilidad entre diversas herramientas o soluciones un fichero cambiaba, una revisión es creada, de esta forma
tecnológicas que cubren las necesidades de negocio por el que un fichero evoluciona como una sucesión de revisiones.
están siendo utilizadas. Con la anterior acción, se prestaron 3 servicios: History,
Palabras clave delta, y administración de multi-usuarios.
Gestión de Configuración de Software, SCM, soporte al El histórico ―History‖ almacena en registros simples que
proceso, workspace, Ingeniería de Software, permite saber quién y cuándo se crea una revisión. Los
Versionamiento, BaseLine, versiones, revisiones, elementos Deltas fueron proporcionados porque dos versiones
de configuración, calidad de software, cmmi, SWEBOK, sucesivas son muy similares (en promedio un 98%) [4]. La
building, release, interoperabilidad.. idea era almacenar solo las diferencias (2% que era la
diferencia), esto implica una reducción de la cantidad de
1. INTRODUCIÓN memoria y espacio requerido para un conjunto de versiones
La SCM ayuda al proceso del ciclo de vida del software y o cambios de un fichero o un elemento. La administración
beneficia a las actividades del proceso del software. Uno de de multi-usuarios consiste en prevenir los cambios que
los retos que tiene SCM es superar la limitada capacidad de pueden hacer los usuarios sobre un mismo elemento en un
interoperabilidad que tienen las herramientas. En este mismo momento en el tiempo (de forma concurrente). Si un
estudio se hace una propuesta de un modelo de SCM que usuario desea hacer un cambio en un elemento y lo reserva
puede ser usado como un modelo de referencia para (check out), solamente el mismo usuario puede generar una
comprender su dominio y también para construir una nueva revisión si incorpora el cambio (check in).
infraestructura que permita una interoperabilidad entre las Originalmente, cada elemento era gestionado con un árbol
herramientas de SCM y otras herramientas de la Ingeniería de versiones (revisiones y ramas) después de los sistemas
de Software. de control de código fuente SCCS [5] y los sistemas de
Durante este estudio se presenta una evolución de la control de revisiones RCS[6].
SCM; se procede con la exposición de la metodología Despista el hecho que desde hace 25 años esto todavía es

425
hoy la base de la gran mayoría de sistemas SCM. 3. METODOLOGÍA
También en los años 70 se introdujo el concepto de A lo largo del tiempo se han publicado una gran cantidad
―Change set‖ o conjunto de cambios que consiste en de artículos en base a la evolución, los conceptos, las
nombrar una compilación exitosa con una etiqueta, si hay metodologías y las funcionalidades de la SCM. Para tener
un cambio posterior, se puede establecer que es lo nuevo un referente conceptual, de autores y de instituciones se
que hay que compilar y generar así una nueva etiqueta [7], inicia una revisión sistemática que tiene como fin
para poder trabajar sobre los cambios incrementales. identificar que trabajos investigativos y estándares definen
La técnica de ―change set‖ abrió posibilidades que van más las prácticas de la SCM y en base a la información
allá del versionamiento conocido hasta el momento: encontrada, se espera realizar un modelo que permita
versionamiento orientado al cambio (deltas)[8]. Los sistemas integrar las diversas capacidades de una herramienta o un
―change set‖ puros no se implementaron en este momento solución (conjunto de herramientas) de SCM.
por problemas en la nomenclatura y en la compilación. Para el protocolo de la revisión sistemática se empleo la
En los años 80, la SCM se enfoco en la programación: plantilla presentada en [16] y en [17]. La pregunta de
versionado y construcción (building). El primer sistema que investigación que se planteo es: ¿Qué aproximaciones
representó la funcionalidad de SCM fue un sistema de existen en la SCM y cuáles ofrecen un enfoque orientado a
archivos (conocido con un file system) y el foco principal la integración de herramientas que soporten el proceso de
fue el control de archivos. El primer producto comercial SCM?. La lista de palabras clave para la investigación
serio fue DSEE [9]. DSEE introdujo el concepto de fueron: Software Configuration Management, SCM, SCM
modelado de sistema (antecesor de ADL – Architecture roadmap, SCM trends, CMMI Nivel II, Evolution of a
Description Language). Varias herramientas de SCM de SCM, Software Configuration Management Patterns,
hoy en día, no dejan de ser una capa superior de un sistema research SCM, IEEE STD 828-1998, SWBOK, ISO/IEC
de archivos. 12207, modeling for SCM Systems, state of the art SCM,
El concepto de Espacio de trabajo(workspace) y el control distributed configuration management, models for SCM,
del trabajo cooperativo lo introdujo NSE[10]; luego Adele revision control systems.
introdujo un producto especializado en modelado con Una vez que tenía las palabras clave, se procede con la
configuración automática de construcción (building) [11], y elaboración y depuración de ecuaciones de búsqueda y la
Aides de Camp(ahora TRUE software) introdujo el utilización de los conectores lógicos AND y OR, a demás
concepto de Conjunto de cambios (Change set)[12], de hacer búsquedas en español e inglés. A continuación se
concepto que no se implementó en la década de los 70. presenta un ejemplo de ecuaciones de búsqueda que se
En los años 90 la SCM se enfocó en la programación: emplearon en el estudio:
soporte al proceso y la ingeniería concurrente. En esta  Software configuration management roadmap
década apareció el primer producto real de SCM. Estos  Software configuration manager roadmap
sistemas eran mucho mejores, ofrecían usar una base de  Gestión de configuración de software roadmap
datos relacional pero todavía bajo el concepto de control de  SCM trends
archivos, proveían soporte al espacio de trabajo
 SCM tendencias
(workspace) pero no daban soporte al proceso de
Las ecuaciones de búsqueda se van depurando y se van
construcción (built-in). En esta generación apareció
registrando en la medida que el estudio iba avanzando. El
ClearCase[13] (el sucesor de DSEE) que introdujo el
listado de las ecuaciones de búsqueda se iba depurando (en
concepto de un sistema de archivos virtual. Continuus[14] y
términos de resultados obtenidos por relevancia,
Adele introducen el soporte explícito al proceso [15].
importancia y cantidad) en un buscador multicultural cómo
A mediados de los 90‘s, el soporte al proceso se ha
es el caso de Google©, Yahoo© y Bing©. Al tener el
adicionado y los productos han madurado. Este periodo vio
listado de ecuaciones de búsqueda, se emplea su contenido
la consagración de SCM, como una tecnología madura,
en buscadores escializados:
segura y esencial para el desarrollo de software de forma
Science@direct, en el apartado de ―Computer Science‖.
satisfactoria.
Wiley InterScience, en el apartado de ―Computer Science‖.
Muchos productos de SCM están basados en núcleos
IEEE Digital library.
pequeños y mecanismos, tales como el versionamiento, el
ACM Digital library.
modelamiento del producto, la composición, la
Y en libros especializados en la Ingeniería de Software.
construcción (building) y la re-construcción (re-building),
Los resultados se fueron indexando y registrando en un
el soporte al workspace y el soporte al desarrollo.
gestor de referencias bibliográficas, en este caso fue
Hoy en día, un sistema típico de SCM intenta proveer
Reference Manager Professional© Edition Version 12.
servicios en algunas de las siguientes áreas: administración
De la información obtenida, se obtiene un marco
de un repositorio de componentes, Ayuda o soporte a
conceptual que apoya y/o argumenta el modelo propuesto.
ingenieros en sus actividades usuales y el soporte y control
usuales y el soporte y control del proceso.
del proceso.

426
4. METODOLOGÍA procesos y prácticas relacionadas con esto. En CMMI, hay
Diferentes tipos de capacidades de una herramienta son una práctica genérica (2.6 – Gestión de configuraciones)
necesarios para ayudar a soportar actividades de SCM, tales que está enfocada en SCM. Adicionalmente, CMMI define
como [18]: una librería de SCM, peticiones de cambio de la gestión de configuración cómo un área de ayuda al
software y autorización de procedimientos, productos de proceso en el nivel de madurez 2. En [23] el proceso de
trabajo (elementos como código, diagramas, documentos), Gestión de Configuración es un soporte al ciclo de vida del
tareas de administración de cambio, reportes del estado de proceso, y su propósito es establecer y mantener la
configuración de software, auditoria de configuración de integridad de todos los productos de trabajo de un proceso
software, documentación de administración y rastreo de o un proyecto y hacerlos disponibles para las áreas o partes
software, realizar la construcción de software (building), interesadas[22].
administrar y rastrear la publicación de software y su Observando en [23],[20],[18] y en libros cómo [24], las
entrega (release). actividades del proceso de SCM pueden ser resumidas
Dependiendo de la situación, estas capacidades de las cómo:
herramientas pueden estar disponibles con la combinación Implementación del proceso de SCM: un plan podría ser
de herramientas manuales con herramientas automatizadas desarrollado describiendo: las actividades de Gestión de
que proveen algunas capacidades de SCM. Este escenario Configuración; procedimientos y programación para
conduce o direcciona hacia un importante requerimiento de realizar estas actividades; establecer roles en la
las herramientas de SCM: la interoperabilidad. De hecho, organización para realizar estas actividades y las relaciones
en general, cómo el uso de herramientas de software para la entre áreas, tales como la relación entre el área de
ayuda o soporte a los desarrollos ha evolucionado, las desarrollo y el área de mantenimiento. El plan será
capacidades de las herramientas de software para documentado e implementado[23].
interoperar se ha convertido en un campo cada vez más Identificación de Configuración de Software: se identifican
importante careciendo de un modelo común que permita los elementos a ser controlados (Software Configuration
seguir un lineamiento de trabajo ordenado. Por lo anterior Items – SCIs), se establecen esquemas de identificación
se ha encontrado la necesidad de plantear un modelo que para ítems y sus versiones, y se establecen herramientas y
plasme las diversas funcionalidades mínimas de una técnicas para ser usadas en la adquisición y gestión de los
herramienta o una integración de herramientas. ítems a controlar[18].
Una especie de interoperabilidad puede ser alcanzada por Control de Versiones: combina procedimientos y
los programas que permiten la comunicación de una herramientas en orden para administrar diferentes versiones
herramienta específica con otra. Pero esta aproximación de SCI‘s que son creadas durante el proceso de
presenta problemas: el número de herramientas incrementa software[24].
y la información empieza a ser más compleja, esto es más Control del cambio: corresponde con la administración de
difícil para los desarrolladores de software en proporcionar cambios durante el ciclo de vida del software[18]. Un
traductores (plugins) entre cada par de herramientas de proceso de gestión del Cambio puede establecer la
software que necesitan intercambiar información[19]. inclusión de actividades para: (i) peticiones de cambio; (II)
Los obstáculos de la interoperabilidad surgen del hecho de evaluar la petición del cambio; (iii) check out; (iv) ejecutar
que las herramientas son creadas independientemente, y no el cambio; (v) revisar el cambio y (vi) check in de todos los
comparten el mismo idioma conceptual para la terminología elementos modificados.
usada que describe el contexto de SCM. Diferentes Auditoria de la Configuración: revisar, entre otras cosas: si
términos pueden empezar a ser usados para representar el el cambio especificado en la petición ha sido hecho, y si
mismo concepto. Sin una definición explícita en los alguna información adicional ha sido incorporada; si una
términos involucrados, esta es una dificultad para ver cómo revisión técnica se llevó a cabo para evaluar una
estos conceptos en una herramienta corresponden a otros en corrección; si los estándares organizacionales han sido
la otra herramienta. aplicados correctamente; si los SCI‘s en cuestión han sido
De acuerdo con CMMI [20], el propósito de SCM es correctamente actualizados[24].
establecer y mantener la integridad de los productos de Reporte del Estado de la Configuración: Es el registro y
trabajo usando la identificación de configuración, el control reporte de la información necesaria para la gestión efectiva
de configuración, el reporte y la auditoria de la de la configuración del software[18]. Este reporte incluye
configuración. Las prácticas de SCM han puesto una información sobre los SCI‘s y los cambios hechos sobre
directriz de cómo se construyen y liberan productos, y se ellos, para responder a las preguntas como: ¿Qué ha
identifican y registran cambios[21]. sucedido?, ¿Quién lo hizo? ¿Cuándo ocurrió? ¿Quién más
La importancia de SCM es muy conocida. Por ejemplo, así se verían afectados?[24].
sucedió con los estándares y modelos de calidad, tales Los ítems de Software evolucionan a medida que avanza un
como CMMI [20] y ISO/IEC 12207[22], la definición de proyecto de software. En este proceso en curso, las
versiones de un SCI se almacenan para realizar un

427
seguimiento de las diferencias entre el punto de inicio y el formalmente revisadas y acordadas, que posteriormente
estado actual que tiene un SCI. Una versión de ítem de sirve como la base del desarrollo futuro o de una entrega, y
software es una identificación particular y un ítem que puede ser cambiada únicamente a través de un
especificado. Se puede considerar como un estado de un procedimiento de control de cambio. Cómo un producto
ítem en evolución[18]. Para cada versión se tiene un evoluciona, las BaseLines importantes pueden ser usadas
identificador único. para controlar las evoluciones[20]. En otras palabras, una
Una revisión es una nueva versión de un ítem que está BaseLine es un conjunto de SCIs formalmente designados y
intentando reemplazar una versión vieja del ítem. Una fijados en un tiempo específico durante el ciclo de vida del
variante es una nueva versión de un ítem que será software[18].
adicionado a la configuración sin reemplazar la versión Un artefacto puede depender de algún otro, por ejemplo,
anterior[18]. De esta forma, podemos tener diferentes líneas una especificación de requerimiento puede depender de un
de desarrollo, agrupando un conjunto de versiones con una diagrama de caso), y lo mismo aplica para el
meta particular. A veces, tiene que existir más de una línea correspondiente SCI. Por tanto, cuando un cambio de una
o flujo de desarrollo para soportar, por ejemplo, una versión de un CI se solicita, se debe realizar un análisis para
personalización de un producto o la solución a un falló observar posibles impactos sobre las versiones de otros
dado. Diferentes líneas o flujos de desarrollo son llamados SCIs. Un Gestor de Configuración deberá analizar si un
también ―streams‖ o ―branch‖. cambio se deberá hacer, y ver las versiones que se debe
En un entorno de SCM, los streams son agrupados en involucrar[18]. En una acción de reserva (check out), se
repositorios. Un repositorio es un conjunto de mecanismos genera una copia de cada versión solicitada. Una vez que
y estructuras de datos que permiten a los equipos de las copias cambian, ellas podrán ser incorporadas (check in)
software administrar cambios de una forma efectiva[24]. en el repositorio. El Gestor de Configuración deberá
Generalmente, las organizaciones crean diferentes evaluar los cambios y de acuerdo a su decisión, una nueva
repositorios para diferentes propósitos (un repositorio para versión será creada.
el código de programación, otro relacionado con los 5. RESULTADOS OBTENIDOS
contratos y acuerdos, otro para las directrices El modelo propuesto plasma un modelado conceptual que
organizacionales, etc.). cubre las definiciones que están bajo la SCM.
Cuando se tiene un SCI o un conjunto de SCIs alcanzan un El modelo presentado en la Figura 1 agrupa los conceptos
punto de madurez deseado o un punto importante se ha que se deben tener en cuenta en el momento de realizar con
logrado, una BaseLine o línea base es creada. Las herramientas un cubrimiento de todas las actividades que
BaseLine‘s proveen una base estable para continuar la propone la SCM.
evolución de SCI‘s[20]. Acorde con CMMI una BaseLine
es un conjunto de versiones de SCI que pueden ser

428
Figura 1. Modelo conceptual unificado para la integración de herramientas de SCM.

6. DISCUSIÓN reducir los riesgos inherentes a cualquier proyecto de


La SCM tiene como principal objetivo asegurar la tecnología de la información, se mejora la calidad y los
integridad de los productos y servicios desarrollados en un costes de entrega y soporte (mantenimiento) a lo largo del
proyecto de software. El concepto de integridad se refiere ciclo de vida de un proyecto de software. Entre los
a conocer el estado y el contenido exacto cada entrega beneficios se destacan el control de cambios (de mejora,
(release) puesta en producción en determinado entorno. evolutivos, mantenimiento, etc.), se reduce el esfuerzo
En la actualidad, se ven en el mercado herramientas que extra que se tiene que hacer para la integridad en equipos
dentro de sus características mencionan el cubrimiento de de trabajo, se puede garantizar que un equipo de trabajo
la Gestión del ciclo de vida de un aplicativo (Application se encuentra en la misma línea de los objetivos del
lifecycle management-ALM). ALM es un concepto proyecto, los procesos de auditoría pueden asegurar que el
nuevo que los fabricantes de herramientas de CM han software a entregar sea funcional y físicamente el que se
puesto a sus productos sin cumplir con todas las fases de espera, se mejora la productividad de desarrollo de
SCM, por ello, para contemplar un ALM completo, se software, se mejora la comunicación en lo equipos y
deben emplear integraciones de múltiples herramientas departamentos de una organización, se evita duplicar
que cumplan los principios y las actividades propuestas esfuerzos. Se reduce los defectos pues se ayuda a
por SCM. En este modelo, se hace un planteamiento identificar de manera precisa la versión sobre que se
genérico de la forma en que deben ir integrados los realizarán los cambios, se agiliza la identificación de
conceptos de este dominio. problemas y corrección de errores, se mantiene historial
Al tener controlado un proceso de SCM, se pueden de problemas y cómo fueron resueltos, se ayuda al

429
proceso de desarrollo, se reduce la dependencia de las 1999, p. 792.
personas, se disminuye el costo de mantenimiento, se [6] L. G. Alan. 1978. "The evolution of a Source Code
establece una forma sistemática de resolver las Control System," SIGSOFT Softw. Eng. Notes, vol.
requisiciones de cambios. 3, no. 5, pp. 122-125.
7. CONCLUSIONES [7] W. F. Tichy. 1982. "Design, Implementation, and
Se ha identificado diferentes tipos de capacidades que una Evaluation of a Revision Control System," Tokyo,
herramienta de SCM debe contener, y que son necesarios Japan.
para ayudar a soportar actividades de SCM, como [18]: una [8] J. Estublier. 1988. "Configuration Management: The
librería de SCM, peticiones de cambio de software y Notion and the Tools," Grassau, Germany.
autorización de procedimientos, productos de trabajo [9] A. Lie, R. Conradi, T. M. Didriksen, E.-A. '.
(elementos: código, diagramas, documentos), tareas de Karlsson, S. O. Hallsteinsen, and P. Holager. 1989.
administración de cambio, reportes del estado de "Change Oriented Versioning in a Software
configuración de software, auditoria de configuración de Engineering Database," Princeton, New Jersey.
software, documentación de administración y rastreo de [10] D. B. Leblang and Jr. G. D. McLean. 1985.
software, realizar la compilación y construcción de "Configuration Management for Large-Scale
software (building), administrar y rastrear la publicación Software Development Efforts," Harwichport,
de software y su entrega (release). Massachusetts.
El modelo propuesto integra una serie de actividades que [11] D.Ford and d. L. van. 1989. "A network-based
se presentan a lo largo del ciclo de vida de un proyecto de development environment for Ada," in Proceedings
software y sus inter-relaciones, con el fin de extrapolarlo of the conference on Tri-Ada '89: Ada technology in
con herramientas que ayuden a la ejecución o realización context: application, development, and deployment
de las actividades. Para este contexto no se tuvo en cuenta Pittsburgh, Pennsylvania, United States: ACM. pp.
las características técnicas de las herramientas ni si eran 204-209.
de la rama del software libre o propietario. [12] J. Estublier. 1985. "A Configuration Manager: The
Para un trabajo futuro, con el modelo propuesto, se puede Adele Data Base of Programs," Harwichport,
trabajar en mejorar el modelo general y evolucionarlo a Massachusetts.
un planteamiento específico, de esta forma se puede [13] S. Dart. 1991. "Concepts in Configuration
comprobar cómo la SCM puede cubrir un amplio dominio Management Systems," Software Engineering
de ALM. Institute,1991.
También se pueden definir estudios que evalúen diferentes [14] D. B. Leblang. 1994. "The CM Challenge:
herramientas que realizan las actividades de SCM, a Configuration Management That Works," Baffins
demás se puede establecer que tipo de herramientas Lane, Chichester, West Sussex PO19 1UD, England:
permiten interrelacionarse con otras y evaluar las John Wiley and Sons, Ltd..
capacidades de integración en términos de eficiencia, [15] M. Cagan and A. Wright. 1995. "Untangling
eficacia, rendimiento, almacenamiento, capacidad de Configuration Management," in Lecture Notes in
cómputo, consumo de recursos cómo espacio en disco, Computer Science Springer-Verlag.
memoria y cpu. [16] E. Jacky, D. Samir, and A. Mahfoud. 1997."High
Level Process Modeling for SCM Systems," in
8. REFERENCES Proceedings of the SCM-7 Workshop on System
[1] J. Estublier. 2000, "Software Configuration Configuration Management Springer-Verlag, pp. 81-
Management: A Roadmap," Dassault Systèmes / 97.
LSR, Grenoble University: John Wiley, pp. 2-11. [17] J. Biolchini, P. G. Mian, A. C. C. Natali, and G. H.
[2] D. Whitgift. 1991. Methods and Tools for Software Travassos. 2005. "Systematic Review in Software
Configuration Management. West Sussex, England: Engineering. RT-ES679/05," Universidade Federal
John Wiley & Sons Ltd., 1991 do Rio de Janeiro Program de Engenharia de
[3] D. Whitgift, Methods and Tools for Software Sistemas e Computaçion,RT-ES679/05.
Configuration Management. West Sussex, England: [18] S. Mark and N. Mahmood. 2007. "Experiences using
John Wiley & Sons Ltd.. systematic review guidelines," J. Syst. Softw., vol. 80,
[4] D. Leblang. 1997. "Managing the software no. 9, pp. 1425-1437.
development Process with ClearGuide," in Software [19] IEEE. 2004. "SWEBOK - Guide to the Software
Configuration Management, 1235 ed. R. Conradi, Ed. Engineering Body of Knowledge,". P. Bourque, A.
Springer Berlin / Heidelberg, pp. 66-80. Abran, and R. Dupuis, Eds.
[5] J. Estublier and J. Estublier, "Distributed Objects for [20] C. Schlenoff, M. Gruninger, F. Tissot, J. Valois, T.
Concurrent Engineering," in System Configuration Creek Road, J. Lubell, and J. Lee. 1999. "The
Management, 1675 ed Springer Berlin / Heidelberg, Process Specification Language (PSL) Overview and

430
Version 1.0 Specification. [23] ISO/IEC, "ISO/IEC 12207. 2002. Amendment 1,
[21] SEI, 2006. CMMI for Development Version 1.2, Information Technology - Software lifecycle
CMU/SEI-2006-TR-008 Software Engineering processes".
Institute. [24] ISO/IEC, "ISO/IEC 12207. 1995. Information
[22] S. Berczuk, B. Appleton, and Brown Kyle. 2002. Technology - Software lifecycle processes‖.
"Software Configuration Management Patterns: [25] R. Pressman. 2001. Ingeniería del Software. Un
Effective Teamwork, Pratical Integration,", 1 ed enfoque práctico, 5 ed 2002, pp. 1-601
Addison-Wesley Professional. [26] .

431
432
Modelo de aprendizaje organizacional para la gestión del conocimiento:
MAO-G

Girlesa María Buitrago


Universidad Distrital Francisco José de caldas
Correo-girlesa@gmail.com

ABSTRACT organización, luego debe contemplar: la misión, el


This paper is a concept of education focused on entorno y su influencia, la visión, los objetivos, las
philosophy of service, essential to fulfilling the mission estrategias y las acciones, y seguimiento del proyecto es
of the organization with a focus on replacement of the por esto que se debe contar con la participación de toda la
expectations of citizens through the creation of organización, desde la dirección hasta el personal de
organizational learning culture supported by the servicios generales en la implementación de este modelo.
information technology and telecommunications. Hoy en día el aprendizaje organizacional se ve truncado
por la falta de participación de toda la organización, por
Keywords la continua rotación del personal, por la alta
dependencia de los poseedores de la información, por
E-learning, culture, knowledge management,education, intereses personales interpuestos entre los intereses
virtuality, technology, information,Organizational organizacionales, y otros factores que invitan a la
learning creación de una cultura que involucre al individuo en toda
su dimensión, tanto la física, la espiritual y la mental
RESUMEN para que pueda integrarse con los demás en los
Este trabajo es un concepto de educación se centró en la espacios destinados para ello y despierte el espíritu del
filosofía de servicio, esencial para el cumplimiento de la servicio para su propio bienestar y supervivencia del
misión de la organización con un enfoque sobre la conocimiento.
sustitución de las expectativas de los ciudadanos através
de la creación de una cultura de aprendizaje 1.1 Como funciona MAO-G
organizacional con el apoyo de la tecnología de la El deseo de crecimiento y servicio y la amistad del
información y las telecomunicaciones. empleado de la organización ayudan al recién llegado en
su ánimo y buena disposición por aprender. Comparten
Palabras Clave
sus experiencias y le transmiten cosas tan sencillas
como que "aprendemos un truquito más ,cuando tenga un
Educación Virtual, cultura, gestión del conocimiento,
problema, lo podré aplicar "Cualquier funcionario puede
educación, virtualidad, tecnología, información,
contribuir un poquito más para su aprendizaje". Se
aprendizaje Organizacional.
encuentra más conveniente concentrar la energía en
transmitir o socializar algo el día de hoy, porque si hoy
1. INTRODUCCIÓN no hacen, mañana habrá demasiado acumulado. " De
El presente trabajo tiene una concepción educativa mañana ya nos ocuparemos cuando llegue, e intentaremos
enfocada en la filosofía del servicio; fundamental para hacer lo mismo". Al reunirse la mayor cantidad de veces,
el cumplimiento de la misión de la organización con un el miembro de MAO-G comienza a sentir el espíritu
enfoque de suplencia de las expectativas del ciudadano colectivo y el poder del Conocimiento Superior, al irse
mediante la creación de la cultura del aprendizaje apropiando de él y participando en su construcción,
organizacional apoyado en las tecnologías de la comenzará a cuidarlo y a respetarlo porque sabe que ya
información y las telecomunicaciones. En este modelo se más nunca estará solo.
hace énfasis en la capacidad intelectual de intercambio El Modelo de Aprendizaje de MAO-G . ayuda al
de saberes y aplicabilidad de los mismos en el entorno en miembro de la organización a poner en orden sus
el que se desarrolla. Una cultura implica un conjunto de pensamientos confusos y a deshacerse de la carga del
ideas, costumbres, tradiciones, principios, normas, sentimiento de soledad o abandono en el cumplimiento de
rituales, ideales, creencias. El modelo MAO-G será su labor cotidiana. Mediante un pensamiento y
sembrado como una cultura del conocimiento en la discusión reflexivo se provee al interlocutor(es)

433
información que permita evaluar si los objetivos de su conocimiento adquirido en la labor organizacional, y al
labor se están cumpliendo y comparar sus comentarios volver a la reunión con nuevas experiencias con respecto
con los que recibimos de semejantes. al aprendizaje obtenido y a su aplicación. Cómo
Nos provee, además, imágenes de la labor que se complementaron lo aprendido y la descripción de
desempeña vista desde un punto de vista de un cambios experimentados. Al ahondar bajo la superficie
semejante y sirve para evaluar constantemente el de cualquier sub-mundo y intentar descubrir los
curso del aprendizaje y desempeño. Para que se cumplan procesos inconscientes y los modelos relacionados con
los objetivos se requiere una honesta reflexión sobre las el control que atrapan a la gente en un modo de
funciones, metodología, y propuestas a mejorar. existencia insatisfactorio y predefinido, comenzamos a
El pensamiento y compartir reflexivo le permite al plantearnos cuestiones internas sobre los sucesos del
individuo narrar lo que está viviendo en el centro de mundo que nos rodea y analizar sobre el método sobre el
labores. cual se desarrollan estos sucesos.
1.2 Pensamientos y Percepciones Ahondar implica descubrir en el comportamiento
Es interesante una socialización reflexiva del humano, el comportamiento organizacional en cada uno
individuo sobre la experiencia que se está adquiriendo de los sub-mundos o grupos funcionales que componen
en el lugar de trabajo, sobre el trabajo que se le ha la organización.
asignado y sus expectativas. Las experiencias de los miembros de MAO-G, explican
Sobre qué específicamente ha ampliado los conocimientos de modo general, experiencias ocurridas con respecto
adquiridos y qué ha constituido una barrera para el al tema propuesto en cada reunión y como hicieron para
aprendizaje. Se debe alentar al miembro de MAO-G a hacer frente con los recursos que tenían a la mano. Y
que proponga, en las reuniones que para este fin se como lo afrontarían ahora con los recursos que tienen y
planificarán , qué se podría hacer para mejorar el si el Modelo de Aprendizaje Organizacional les ha
aprendizaje. De estas reflexiones, es bueno conservar contribuido a mejorar su calidad de vida en la
registros para poder utilizarlas en la retroalimentación con institución.
las líneas de acción adecuadas para la toma de decisiones Dentro de los grupos funcionales se viven intereses en
y se debe propiciar un ambiente de confianza y libertad de común, que es de lo que se tratarán las reuniones de
expresión basados en las tradiciones y los conceptos. MAO-G se socializarán experiencias de sus miembros
con respecto al tema propuesto para el mes que se leerá de
1.3 Autoevaluación la documentación explicita quince minutos antes de la
Esta surge como resultado de una reflexión honesta de reunión. Luego de socializarlas, se combinarán con el
cada individuo que labora en la organización con respecto conocimiento explicito que reposa en la base de
a cómo se desempeña en esta y cómo debería hacerlo. conocimiento y que está disponible en cada reunión, y
Sería conveniente resaltar algunas de las preguntas se debaten las interpretaciones individuales sobre el
propuestas para lograr una reflexión orientada a las tema., para llegar a acuerdos y hacer nuevos aportes.
funciones que el funcionario desempeña: Qué talentos se Ningún camino para la obtención del conocimiento en
poseen, Qué talentos se podrían mejorar, Cuál es la lo que respecta a los seres humanos es el ―absoluto‖,
percepción de los propios talentos y habilidadescomo es por esto que decidimos proponer este híbrido entre
profesional del trabajo desempeñado, Qué talentos se muchos de los caminos señalados por diversos autores
han podido percibir de los compañeros de trabajo, Cuáles como lo ha sido el modelo de aprendizaje
de estos talentos le gustaría incorporar para sí, Cuáles Organizacional de las cinco disciplinas de Peter Senge,
no, Cómo creen que los demás compañeros de trabajo el modelo SECI de Nonaka y Takeuchi, El modelo de
perciben el trabajo que se desempeña y que imagen Alcohólicos Anónimos de Bill Wilson, todo esto
como persona se proyecta, por qué , Cómo se siente el visualizado bajo la perspectiva del enfoque sistémico.
individuo con respecto al trabajo que desempeña y Es necesario un estudio cuidadoso de la Organización de
porqué, Muchos autores [2] proponen utilizar las manera local y de todo el personal que labora en ella, su
metáforas vivientes para tratar de entender la cultura, y el entorno legal en el que se mueve. Puesto que
organización y con ellos estamos de acuerdo, puesto hoy en día las Organizaciones se constituyen en su
que una organización se compone de seres vivientes los mayor proporción con el sistema de contratación de
cuales viven inmersos en sub-mundos dentro de esta y servicios de personal lo cual constituye una debilidad en
resuelven sus problemas acudiendo a ellos y viendo la los objetivos de aprendizaje de esta, cuando no se
misma realidad con los ojos que los grupos particulares cuenta con un Modelo flexible y de alta rotación del
en la organización les han enseñado a ver. personal. Lo que ha funcionado en el pasado, no
Los miembros asistirán a reuniones de MAO-G con necesariamente puede seguir siendo en el presente el
regularidad, para estar en contacto con otros miembros mejor plan en el presente, especialmente después de estar
y para aprender de ellos y como aplicar mejor el sujetos una dinámica tan alta como la de los seres

434
humanos y el conocimiento adquirido por ellos. Lo aprendizaje.
mismo sucede con las tecnologías de la información y MISIÓN
las telecomunicaciones, cuando a estas alturas, la Impulsados por el deseo de la supervivencia del
obsolescencia de ellas se ve extendida tan solo a tres conocimiento en un mundo tan dinámico, solo tenemos
años. una alta misión que cumplir: llevar el MODELO DE
APRENDIZAJE ORGANIZACIONAL MAO-G a los
OBJETIVOS DE MAO-G individuos, Organizaciones y comunidades que ignoran
Adoptar el servicio como una filosofía de vida fructífera que aún el conocimiento tiene una salvación. El logro de
que nos impulsa, como personas o entidades, a ayudar a esta misión se puede alcanzar mediante la práctica de un
los demás. Culturizar las personas en esta vocación sencillo programa que consta de doce pasos para el
interna que nos compromete con nosotros mismos a ser dominio personal, doce tradiciones para la supervivencia
útiles y por ende y felices mediante la ayuda de los grupos y doce conceptos para el servicio mundial
suplementaria de las necesidades del otro, sus de Aprendizaje que aseguran el funcionamiento
requerimientos, sus expectativas. armónico y eficaz de la estructura del servicio
Construir el Conocimiento Superior que constituirá la VALORES
obra más completa de consulta puesto que será la A ceptación
sumatoria de los aportes colectivos más valiosos del ser P rudencia
humano, codificados, entendibles y transmisibles E spíritu de Servicio
provistos por la observación, indagación, determinación R espeto
y suplencia de las necesidades emanadas de la voz T olerancia
colectiva. U nidad
MAO-G entiende el servicio al como nuestra razón de R eflexión
ser. Los ciudadanos y ciudadanas son el eje de la gestión A mor
pública y todos y cada uno de nuestros esfuerzos deben Nuestros valores solo deberán resumirse en dos
estar dirigidos a satisfacer sus necesidades y garantizar palabras: AMOR, SERVICIO
su bienestar individual y colectivo.
Construir una visión compartida donde todas las
1.4 Habilidades y Aptitudes deseadas
personas involucradas en la Organización aporten para
construcción del conocimiento superior que se de los servidores de MAO-G:
sustentará con el aporte individual soportado con las
TIC‘s. Amabilidad y Cortesía, Sensibilidad, Comprensión,
Un modelo de formación basado en la auto reflexión y el Tolerancia, Paciencia, Dinamismo, Razonamiento,
inventario personal de saberes experimentados que se persuasión, Consideración , Autocontrol, Creatividad.
deben compartir y transmitir sin reserva y que
incorporados al conocimiento colectivo, se transmitirán IDENTIDAD
mediante recursos físicos, tecnológicos, espirituales etc.,
con el acompañamiento continuo del talento humano de
la organización que favorecerá el proceso de interacción
entre sus miembros. Tendrá un alto componente
narrativo a modo de autobiografía o relatos de
experiencias laborales adquiridas en la aplicación del
conocimiento explícito en relación con los temas
específicos que para cada reunión se programarán con
anticipación por la junta de servidores de cada grupo Ilustración 1 [5] Logo de MAO-G

Un triángulo equilátero conformado por flechas, dos de


las cuales apuntan a la unidad. En triangulo
VISIÓN
enmarcado en un circulo cuyo fondo y significado
Nuestra esperanza es que cuando el modelo educativo
evoca el TAO oriental cuyas características
MAO-G llegue al mundo de las Organizaciones, los
fundamentales de Interconexión, Simetría, Recursión y
miembros de cada una de estas, se aprovecharan de él
Circularidad, integralidad y dualidad nos da la idea del
siguiendo sus indicaciones. Ellos se acercarán a más
equilibrio unitario que se debe procurar para el correcto
personas ávidas de conocimiento y así podrán surgir
funcionamiento del modelo MAO-G La base del triángulo
refugios de sabiduría en cada Organización, en cada
es el Dominio Personal; esto implica que el miembro de
comunidad y en todos los lugares donde haya
MAO-G debe comenzar a integrarse al modelo por esta
necesidad de encontrar una solución al problema del

435
arista con la práctica de los Doce pasos , su arista basadas en la experiencia vivida de muchos de los
izquierda representa la Unidad, que es la condición modelos de gestión del conocimiento como el modelo
necesaria para que un grupo perdure y por ende la SECI, la Quinta Disciplina, Organizaciones Como
comunidad de MAO-G. su fundamento son las Doce Metáforas, Modelo de formación basado en la reflexión,
tradiciones. Y el componente derecho del triángulo es modelo A.A. Todos estos basados en la
el Servicio Integral cuya representación me indica el investigación concienzuda y experiencia práctica,
cierre preciso del triángulo cuya arista es indispensable interiorización y explicitación del conocimiento de los
en el equilibrio que se deben tener de los tres legados y su individuos quienes componen la organización.
fundamentación se encuentra en los Doce conceptos para He aquí los doce pasos:
el Servicio ntegral de Aprendizajeen donde se resalta la Admitimos que no podíamos comprenderlo todo,
metodología para obtener la armonía y resolver conflictos recordarlo todo, trasmitirlo todo que nuestra capacidad
que sin una herramienta como esta, sería muy difícil era limitada y nuestro conocimiento se había vuelto
pretender permanecer, participar y pertenecer a una perecedero
comunidad como la de MAO-G. Llegamos a creer que un Conocimiento Superior al de
PRINCIPIOS nosotros mismos podría devolvernos el entendimiento .
Cuando los principiantes cruzan el umbral del MAO-G, Decidimos poner nuestra buena voluntad al servicio
queremos que se sientan respaldados por el del Conocimiento Superior, entendido este como el
Conocimiento superior que empezarán a experimentar emanado del espíritu de la apertura reflexiva del
una vez decidan entregar lo mejor de sí para su colectivo.
construcción. Y esto solo es posible en forma continua si Sin miedo hicimos un minucioso inventario intelectual
permitimos que el conocimiento se transmita como se lo , moral y ético de nosotros mismos.
hará con el recién llegado cuyo aporte al conocimiento Admitimos ante nosotros mismos, y ante otro ser
colectivo también es muy importante para MAO-G humano, la naturaleza exacta de nuestras reservas
como grupo. cognitivas .
Los principios serán los pilares fundamentales sobre los Estuvimos enteramente dispuestos a dejar que el
que girará el modelo y son: Dominio Personal, Unidad y Conocimiento Superior nos liberase de nuestras
Servicio Integral reservas.
1.5 Dominio Personal Humildemente decidimos vincularnos al
Conocimiento Superior derivado de la apertura reflexiva.
Este principio puede considerarse como la disciplina que Hicimos una lista de todas aquellas personas o entidades a
permite aclarar y ahondar la visión personal, quienes habíamos perjudicado con nuestra reserva y
concentrar energía, desarrollar paciencia y ver la estuvimos dispuestos a reparar el daño que les causamos.
realidad objetivamente. El deseo y la capacidad de Reparamos directamente a cuantos nos fue posible el
aprender de una organización no puede ser mayor que el daño causado, excepto cuando el hacerlo implicaba
de sus miembros. Es la lucha diaria por un nivel especial perjuicio para ellos o para otros.
de destreza y enriquecimiento espiritual el cual se Continuamos haciendo nuestro inventario personal y
materializa con la percepción de las fuerzas que cuando nos equivocábamos lo admitíamos
subyacen en la lógica del cambio y trabajar con ellas inmediatamente.
en lugar de resistirlas. Buscamos a través reflexión , la indagación, el
Para comenzar a aplicar este pilar fundamentales de pensamiento sistémico y la comunicación mejorar
MAO-G personal se trabajará activamente en una serie nuestro contacto con el Espíritu delConocimiento
de pasos( Doce )[5], los cuales se irán realizando Superior buscando la fortaleza para mantenernos
periódicamente y conducirá al individuo al vinculados a él .
mejoramiento personal no solo en el aspecto intelectual Habiendo obtenido un despertar espiritual como resultado
sino espiritual. de estos pasos, tratamos de llevar el mensaje a los
Los doce pasos son un conjunto de principios de compañeros relegados y de practicar estos principios
naturaleza espiritual que, si se adoptan como una forma en todos nuestros asuntos.
de vivir el conocimiento en la organización, pueden
liberar al individuo ocultista y tener una visión más los "Doce Pasos" representan un modo de ―vivificar el
amplia de la forma como se puede ser útil y feliz, que conocimiento‖, concepto totalmente nuevo para la
podrá compartir, alimentar, acrecentar y transformarse mayoría de los funcionarios, pero muchos de los
en un ser íntegro. Los "Doce Pasos" son el núcleo del miembros considerarán que los Doce Pasos serán para
programa de MAO-G . para el crecimiento personal del ellos una necesidad práctica.
individuo. No son solo abstracciones teóricas; están El espíritu de la apertura reflexiva:
La apertura reflexiva es un proceso mental del ser

436
humano el cual se enriquece mediante la reflexión, la Decía que los problemas convergentes tendían a una
indagación y el pensamiento sistémico. Esto misma solución: es decir que cuanto más inteligencia se
representa un despertar espiritual individual, mediante la aplique para estudiarlos, mas se dirigen las soluciones a
interacción con los demás. Es poder trasladar los una sola. Decía también que los problemas divergentes
actos inconscientes al consciente y realizar una actuación no tenían una solución correcta. Lo anterior debido a
diferente no ya en función del individuo sino del que podría haber muchas soluciones, o soluciones
colectivo. contradictorias y que la dificultad de la solución no
Peter Senge, en la Quinta Disciplina, cita al autor radicaba en los expertos consultados para esta sino en la
O‘Brien, quien identifica este espíritu como ―el espíritu naturaleza del problema. Cuando recordamos que el
del amor‖ y quien aclara que no se refiere a la palabra aprendizaje organizacional no se da como resultado de
amor romántico en el contexto de los negocios y la una serie de procesos aislados sino como una relación
administración sino al tipo de amor que subyace en la totalitaria en la cual se incluyen fenómenos intrínsecos
apertura. del ser humano como lo es su inconsciente y su
El amor se resalta como las intencionalidades: El consciente. Estos fenómenos muchas veces parecen
servicio mutuo, la voluntad de ser vulnerable en el transparentes a la organización que tiene una serie de
contexto de ese servicio, El compromiso pleno e reglamentaciones, de funciones y normas
incondicional con la ―realización‖ del otro, para que ese determinísticas que pasan por alto el espíritu de las
otro pueda ser todo lo que puede y desea ser. Podría personas que desempeñan las labores y que éste es en
verse desde el punto de vista de la construcción de una gran medida el que mejora el desempeño y el bienestar
fortaleza a partir de la propia debilidad. del ser humano con relación a su papel en la empresa.
Senge en su cita a O‘Brian escribe: ―Puedo practicar Resultados esperados en la aplicación de los doce pasos :
todos los pasos analíticos hacia la apertura sin que sea Admitir la impotencia individual Aprender a ver con
suficiente. Aunque tengamos la disposición espiritual claridad la realidad actual.
fundamental, no logramos nada sin la aptitud. Pero si Interiorizar la importancia del semejante.
desarrollamos la aptitud sin la disposición espiritual, eso Concentrarse cómo llegamos desde hasta.
tampoco funciona‖[3] Los doce pasos están escritos en la Compromiso con la verdad.
cuarta persona del plural y en pasado puesto que el Conectarse con el mundo espiritual.
individuo, cuando decide ingresar al modelo MAO-G, Comprometerse con la totalidad.
deja de funcionar como una rueda suelta para pasar a ser Liberación para crear los resultados que de veras
parte de una estructura colectiva donde no tiene sentido deseamos, aprendizaje generativo y esperado para la
realizar cualquier paso aisladamente, aunque la finalidad gente.
de los pasos es la consecución de una espiritualidad
individual que pueda integrarse de manera efectiva a la 1.6 Unidad
comunidad ; el sentido de aceptación e ingreso se
encuentra en el la aceptación del espíritu colectivo y es Son ciertos principios de orientación para el manejo de
por esta razón que está propuesta en tiempo pasado. los grupos que fomentarán su vitalidad y servicio. Es el
No se avanzará al un paso superior, sin haber alcanzado el resultado de conocimientos ganados con dificultad. Es
primero. muy importante el ver que la marcha del grupo lleve a la
Si el individuo, miembro de MAO-G decidiese no supervivencia y al servicio continuo. Las Doce
practicar los pasos, pertenecerá a la comunidad pero no Tradiciones son la orientación de valor que nos puede
descubrirá las bondades del crecimiento que le promete el evitar muchos problemas, permitiendo a los grupos
Conocimiento Superior trabajar juntos en unidad y armonía.
El objetivo de realizar estos pasos es sencillo. Es La doce Tradiciones[5] de MAO-G, se aplican a la vida
descubrir la naturaleza exacta de las fuerzas que de la Comunidad del conocimiento por sí misma.
subyacen en el interior del individuo y que impiden el Resumen de los medios por los que MAO-G mantiene su
crecimiento personal en el ámbito del aprendizaje. Una unidad y se relaciona con el individuo y con el mundo a
vez realizados estos pasos de manera honesta se podrá su alrededor, la forma en que vive y se desarrolla.
identificar el punto exacto de apalancamiento en los Las Doce Tradiciones de MAO-G:
círculos viciosos reforzadores que entorpecen el Nuestro bienestar común debe tener la preferencia; el
crecimiento del individuo y por ende de la crecimiento Personal depende de la unidad de MAO-G.
organización. En la Quinta Disciplina, Senge cita al Para el propósito de nuestro grupo sólo existe una
Economista inglés E.F.Shumacher conocido autor de Lo autoridad fundamental: CONOCIMIENTO SUPERIOR
pequeño es bello, y argumenta que en uno de sus libros tal como se manifieste en la conciencia colectiva de
que hay fundamentalmente dos tipos de problemas: nuestros miembros. Nuestros líderes no son más que
―problemas convergentes y problemas divergentes.

437
servidores de confianza. No gobiernan. principal y la razón de la existencia de MAO-G. Es por
El único requisito para ser miembro de MAO-G es querer esto por lo que más que un conjunto de principios,
aprender es una organización de funcionarios en acción.
Cada grupo debe ser autónomo, excepto en asuntos que El Servicio Integral de Aprendizaje es todo lo que nos
afecten a otros grupos o al Modelo de Aprendizaje ayuda a llegar a un semejante que se encuentra en la
Organizacional para la Gestión del Conocimiento MAO- organización y que se encuentra alejado del Modelo de
GC, considerado como un todo. Aprendizaje Organizacional, extendiéndose desde el
Cada grupo tiene un solo objetivo primordial: llevar el mismo duodécimo paso hasta una taza de café. Y a la
mensaje al miembro de la organización que aún está Oficina de Servicios de Aprendizaje para lo que ese
relegado. refiere a actividades interinstitucionales o nacionales[8].
Un grupo de MAO-GC . nunca debe respaldar, financiar Los servicios incluyen lugares de reunión, cooperación
o prestar el nombre de MAO-GC a ninguna entidad con otras entidades, comités intergrupales, unidades
allegada o empresa ajena, para evitar que los problemas funcionales y demás agrupaciones que integrarán el
de dinero, propiedad y prestigio nos desvíen de nuestro Modelo. Significan
objetivo primordial. folletos, revistas, libros, Objetos y piezas comunicativas
Todo grupo de MAO-G debe mantenerse a sí mismo, virtuales, una buena publicidad de todo lo posible,
negándose a recibir contribuciones ajenas. logística para eventos especiales como foros,
MAO-G . nunca tendrá carácter profesional, pero congresos, convenciones. Requieren Comités y
nuestros centros de servicio pueden emplear Conferencias y la contribución voluntaria de los
trabajadores especiales. miembros del Modelo.
MAO-G . como tal nunca debe ser organizada; pero Los conceptos[11] abrigan una serie de principios que
podemos crear juntas o comités de servicio que sean han de ser una base para evitar cometer sucesivas
directamente responsables ante aquellos a quienes sirven. equivocaciones en la organización de manera que si se
MAO-G . no tiene opinión acerca de asuntos ajenos a toma un camino alterno en la dirección de los grupos,
sus actividades; por consiguiente, su nombre nunca estos conceptos serán un camino seguro de regreso al
debe mezclarse en polémicas públicas. balance satisfactorio, que sin estos, podrían haber
Nuestra política de relaciones públicas se basa más bien muchas dificultades. En estos conceptos se plasmarán el
en la atracción y promoción que en la obligación ; Derecho de Decisión que da a nuestros directores de
necesitamos mantener siempre nuestro principio de servicio una libertad discrecional; el Derecho de
invitación y buena voluntad para pertenecer . El Participación, que da a cada servidor la posibilidad de
reconocimiento de autoría y las fuentes de bibliográficas votar en la medida de su responsabilidad y su
y de conocimiento deberán citarse para preservar el participación garantiza que cada junta o comité, posea
aporte histórico a nuestra base de conocimiento. siempre los elementos, talentos y capacidades que
El respeto a los derechos es la base fundamental de todas aseguren su funcionamiento; el Derecho de apelación
nuestras Tradiciones, recordándonos siempre anteponer protege y anima la opinión de las minorías y el Derecho
el reconocimiento de Las Doce Tradiciones de MAO-G de petición da la seguridad de que las denuncias de las
De todos los estudios de relaciones humanas una injusticias serán oídas y solucionadas
pregunta constante ha sido el funcionamiento del ser apropiadamente. Estos principios generales pueden ser
humano en la sociedad y su evolución como parte usados con buenos resultados a través de toda la
integrante de un todo y el funcionamiento de esta estructura de MAO-G.
―sociedad‖ como unidad. En los Servicios Integrales de Aprendizaje, se han
Estos principios, en su mayor parte, se han tomado de los analizado diversos tipos de estructuras como la
campos de la medicina, la sicología y la religión, cuyas autoritaria, dónde un grupo o una persona se coloca con
investigaciones a través de los años nos arrojaron una autoridad desmedida sobre otros y la democrática
valiosísimos aportes en el comportamiento del ser que se base en controlar y equilibrar para evitar que la
humano en la comunidad y sus necesidades, autoridad se desborde. Debido a nuestra naturaleza de
evoluciones, deseos reprimidos, culturas, etc. Aunque sistema suave, compuesto por humanos y que nuestra
algunas de las ideas que tuvieron una importancia propensión a imponernos por la fuerza, es natural e
decisiva fueron tomados de modelos como el modelo A.A. imperativo que los conceptos de servicios estén basados
y SECI, Reflexivo y Quinta Disciplina. en el sistema de ―controlar y equilibrar‖.
Estos principios también están basados en la
Servicio Integral De Aprendizaje naturaleza de la psiquis cuyo esbozo en metáforas
analizadas por Gareth Morgan[2] y extraídas del
Nuestro duodécimo paso[5], el de llevar el mensaje, es súmmum de investigaciones de diversos sicoanalistas
el servicio básico de nuestro modelo. Es la ayuda como Sigmmund Froyd, Carl Yung y otros estudioso del

438
comportamiento humano cuyos aportes demuestran la consideración al seleccionar la composición, los
tendencia aproximada a ciertos comportamientos méritos personales, los procedimientos de ingreso, los
proclives al poder, prestigio personal, ira, envidia, etc. derechos y los deberes asignados.»
Situaciones para nada favorables al aprendizaje sin un La Conferencia cumplirá con el espíritu de las
control interior para inclinaciones individualistas y Tradiciones de MAO-G, teniendo especial cuidado de
egoístas. que la Conferencia nunca se convierta en sede de
Los Once Conceptos para el Servicio Integral de peligrosa riqueza o poder; que fondos suficientes para su
Aprendizaje[8] funcionamiento, más una reserva adecuada, sean su
La responsabilidad final y la autoridad fundamental de prudente principio financiero; que ninguno de los
los Servicios de Integrales de Aprendizaje de MAO-G . miembros de la Conferencia sea colocado en una
deben residir siempre en la conciencia colectiva de toda posición de autoridad incondicional sobre ninguno de
nuestra Comunidad los otros; que todas las decisionesimportantes sean
La Conferencia de Servicios Integrales de Aprendizaje de alcanzadas por discusión, votación y siempre que sea
MAO-G. se convertirá, para casi todo propósito posible, por considerable unanimidad; que la
práctico, en la voz activa y la conciencia efectiva de toda Conferencia nunca debe realizar ninguna acción de
nuestra Comunidad en sus asuntos mundiales gobierno autoritaria, y que como El Modelo de
Para asegurar una dirección eficaz, debemos dotar a Aprendizaje Organizacional, al cual sirve, la Conferencia
cada uno de los elementos de MAO-G. (la Conferencia, la en sí misma siempre permanecerá democrática en
Junta de Servicios Integrales de Aprendizaje, las pensamiento y en acción
corporaciones de servicios, personal directivo, comités y
ejecutivos) de un ―Derecho de Decisión‖ tradicional. Debemos evitar excesiva concentración de dinero o de
En todos los niveles de responsabilidad, debemos influencia personal en cualquier grupo o centro de
mantener un ―Derecho de Participación‖ tradicional, en servicio[1]. En cada nivel de servicio la autoridad debe
forma tal que permita la representación votante en ser igual a la responsabilidad. Esto para tener en
proporción razonable a la responsabilidad que cada nivel cuenta la apertura y el localismo del cual habla Senge.
deba asumir. [3]
Debe prevalecer en toda nuestra estructura un ―Derecho
de Apelación‖ tradicional, asegurándonos así que la 2. ESTRUCTURA DE MAO-G
opinión de la minoría será oída, y que las peticiones de En MAO-G no deberá haber gobernantes, tampoco una
rectificación de los agravios personales serán autoridad absoluta, excepto aquella que se manifiesta en
consideradas cuidadosamente. la ―conciencia colectiva del grupo MAO-G‖ la cual se
La Conferencia reconoce que la iniciativa principal y la comunicará por medio de la Conferencia y su estructura.
responsabilidad activa en la mayoría de los asuntos de Aquí es donde sigue la línea de acción del grupo MAO-
Servicios Integrales de Aprendizaje deben ser ejercidas G hacia MAO-G como un todo. La tradición Ocho y
por los Custodios miembros de la Conferencia cuando nueve, sugieren que podemos establecer centros de
actúan como la Junta de Servicios Generales. servicio, juntas de servicio y comités, directamente
Los Custodios son los principales planificadores de la responsables ante aquellos a quienes sirven[7].
política y finanzas generales. Tienen supervisión El plan de la Conferencia es la estructura que orienta la
directa de las entidades de servicio constantemente dirección de MAO-G, asegurando en esta forma que
activas e incorporadas separadamente, y ejercen esta pueda escucharse la voz de la conciencia colectiva de
función por medio de su facultad para elegir a todos los grupos, así sea en representación de una gran mayoría
los directores de aquellas entidades. o de una minoría. La estructura de la Conferencia se
Para nuestro funcionamiento y seguridad futuros, se estableció como una garantía para que el servicio de
hace indispensable una buena dirección de servicio en nuestra comunidad de conocimiento continúe
todos los niveles. La dirección primordial de Servicios funcionando bajo todas las condiciones.
Integrales de Aprendizaje, que en primera instancia será
ejercida por su fundadora, debe necesariamente ser 2.1 Servicios Integrales de Aprendizaje
asumida por los Custodios El recién llegado a MAO-G aprecia rápidamente la
A cada responsabilidad de servicio debe corresponder importancia del trabajo del Paso Doce, que sirve a la vez
una autoridad de servicio equivalente, quedando para incrementar el conocimiento y la apertura a quien lo
siempre bien definido el alcance de dicha autoridad. otorga y de quien lo recibe. Luego se da cuenta de
Los Custodios siempre deberán contar con la ayuda de que dicha labor se amplía para incluir las oficinas de
comités, directores de las áreas de servicio, ejecutivos, intergrupos y los comités de servicio institucionales.
personal de oficina y asesores que sean los mejores Finalmente se llega a los servicios de Aprendizaje.
posibles. Deberán por lo tanto prestar especial Se utiliza el término ―Servicios Integrales de

439
Aprendizaje[5]‖para designar todas aquellas actividades columunidad
ejecutadas por los comités de área, delegados,
custodios y el personal de la Oficina de Servicios de En la ilustración No. 3, se muestra como fluye la
Aprendizaje (OSA) dentro del marco de la estructura de la información desde el Grupo de Mao-G en La
conferencia. Generalmente tales actividades benefician Estructura de toda la comunidad.
a la comunidad como un todo. Casi siempre se encuadran
dentro de la característica Unidad de MAO-G que
permite el buen funcionamiento de los grupos mediante
el reflejo de las tradiciones.
Cada uno de los seres humanos le debe el conocimiento
al interés y al esfuerzo de otra persona que de una u otra
manera lo ha transmitido. Aunque hubiéramos obtenido
el conocimiento que poseemos por nosotros mismos,
solamente nos ha sido posible acortar el camino en su
descubrimiento, gracias a muchas personas que han
garantizado su transmisión mediante diversos medios.
Primeramente por medio de jeroglíficos, pasando por la
creación de los alfabetos para la escritura en papiros,
pergaminos, libros, etc., de generación en generación,
hasta llegar a lo que hoy conocemos como el
computador, el internet y finalmente las redes sociales.
Este antecedente, deberá ser un pilar sobre el cual
nosotros construyamos la sociedad en la que todos los
miembros sean verdaderamente hermanos por una
misma causa ―La supervivencia del conocimiento‖cada
uno con una deuda de gratitud para el otro. Este
conocimiento que hoy hemos adquirido, se lo
debemos a quienes el día de ayer pusieron un grano de Ilustración 3 [5]Cómo encaja un grupo MAO-G en la
arena en su construcción. Deberemos comunidad
comprometernos con garantizarle la transmisión
enriquecida con la experiencia al individuo que llegará
mañana a la organización.
La ilustración No 2 Muestra la estructura Interna de un
grupo y como se conecta con toda la comunidad:
MEDIOS DE PROPAGACIÓN
2.2 Canal Presencial
Estará integrado por puntos de servicio de aprendizaje
personalizado donde los funcionarios de la institución
podrán acceder a los servicios de información y
capacitación, realizar las reuniones propias de MAO-
G, acopiar y gestionar literatura, realizar
seminarios, congresos y demás. Allí podrán vincularse
a los programas de Aprendizaje y capacitación ofrecidos
por la Administración Institucional en un mismo espacio
físico.

2.2.1 Objetivos del Canal Presencial


Los puntos de servicio de aprendizaje MAO-G
facilitarán una comunicación e interacción más efectiva
entre la administración institucional y los funcionarios.
Adicionalmente se deben ubicar en lugares estratégicos
de la institución, garantizando una mayor cobertura e
inclusión de las diferentes áreas funcionales que la
conformarán.
Ilustración 2 [5]Cómo encaja un grupo MAO-G en la

440
La institución podrá instalar diferentes tipos de puntos reuniones intergrupales, en los lugares de trabajo, en los
de atención de acuerdo a las necesidades y expectativas puntos de servicio, y será una filosofía del miembro de
de los usuarios (Biblioteca, Salón de Inducción y re MAO-G independientemente de que su compañero esté
inducción, Salón de capacitación en TICS, Sala de o no en un grupo, invitándole a pertenecer e
Estructuración y Socialización, etc.) informándole de los lugares físicos y electrónicos donde
podrá vincularse. De esta forma se practicará el paso
doce y por ende se propagará la filosofía del servicio.
Este acompañamiento, será dado inicialmente de manera
voluntaria a como bienvenida y posteriormente se
instará al recién llegado que busque el padrino con el
cual se sentirá más cómodo, para compartir información
y conocimientos afines como parte del trabajo en
equipo.
Se recordará al que llega que solo se garantiza la vida
del conocimiento en la medida en que el individuo
comparta lo que aprende.

2.4 Canal Virtual


Lo Utiliza tecnologías de información y comunicación para
s puntos de atención de MAO-G promueven y facilitan un facilitar el acceso de los internautas a la información
mayor acercamiento, interlocución e interacción relevante sobre la Institución y las necesidades de la
entre la Administración Institucional y los usuarios del ciudadanía, sistemas de información dispuestos por la
modelo con el propósito de reconocer las necesidades Institución y servicios en línea ofrecidos por entidades
del colectivo social de la institución y establecer públicas del orden distrital y nacional a través del Los
alternativas viables para su satisfacción. portales Empresariales, en los cuales estará incluido el
Los puntos de atención MAO-G optimizan tiempos y acceso
reducen costos para la institución y aumentan los a MAO-G, también contendrá además los enlaces de
beneficios para los usuarios del modelo. interés relacionados con la información de
Actualizaciones, Aprendizaje y capacitación ubicados
2.3 El Patrocinio tanto en la plataforma de aprendizaje [4] institucional
MAO-G como de entidades públicas y del orden distrital
Cuando ingresa un miembro nuevo a MAO-G y nacional.
generalmente se siente desorientado, solitario, apático y
algunas otras sensaciones de egocentrismo que en la
2.4.1 Objetivos del canal virtual
medida en que se le brinde amistad, ayuda y
Facilitar el acceso a información, trámites, servicios y
orientación en su nuevo ambiente podrá ir abandonando
programas que prestan las diferentes entidades distritales a
para empezar a sentir el espíritu del colectivo[1].
los ciudadanos, empleando la conexión a internet.
El apadrinamiento o patrocinio, llega a ser muy
Facilitar el acceso con la administración institucional
importante para el recién llegado que desea una
de cualquier habitante del mundo, sin limitaciones de
orientación y apoyo en el miembro ―mas antiguo‖
tiempo y espacio.
quien podrá proporcionarle una guía en la búsqueda de
SOCIALIZAR, EXPLICITAR,
la Pertenencia, Participación y Permanencia, quelos
COMBINAR,REGISTRAR, TRAMSMITIR Y
miembros con más tiempo encontrarán en MAO-G
EVALUAR el conocimiento adquirido por el
En la misma cada miembro más antiguo siente una
personal organizacional[6].
responsabilidad especial por alguien que se ha unido al
Grupo después que él. El trata de que el recién
llegado como su casa, lo encamina basándose en su 2.4.2 Características Específicas de la
experiencia personal, indicándole los elementos del plataforma Educativa
MAO-G, presentará al recién llegado a los otros Esta plataforma cuenta con diversos módulos como
miembros del grupo. El periodo de su permanencia en creación de cursos los cuales se organizarán de acuerdo
MAO-G no es un factor vital, así como el del padrino a las necesidades del hospital Cuya clasificación constará
quien podrá indicarle con su experiencia que bastará para de tres pilares Capacitación General, Capacitación
que este vaya entendiendo elfuncionamiento de MAO-G. Específica y Capacitación Local.
El patrocinio o apadrinamiento, se podrá dar en las

441
las entidades distritales y nacionales con presencia en la
Red, a través de teléfono fijo, celular, Chat y correo
electrónico, las 24 horas del día de domingo a domingo.
Se deberá, asignar una línea especial para los puntos de
servicios de aprendizaje personalizados MAO-G
Se contará con una oficina o call center donde se
administra la información al público, publicaciones,
coordinación de foros y el directorio telefónico y
ubicación de los grupos para llegar más fácil a la
población. Igualmente se deberá establecer estrategias
de atención especializada para la atención del aprendizaje
de población discapacitada.
2.6 Productos y/o servicios

Ilustración 4 [10] categorías de aprendizaje en Plataforma Educativa Virtual incluida en el Portal o


Plataforma Educativa Sitio oficial web de la Organización, que publica
El Conocimiento General involucrará la capacitación información de interés para la ciudadanía y para los
en los procesos globales a la Organización como lo es funcionarios de la organización. Está diseñado para que
la habilitación, acreditación, estándares, normas y los internautas puedan conocer virtualmente la
demás procesos transversales a la Organización. organización, su historia, estructura, sus sucursales o
El Conocimiento Explícito Específico se clasificará de centros de servicios, normas, capacitaciones, y el
acuerdo a los procesos internos de la Organización, los conocimiento explicito recopilado a través de las
cuales recibirán necesidades de capacitación del personal reuniones realizadas en los grupos MAO-G en las
responsable y especializado por proceso. cuales se rescatará el conocimiento tácito de los
El Conocimiento Local se compone de las miembros de la organización y de los demás grupos que
necesidades educativas sectoriales de las sucursales o utilicen el modelo. La transmisión del conocimiento se
centros de servicios que serán fundamentales para llegar facilitará con capacitaciones cuyos componentes
a la suplencia de las necesidades de la comunidad de una principales son objetos virtuales de aprendizaje
forma más exacta y conforme. Estos repositorios de amigables al usuario e interactivos.
saberes tradicionales, formales e informales La participación en doble vía de los funcionarios se
correspondientes demandarán la participación activa de garantizará mediante la disponibilidad de herramientas
la comunidad. como el chat, foros, correo, con el fin de optimizar
El conocimiento estará alimentado por diversos las capacidades de comunicación del talento humano y
módulos los cuales se compondrán de cursos con de los recursos físicos, reducir sustancialmente los
recursos tecnológicos de conectividad como lo es el chat costos, interactuar solidariamente con las áreas
para comunicaciones en línea, el foro para iniciar encargadas de capacitación del talento humano
discusiones en un tema determinado y poder hacer permitiendo seguimientos auditables puesto que con la
aportes, controversias y sustentaciones anexando plataforma educativa virtual se pueden integrar
documentos electrónicos y vínculos o referencias a herramientas de evaluación y calificaciones sobre el
otros sitios que se consideren relevantes en el tema. avance de los procesos educativos. En la plataforma
Se podrán realizar actividades que permitan reforzar es posible también realizar consultas en línea y
aptitudes específicas que serán provistas por el experto de acceder a la información de relevante del hospital para
cada proceso y a su vez evaluar elconocimiento de los sus funcionarios de manera fácil, segura y eficiente y
estudiantes, sus expectativas y conceptos sobre el confiable.
material educativo computarizado. La plataforma Educativa Virtual se diseñó para ser
Los Objetos Virtuales de Aprendizaje OVA‘S son operada de manera intuitiva, ya que permite a la
indispensables para facilitar el aprendizaje [9] comunidad acceder a una base de datos integral que
contiene toda la información necesaria para una mejor
prestación de los servicios que presta la organización
como normatividad, Conocimientos Generales y
2.5 Canal Telefónico
específicos relativos a cada uno de los procesos,
Medio de contacto donde los funcionarios de la
Conocimiento Local, en donde involucra las
organización y demás miembros de MAO-G pueden
necesidades de la ciudadanía frente a los servicios
obtener información acerca de capacitaciones, servicios,
ofrecidos por la organización en cada una de las
campañas educativas y eventos educativos que prestan

442
localidades traducidos en bienestar para la comunidad tiempo queda mucha información por complementar y
vecina. profundizar en la explicación de los pasos las
tradiciones y los conceptos utilizados en la
2.7 Abreviaturas y Acrónimos metodología propuesta para el funcionamiento del
MAO-G: Modelo de Aprendizaje Organizacional para la modelo.
Gestión del Conocimiento y la información.
RGC: Representante de Gestión del Conocimiento. 4. AGRADECIMIENTOS
OVA‘S : Objetos Virtuales de Aprendizaje[9]. Angel María Fonseca Correa, ingeniero de Sistemas y
OSA: Oficina de Servicios de Aprendizaje Líder del Sistema Integrado de gestión del Hospital Vista
CSA: Conferencia de Servicios de Aprendizaje Hermosa y coordinador del convenio interinstitucional
Hospital Vista Hermosa I Nivel ESE- Universidad
3. CONCLUSIONES Distrital Francisco José de Caldas ESE por sus aportes
El presente trabajo, se realizó con una concienzuda y cognitivos y bibliográficos en el direccionamiento
extensa investigación de muchos de los modelos de estratégico del proyecto .
aprendizaje organizacional cuya base fundamental es la Rubén Darío Pérez Torres, Ingeniero de sistemas,
experiencia del individuo en la organización. Las investigador de la Universidad Distrital , por sus
diferentes perspectivas de la organización vistas con un valiosos aportes académicos e investigativos.
enfoque sistémico, nos proveen unos pensamientos más Humberto Bocanegra Leal, Ingeniero de Sistemas y
flexibles, sobre las realidades de estas aunque menos coordinador del área de sistemas del Hospital Vista
complejos de lo que son las organizaciones y por este Hermosa ESE, por la transferencia de conocimiento
motivo, se brinda una herramienta en la cual se vea al experimental y dedicación de tiempo.
ser humano no ya como un recurso en la organización Johana Rodríguez, Ingeniera de Sistemas y coordinadora
sino como un ser poseedor de talentos que se encuentran del Sistema Integrado de Gestión del Hospital Vista
en su parte racional y espiritual, que una vez Hermosa I nivel ESE, por su aporte en la documentación
mezclados con lo material y esta metodología, se espera necesaria especializada para la realización del proyecto.
que sea de beneficio para el crecimiento individual y Luis Emilio Montenegro, Ingeniero de Sistemas y co-
por ende el organizacional, en aras de poder construir director del trabajo de grado, por su orientación y
una verdadera organización inteligente. El acercamiento apoyo durante la realización del proyecto.
que se tuvo del pensamiento crítico de las metáforas de José E. ex delegado y miembro de la comunidad de
las organizaciones, nos animan a entender y comprender Alcohólicos Anónimos por sus aportes en
los múltiples significados de las situaciones y a conocimiento y difusión de la estructura y los principios
confrontar y dirigir las contradicciones y las paradojas. de A.A.
En lugar de pretender ignorarlas o pensar que no existen. Agradecimiento especial a la Dra. Nohora Velasquez,
El punto más importante es que la forma humana de ver el Jefe de Gestión Pública y Autocontrol del HospitalVista
mundo está limitada y en la medida en que se amplíe ese Hermosa I nivel ESE por la colaboración y apoyo
campo visual con la visión colectiva de los grupos, durante la realización del proyecto y la integración del
podremos comprender y complementar las capacidades Modelo de Aprendizaje Organizacional (MAO-G) al
del ser humano para recibir aprendizaje y transmitir Sistema Integrado de Gestión del Hospital Vista
conocimiento. En la mayoría de organizaciones exitosas, Hermosa SIG-AGA.
se aprecia el conocimiento como una joya invaluable en Esmit Torres Monrras, Gerente del Hospital Vista
aras de propender por la innovación y el desarrollo y Hermosa I nivel ESE por apoyar la investigación e
el mayor secreto que ellas explotan y con las que ganan integración de la universidad con la organización en la
ventajas competitivas es el conocimiento del personal que búsqueda del conocimiento que mejore cada vez las
labora en ellas. Es por este motivo que se hizo una condiciones de vida de la comunidad de Ciudad Bolívar
integración de muchos de los modelos propuestos con A la Universidad Distrital Francisco José de Caldas,
énfasis en la investigación- acción, teniendo como Bogotá, Colombia por formar profesionales de alta
herramienta fundamental las tecnologías de la calidad y competitividad.
información y las telecomunicaciones en la Al Alcalde Mayor de Bogotá Samuel Moreno Rojas, por
implementación de la plataforma de educación virtual liderar políticas de integración de la academia con la
Moodle como mecanismo propicio para la gestión del organización.
conocimiento. El presente Modelo de Aprendizaje 5. REFERENCIAS
Organizacional MAO-G pretende servir como base para [1] Ideas tomadas del la metodología de Alcohólicos
posteriores trabajos sobre Aprendizaje Organizacional y Anónimos, en su libro Alcohólicos Anónimos escrito
Gestión del conocimiento puesto que por razones de por BILL W impreso por A.A.World Services Inc. ®

443
ed. 1969. Innovation. 11(7/8):833‐845. 1996 .
[2] MORGAN GARETH, Imágenes de la [7] A.A. World Services Inc®.,El grupo de A.A. ..donde
Organización, ed. Alfaomega Grupo Editor todo empieza. Como funciona un grupo Como
S.A.,1998. ponerse en marcha.
[3] SENGE M. PETER, La quinta Disciplina, [8] Conceptos adaptados del libro ―Manual de
Ediciones Garnica S.A., ed 2005. Servicios de A.A. y Doce Conceptos Para el Servicio
[4] Fundación LAMS Integración entre LAMS y Mundial, A.A. World Services Inc®‖ con el permiso
Moodle, [En Línea], [consulta: 4 de febrero de 2010]. escrito de la Oficina de Servicios Generales de A.A.
Disponible en: Colombia.
<http://lamsfoundation.org/integration/moodle/> [9] Universidad Nacional A distancia, Objetos Virtuales
[5] BUITRAGO, Girlesa María, Trabajo de grado de Aprendizaje , [consulta:10 de marzo de 2010].
Analisis, Diseño, Desarrollo E Implementación Disponible en : <http://www.unad.edu.co/redovas/>
Del Prototipo De Modelo De Capacitación Y [10] HOSPITAL VISTA HERMOSA, [En línea]
Aprendizaje para el Hospital Vista Hermosa Nivel I [consulta:10 de julio de 2010]. Disponible en: <
E.S.E A travésDel Uso De La Plataforma De http://www.hospitalvistahermosa.gov.co> Educación
Aprendizaje Electrónico Moodle2010. al Hospital o en la intranet del HVH ip
[6] NONAKA, I. and TAKEUCHI, H.―ATheory of <197.9.100.240/server/moodle>
Organizational Knowledge Creation‖. International [11] BILL W. Manual de Servicios de A.A. y Doce
Journal of Technology Management,Special Issue Conceptos Para el Servicio Mundial, A.A. World
of Unlearning and Learning for Technological Services Inc®., ed 2002.

444
Ecosistema de Conocimiento Regional para la Ciudad-Región de
Manizales y Caldas, Colombia

Marcelo López, Luis Joyanes


Universidad de Caldas, Colombia Universidad Pontificia de Salamanca,
mlopez@ucaldas.edu.co España.
luis.joyanes@upsam.net

RESUMEN 1. INTRODUCCIÓN
La ciudadanía en la sociedad de la información y del Los diversos planes para el desarrollo de la Sociedad de la
conocimiento debe apropiarse socialmente de las Información y del Conocimiento en Colombia, tanto
tecnologías digitales para avanzar en el desarrollo nacionales como regionales, han estado orientados a
sustentable de su territorio, aprovechando la generar un adecuado uso de las tecnologías informáticas
infraestructura y dimensiones de los territorios digitales. para contribuir al éxito de un modelo de crecimiento
Este articulo presenta los resultados finales de una económico basado en el incremento de la competitividad
investigación doctoral sobre un modelo de desarrollo y la productividad, la promoción de la igualdad social y
basado en conocimiento, específicamente se presenta la regional, la inclusión digital y la mejora del bienestar y la
arquitectura e instancias de un ecosistema de calidad de vida de los ciudadanos. Si las sociedades del
conocimiento regional para generar y gestionar agendas conocimiento incluyen dimensiones de transformación
y accionespara la innovación y los emprendimientos social, cultural, económica, política e institucional como
socio-productivos basados en conocimiento. una perspectiva más pluralista y desarrolladora
(Waheed, 2003), la ciudad digital y de conocimiento debe
abarcar estas dimensiones para propiciar no solo su
Palabras clave: Ecosistema de conocimiento, crecimiento económico sino también para empoderar y
agentes de conocimiento, sistema de capitales, desarrollartodos los sectores de su sociedad.
activos de conocimiento. Los conceptos de ciudad digital y de ciudad de
conocimiento se complementan cuandohacen referencia
a la infraestructura en tecnologías de la información y
ABSTRACT comunicación, a los servicios digitales para la comunidad
Citizenship in the information society and knowledge como una extensión de la prestación de los servicios
must be socially appropriate digitaltechnologies to sociales; el concepto de conocimiento también tiene que
advance the sustainable development of its territory, using ver con competencias para gestionar conocimiento a
the infrastructure and dimensions of digital territories. nivel ciudadano, colectivo e inter-organizacional, con la
This paper presents the final results of a doctoral study a capacidad de auto-conocerse a nivel local para potenciarse
model of development based on knowledge, specifically a nivel global.
show the architecture and instances of an ecosystem of Un ecosistema de conocimiento regional tiene que ver con
regional knowledge to create and manage agendas and gestión tecnológica, gestión delconocimiento y gestión
actionsfor innovation and socio-productive ventures based social para promover procesos innovadores en las
on knowledge. administraciones públicas, para extender el uso de las
tecnologías digitales a la educación, la sanidad, lacultura
Keywords: Ecosystem of knowledge, y el bienestar social; para aprovechar la infraestructura de
knowledge agents, system of capital, los territorios digitales.
knowledge assets. El ecosistema de conocimiento es un medio para
incrementar en la ciudadanía la adopción y uso de los
servicios digitales, la participación en redes sociales, las
comunidades virtuales, la utilización de la identidad

445
digital para el ciber-comercio, la ciber-salud, la ciber- validar los componentes del ecosistema.
ciencia, los ciber-negocios, la ciber-educacion, la ciber-
agricultura, el ciber-gobierno y el ciber-empleo. El 2. EL ECOSISTEMA DE
ecosistema considera también la seguridad de la
información entre la ciudadanía y las organizaciones, en
CONOCIMIENTO REGIONAL
procura de genera una mayor confianza en la adopción y La propuesta del modelo de desarrollo basado en
uso de las tecnologías informáticas. El adecuado uso que conocimiento, está fundada en un ecosistema de
se le dé al ecosistema permitirá potenciar la aplicación conocimiento regional (figura 2) conformado por el
de las tecnologías digitales al sistema educativo y sistema social de capitales y sus activos de conocimiento,
formativo, generando contenidos y actividades que por los agentes de conocimiento sociales
posibiliten innovar y emprender, como elementos claves (familia,comunidad, ciudadano, organización) y en paras
al uso creativo y productivo de las tecnologías digitales. las regiones (natural, geográfica, administrativa, en red).
Incluso el ecosistema busca que las tecnologías El ecosistema de conocimiento de la ciudad-región esta
informáticas sean un instrumento clave para un cimentado en ontologías y agentes (Figura 3). Los
crecimiento equilibrado desde la mirada medioambiental. agentes del portal se refieren a los dominios: agentes
sociales de conocimiento, sistema de capitales, agendas
de actuación, activos de conocimiento y regiones
(gobernanza y agenda de actuación). Los agentes
computacionales propuestos para el ecosistema de
conocimiento son: agente activador de conocimiento,
agente de gestión,agente de participación, agente de
relaciones y agente de recolección y filtro de datos; todos
estos agentes acorde a la búsqueda e indagación semántica
planteada por (Lizhen, Zhifeng,& Kemin, 2010).

Figura 1. Proceso de investigación, acción y participación


realizado para la formulación delmodelo, fuente: (López
& Joyanes, 2010)

METODOLOGÍA DESARROLLADA
Las estructuras propuestas para los componentes del Figura 2. Componentes del ecosistema de conocimiento
ecosistema son el resultado de un proceso de IAP, como regional
un método de investigación de carácter eminentemente
cualitativo,con la participación de la comunidad y su
capacidad para orientar la trasformación de su entorno u
organización, en procura de una mejor calidad de
vida de sus miembros y participantes. El postulado
fundamental de la investigación-acción-participación es
que el conocimiento de la realidad del objeto de estudio
(ciudad-región digital y de conocimiento) es en sí mismo
un proceso de trasformación a través de la superación de
los conflictos y contradicciones del investigador, del
grupo participativo y del problema y objeto de estudio.
El proceso IAP se realizo con la participación de personas
y actores la provincia de Caldas Colombia, en un trabajo
por sub-regiones. En la figura 1, se presentan las etapas
Figura 3. Arquitectura ontológica y de multi-agentes
seguidas en el proceso, todo este ciclo permitió definir y
para el ecosistema de conocimiento

446
Las ontologías de método, tarea, aplicación y dominio (HICSS), 2010 43rd Hawaii International
acorde a (Rajendran & Iyakutti, 2009) e (Isaza, Castillo, Conference, (págs. 1-10). Honolulo.
& Lopez, 2010) se aplican a los agentes sociales de [13] Isaza, G., Castillo, A., & Lopez, M. (2010). Towards
conocimiento,los capitales y las regiones, para generar los Ontology-Based Intelligent Model for Intrusion
dominios de los activos del conocimiento y las agendas Detection and Prevention. Journal of Information
de actuación. De esta manera el ecosistema le permite Assurance and Security (JIAS) ,1554-1560.
al ciudadano informarse, comunicarse, colaborar, [14] Lizhen, L., Zhifeng, D., & Kemin, X. (2010).
coordinar actuaciones y gestionar el conocimiento de la Ontology of General Concept for Semantic
ciudad-región (figura 4). Las observaciones de las Searching. the Computer Modeling and Simulation,
experiencias de otras localidades o ciudades-regiones se ICCMS '10. Hainan, China.
plasman a través de relaciones resultado de perspectivas [15] López, M., & Joyanes, L. (2010). Knowledge
de observación como: pertinencia (acción de los agentes Based Development Model. European Conference
sociales en el portal), multi dimensionalidad (activos de Knowledge Management 2010. Oporto: Academic
conocimiento), flexibilidad (tratamiento a toda la Conferences Limited.
información del sistema de capitales de cada ciudad- [16] Lopez, M., Joyanes, L., & Gustavo, I. (2009).
región) y sentido evolutivo (gestión del tiempo y de las Ontology for Knowledge Management in a Local
relevanciassemánticas). Community. The IEEE Latin-American Conference
Las prestaciones de un portal de conocimiento para al on Communications - WorkShop.Medellin: IEEE.
ciudadano, le permiten: obtener servicios, motivarse para [17] Rajendran, B., & Iyakutti, K. (2009). Socio-
participar, usar el portal para administrar y generar contextual model of knowledge sharing among user
contenidos; informarse, validar lo que está pasando en la assisting agents. Intelligence and Security
ciudad-región y actuar como gestor de conocimiento; Informatics, 2009. ISI '09. IEEE International
colaborar, aprender y tener soporte alrededor de la gestión Conference. Dallas.
del conocimiento local y regional (Lopez, Joyanes, & [18] Secretaría de Estado de Telecomunicaciones y para la
Gustavo, 2009), (Barbagallo, De Nicola, & Missikoff, Sociedad de la Información. (30 de 04 de 2010). Plan
2010). Avanza. Recuperado el 11 de 08 de 2010, de
www.planavanza.es:
3. REFERENCIAS BIBLIOGRÁFICAS http://www.planavanza.es/InformacionGeneral/Estrat
egia2011/Documents/Estrategia_2011-2015_PA2.pdf
[12] Barbagallo, A., De Nicola, A., & Missikoff, M. [19] Waheed, A. (2003). Towards Knowledge Societies.
(2010). eGovernment Ontologies: Social Participation Paris: Publicaciones Unesco - World of Science.
in Building and Evolution. IEEE, System Sciences

Figura 4. Prestaciones del ecosistema regional de conocimiento para el ciudadano

447
448
Tecnologias Web 2.0 integradas al modelo organizacional de creación
de conocimiento.

Alicia Elena Ramos


Ing. En Informática Luis Joyanes Aguilar Antonio Rafael Román
Doctorando Ing. Informática Catedrático de la Facultad de Ing. En Electrónica
Facultad de Informática Informática Doctorando Ing. Informática
UPSAM UPSAM Facultad de Informática
Miembro GISSIC Coordinador GISSIC UPSAM
Telf.:0034664805081- luis.joyanes@upsam.net Miembro GISSIC
00582867181456 Telf.:0034664805081-
aramossanchez@gmail.com 00582867181456
aromanv@gmail.com

knowledge creation and conversion of Nonaka and


RESUMEN Takeuchi, discusses applications and mechanisms offered
Usando como marco de referencia el modelo by Web 2.0 technologies that support for creating virtual
organizacional de creación y conversión de conocimiento spaces on Enterprise 2.0 that ease development processes
de Nonaka y Takeuchi,se analizan las aplicaciones y of knowledge creation and conversion and it manage its
mecanismos ofrecidos por las tecnologías Web 2.0 que inherent processes. The way Web 2.0 technologies are
sirven de soporte para la creación de espacios virtuales en integrated into the conversion processes to the extent that
la Empresa 2.0 que facilitan el desarrollo de procesos de knowledge is transformed between tacit and explicit,
creación y conversión de conocimiento y consigo sus identifying that although the biggest technological support
procesos inherentes de gestión. La forma como las is provided in the management of explicit knowledge,
tecnologías Web 2.0 se integran a los procesos de through classification and mechanisms categorization such
conversión en la medida que el conocimiento se as tags, folksonomies, bookmarking, syndicated, allowing
transforma entre tácito y explicito, identificándose que storage and retrieval processes that favor more efficient
aunque el mayor soporte tecnológico se ofrece en la learning and reuse it, Web 2.0 technologies offer an
gestión del conocimiento explicito,a través de upgraded model of the processes of creation and transfer
mecanismos de clasificación y categorización tales como: of tacit knowledge through tools that allow explicit
tags, folksonomias, bookmarking y redifusión de representation, such as audio / video conferencing over
contenidos, que permiten procesos de almacenamiento y VoIP and virtual worlds in conjunction with: instant
recuperación más eficientes que favorecen el aprendizaje messaging, blogs, wikis, podcast and videocast therefore
y consigo su reutilización; las tecnologías Web 2.0 propose strategies that promote integration effective as
ofrecen una versión renovada de los procesos de creación communication tools and supports the conversion of
y transferencia del conocimiento tácito a través de knowledge creation and handling.
herramientas que permiten su representación de forma Keywords: Social software, knowledge management,
explícita, como la audio/video conferencia sobre VoIP y knowledge socialization, conversion of knowledge, tacit
los mundos virtuales en combinacióncon: la mensajería knowledge, explicit knowledge.
instantánea, blogs, wikis, podcast y videocast, por lo que
se proponen estrategias que favorecen la integración 1. INTRODUCCIÓN
efectiva como herramientas de comunicación y de soporte La función principal de la Gestión del Conocimiento es la
a la creación y conversión del conocimiento manejado. de propiciar ambientes en donde se dinamicen y
Palabras clave: Software social, gestión del desarrollen procesos encaminados a la generación y
conocimiento, socialización del conocimiento, conversión transferencia del conocimiento a través del fomento de las
delconocimiento, conocimiento tácito, conocimiento interrelaciones entre individuos y grupos. Las tecnologías
explícito. Web 2.0, soportada sobre una arquitectura de
ABSTRACT participación y con la implementación de un conjunto de
Using as a framework the organizational model of herramientas e instrumentos facilitan la creación de

449
ambientes virtuales, y la formación de grupos de interés, 2. MODELO DE CREACION Y
para la participación, colaboración, creación y CONVERSIÓN DE CONOCIMIENTO DE
transferencias de todo tipos de contenido, desde un
mensajes simple, conversaciones, video, audio, hasta NONAKA Y TAKEUCHI
complejos documentos, donde dicho contenido, constituye La gestión del conocimiento, acorde con definición
una expresión del conocimiento de cada participante y su aportada por [3], es el proceso sistemático de buscar,
aportación para la formación del capital de conocimiento organizar, filtrar y presentar la información con el
de la comunidad o grupo, visible y localizable por todos objetivo de mejorar la comprensión de las personas en un
sus miembros, constituyéndose de esta forma en área específica de interés. En este mismo orden de ideas,
herramientas de gestión del conocimiento [10]. Marwick [11], la define como el conjunto de acciones
Herramientas como los wikis, blogs y foros de discusión, sistemáticas y disciplinadas que una organización puede
como tecnologías conversacionales, facilitan los procesos realizar para obtener el mayor valor posible del
de creación y almacenamiento de conocimiento, a través conocimiento disponible en ella. Donde, el conocimiento
de foros de debate donde los participantes contribuyen incluye tanto las experiencias como la comprensión que
con preguntas y respuestas, o a través de blogs, las personas de la organización tienen acerca de los
caracterizados por procesos de narración y discusión, o artefactos de información, tales como, documentos e
por medio de Wikis de colaboración mediante escritos informes, disponibles tanto internos como externos a la
[17]. organización. Por lo que la gestión efectiva del
En este sentido, estas plataformas abiertas de conocimiento organizacional requiere normalmente de
participación se convierten en herramientas tecnológicas iniciativas organizacionales, sociales y estratégicas, junto
facilitadoras que favorecen la interacción dinámica entre al despliegue, en la mayoría de los casos, de las
el conocimiento tácito y explicito en las organizaciones, a tecnologías apropiadas. Siendo el uso de las tecnologías
través de procesos de Socialización, Exteriorización, Web 2.0 el centro de este artículo, para estructurar la
Combinación e Interiorización del conocimiento, acorde discusión acerca de las mismas, es útil clasificarlas en
con el modelo de creación y conversión de conocimiento relación con los conceptos de conocimiento tácito y
de Nonaka [12], en el cual partiendo de las experiencias explicito, presentados por Polanyi [14] y utilizados por
de cada usuario se desarrolla un proceso de aprendizaje Nonaka para formular una teoría acerca del aprendizaje
que permite incrementar el nivel de conocimiento tanto organizacional que se centra en las formas de conversión
individual como organizacional, lo cual de manera entre conocimiento tácito y explicito. El conocimiento
implícita se relaciona con el uso de herramientas y tácito, es el conocimiento personal, el cual se deriva de las
mecanismos de soporte que facilitan la captura, experiencias de trabajo, emocionales, vivenciales, know-
validación, almacenamiento, difusión y transferencias para how, las habilidades, creencias y valores. El conocimiento
hacerlo persistente y lograr su reutilización. En este tácito es accionable y el más valioso, clave para la
contexto, las tecnologías Web 2.0 ofrecen mecanismos creación de nuevo conocimiento, a través de su
como: el etiquetado, categorizaciones no estructurada a movilización y conversión [12]. Por su parte, el
través de folksonomias, marcadores sociales, filtrado conocimiento explicito, se refiere al conocimiento que
colaborativo, difusión selectiva, y herramientas de está codificado y es transmisible a través de algún sistema
colaboración tanto sincronas como asíncronas que actúan de lenguaje formal. Dentro de esta categoría se encuentran
como repositorios de contenidos cargados de los documentos, reportes, audio, video, memos, mensajes,
conocimientos, las cuales soportadas sobre el uso de bases presentaciones, diseños, especificaciones, simulaciones,
de datos como tecnologías base, permiten el entre otras, teniendo como objeto principal comunicarlo a
almacenamiento de dicho conocimiento clasificado y otras personas. Siendo ambas formas de conocimientos
categorizado en forma colectiva, facilitando su acceso y importantes para la eficiencia de las organizaciones, el
compresión [5]. En este orden de ideas, el objetivo de este objetivo de la gestión del conocimiento, en toda
artículo es ofrecer un enfoque representativo de la forma organización, es apoyarse en el uso de las tecnologías para
como las tecnologías Web 2.0 integradas al desarrollo de lograr capturar o explicitar el conocimiento tácito
los procesos del negocio sirven de herramientas residente en las personas, para hacerlo persistente y lograr
facilitadoras de los procesos de gestión del conocimiento su difusión y reutilización. Lo expresado anteriormente
y evaluar su actual y potencial contribución a los procesos conlleva a enfocarse en los procesos de conversión del
básicos de creación y distribución del conocimiento en las conocimiento entre sus formas tácito y explicito. En este
organizaciones. contexto, el aprendizaje organizacional tiene lugar en la
medida que los individuos participan en estos procesos,
con sus conocimientos compartidos, articulados y puestos
a disposición de los demás. La creación de nuevo
conocimiento se lleva a cabo a través de los procesos de

450
combinación e internalización, produciéndose de esta clasificar para formar bases de datos y producir nuevo
forma una reutilización y aprendizaje del conocimiento conocimiento explícito. Se crea, con la combinación, el
disponible. Como se puede observar en la figura 1, los conocimiento sistémico, soportado en el uso de las
procesos por medio de los cuales el conocimiento es tecnologías para la gestión y búsqueda de colecciones de
transformado en y entre formas utilizables por las conocimiento explicito.
personas son los siguientes: - Interiorización (Explícito a Tácito): Indica incorporar
- Socialización (Tácito a Tácito): En este proceso se el conocimiento explícito en conocimiento tácito,
comparten experiencia con el fin de adquirir conocimiento verbalizar y diagramar en documentos, manuales o
tácito a través de modelos mentales compartidos bien sea historias orales.Se incorpora en las bases de conocimiento
por conversaciones, documentos, entrenamiento practico, tácito de los miembros de la organización en la forma de
manuales y tradiciones que añade el conocimiento modelos mentales compartidos o prácticas de trabajo.
novedoso a la base colectiva que posee la organización Generando como contenido conocimiento operacional.
[16]. Para ser efectiva esta formación compartida o Una actividad típica de esta fase es la lectura y estudio de
comunicación de conocimiento tácito debe tener lugar documentos desde diferentes bases de datos. Estos
entre personas que comparten una misma cultura y pueden procesos no se producen en forma aislada, el trabajo en
trabajar juntos de manera efectiva. De esta forma el equipo en combinación con diferentes situaciones propias
compartir conocimiento tácito se asocia a las ideas de del negocio, la interacción entre los empleados para la
comunidades y colaboración. Un ejemplo típico en el que resolución de problemas, el desarrollo de tareas y
se comparte conocimiento tácito es a través de la proyectos en conjunto, permiten la creación de
descripción y discusión de experiencias en equipo [3]. conocimiento tanto tácito como explícito inherente al
trabajo. A través de la interacción con otros, el
Socialización Exteriorización (Tácito conocimiento tácito es internalizado y distribuido. Si bien
(Tácito-Tácito) los individuos, como lo son los empleados, experimentan
Explícito)
cada uno de estos procesos desde una perspectiva
Reuniones y Diálogos en grupo,
organizacional de gestión del conocimiento, el mayor
discusiones en grupo. preguntas
valor se genera durante el proceso de combinación, ya que
y respuestas
se genera nuevo conocimiento, que será difundido e
Interiorización Combinación (Explícito internalizado o aprendido por otros empleados, para
(Explícito Tácito ) Explícito) formar nuevas experiencias y conocimiento tácito, que
Aprender a partir de Reportes, resumen de bases puede a su vez ser compartido.
informes, lectura de de datos, prototipos,
documentos de diversas planos, 3. LA WEB 2.0 COMO
fuentes modelos, diagramas,
TECNOLOGIAS PARA LA GESTION DEL
Software
Figura 1. Procesos de conversión del conocimiento CONOCIMIENTO
entre tácito y explícito. Fuente: Adaptado a partir de Las tecnologías Web 2.0, soportadas sobre sus principios
[Nonaka y Takeuchi, 1999] intrínsecos de colaboración y participación, y enfocadas
hacia el elemento humano, facilitan la conformación de
Externalización (Tácito a Explicito): Es la actividad redes de colaboración entre individuos, las cuales se
esencial en la creación del conocimiento, es la conversión sustenta sobre una arquitectura de participación como es
del conocimiento tácito en explícito, adopta la forma de la Web, donde la estructura reticular que soporta la
metáforas, analogías, hipótesis, modelos, creación de misma, se potencia en la medida que más personas la
conceptos a través de la deducción e inducción, utilizan. Esta arquitectura es construida alrededor de las
integrándolo en la cultura de la organización. Por su personas y no de las tecnologías [13]. En esta arquitectura
naturaleza el conocimiento tácito es difícil de explicitar, de participación, juega un papel muy importante el
por lo general se logra a través de la conceptualización y concepto de intercreatividad, propiciando los mecanismos
en ultima instancia articulación en colaboración con otras necesarios para que toda la comunidad pueda aportar sus
personas, a través del dialogo en equipo en sesiones de conocimientos al producto desarrollado, de forma que la
preguntas y respuestas [11]. Web no solo permita encontrar cualquier información o
documento sino que permita crearlo fácilmente, permita
- Combinación (Explícito a Explícito): La combinación no solo interactuar con otras personas, sino crear y
de distintos cuerpos de conocimiento explícito: resolver problemas en conjunto [1].
documentos, conversaciones, reuniones, e-mail, por medio La idea de una arquitectura de participación se basa en el
de la educación o formación, a través de redes de principio de que las nuevas tecnologías potencian el
comunicación, se puede categorizar, confrontar y

451
intercambio y la colaboración entre los usuarios, marcadores sociales
reflejando el gran potencial colaborativo que esta tras el -Redifusión de
uso de las mismas. Construyéndose de esta forma, un contenidos(RSS, ATOM
espacio para compartir el conocimiento entre personas a /Google reader, bloglines,
través de redes de colaboración reciprocas. Por otro lado, netvibes, Oddpost )
esta arquitectura provee de innumerables herramientas e Interiorización Combinación (Explícito
instrumentos de cooperación que promueven la formación (Explícito Tácito ) Explícito)
de espacios abiertos a la colaboración y a la inteligencia
colectiva. Sobre la base de usar la Web como plataforma, -Podcasting (songbirdnest, -Búsquedas de Textos
aprovechando la inteligencia colectiva, el uso de los talkr, Odeo, Podomatic) -OPEN APIs, SOAP/REST
ambientes y tecnologías de colaboración tanto sincronas -Videocasting (YouTube, -Redes P2P.
(audio/video conferencia, mensajería instantánea, mundos dalealplay, sclipo, blinkx )
-Plataformas para el
virtuales) como asíncronas (wikis, blogs, plataformas de -Diapositivas online (Slidedesarrollo de Mashup.
microblogging, foros de discusión, sistemas de Share) -Filtrado colaborativo
podcastisng, videocasting, Redes sociales etc), apoyan la -E-learning (E-Learning-Herramientas de
creación de grupos de colaboración virtual que facilitan la Community 2.0) colaboración asíncrona
resolución de problemas en equipos, permitiendo la -Blogs, wikis, videoblogs, -Tags/folksonomias,
creación y compartición de conocimientos sobre un fotoblogs. marcadores sociales -
modelo de muchos a muchos [17].Que utiliza el Sindicación y agregación
ciberespacio como área de almacenamiento, etiquetado y de contenidos (RSS,
categorizado en forma colectiva, lo cual logra que la ATOM, JSON/ Google
información y las actividades sean altamente visibles, de reader, bloglines, netvibes,
fácil recuperación y acceso por parte de toda la Oddpost )
comunidad, proporcionando de esta forma beneficios Figura 2. Tecnologías Web 2.0 integradas a la
tanto individuales como grupales [5]. transformación del conocimiento. Fuente: Elaboración
propia tomando como base el modelo de creación
conversión de conocimiento de Nonaka y Takeuchi
4. TECNOLOGIAS WEB 2.0 [Nonaka y Takeuchi, 1999].
INTEGRADAS A LOS PROCESOS DE
CONVERSIÓN DEL CONOCIMIENTO El uso de las tecnologías en la Gestión del Conocimiento
Las tecnologías Web 2.0, caracterizadas por enfocarse en no es nuevo, el elemento innovador lo constituye la
el elemento humano como fuente de información y magnitud y escala de colaboración y participación en los
conocimientos, pueden ser utilizadas como herramientas procesos de captura, almacenamiento, clasificación,
de apoyo durante el desarrollo de las cuatro fases del validación y difusión, hechas posibles a través del soporte
modelo de creación y conversión de Nonaka, permitiendo de las tecnologías Web 2.0. Soluciones de colaboración y
la transferencia del conocimiento tácito de forma de distribución del conocimiento que permiten el
eficiente, su validación colectiva y consigo su desarrollo de conferencias en línea, sesiones en mundos
representación en forma explícita para su virtuales, foros de discusión, integración a blogs y wikis
almacenamiento, difusión y reutilización. Figura 2, para la validación de conocimientos, en donde toda la
muestra un resumen de relación de las tecnologías Web información necesaria para que cada empleado realice su
2.0 que pueden aplicarse para facilitar los procesos de trabajo se encuentra disponible en línea, fácilmente
conversión del conocimiento. localizable y reutilizable como resultado de la
clasificación y validación colectiva, basada en categorías
Socialización generada por los propios usuarios acorde a temas o áreas
Exteriorización (Tácito
de trabajo afines. En este sentido, es importante señalar
(Tácito-Tácito) Explícito) que los problemas de Gestión del Conocimiento no se
Herramientas de Redes P2P solucionan solo con el despliegue de una solución
colaboración -Herramientas de tecnológica. El mayor obstáculo, acorde con informe
sincronas(Chat, colaboración realizado por la consultora CapGemini [2], lo constituye
video/audio conferencias asíncrona(blogs, wikis, el cambio de cultura organizacional. El papel de
VoIP y pizarras videocasting, podcasting, las tecnologías es actuar como facilitadores para romper
compartidas) -Mundos foros de discusión) las barreras de tiempo y espacio y permitir que grandes
virtuales (Second life, -Plataformas para cantidades de conocimiento explícito puedan conservarse
Kaneva, OLIVE) microblogging. y estar disponibles en el momento preciso para los
-Tags, folksonomias, miembros de la organización e intercambiar información

452
entre sí, sin necesidad de reunirse cara a cara, lo cual sin empleado la posibilidad de ejercer la autoría,
la ayuda de herramientas tecnológicas sería inviable [9]. convirtiéndose tanto en autor como consumidor de
En este sentido, como elemento innovar las nuevas contenido, aprovechando de esta forma la inteligencia
tecnologías introducen cambios en la cultura colectiva para darle voz al empleado y favorecer de esta
comunicacional de la organización a través de plataformas forma la generación de ideas y desarrollo de propuestas
más abiertas y flexibles para el intercambio masivo de [4], con la posibilidad en caso de fallo de regresar a
información, lo cual funciona como elemento motivador versiones anteriores, ya que todas las versiones del
para la interacción personal, dinamizando la puesta a proyecto o trabajo quedan almacenadas en la plataforma,
disposición de conocimientos. convirtiéndose de esta forma en una memoria histórica de
En este contexto, el desarrollo de los procesos de la empresa [18]. Por su parte los blogs (Blogspirit,
conversión del conocimiento así como el modelo asociado Blogger, Wordpress, Blogalia, IBM Lotus Connection),
de los procesos inherentes de captura, validación, permite dotar a sus expertos de una herramienta para
clasificación,almacenamiento, difusión y transferencia difundir y acumular su conocimiento, haciéndolos visibles
(ver figura 3), son enfocados desde el punto de vista de a toda la organización y mejorando consigo la
las aportaciones que integran los mecanismos, cooperación. Estas herramientas permiten enlazar
aplicaciones y herramientas ofrecidos por las tecnologías documentos relacionados con proyectos o actividades,
Web 2.0, tal como se detallan a continuación: ofreciendo un registro de información importante
Tácito a Tácito ordenada cronológicamente, incluyendo documentos de
El intercambio de experiencias constituye la base para la los diferentes cambios o sucesos del desarrollo del
formación y distribución de conocimiento tácito. En este proyecto de trabajo, agregados por los miembros del
sentido, el ambiente creado por el software social en los grupo. Los cuales pueden seleccionar ser notificados de
espacios virtuales de la World Wide Web, facilitan el los cambios o actualizaciones agregadas al blog, sirviendo
establecimiento de relaciones de comunicación e de memoria de proyectos de trabajo, para ser utilizado en
intercambio de ideas, a través de conversaciones entre los el entrenamiento de nuevos miembros o como base para
miembros de grupos de colaboración, compartiendo proyectos relacionados [5].
experiencias, valores, emociones en torno a una situación Acorde con lo expresado anteriormente y considerando
o tema objeto de conversación. Las herramientas de que el proceso de socialización se realiza en reuniones
colaboración síncronas permiten el establecimiento de cara a cara entre los miembros de grupos, la combinación
espacios virtuales que facilitan el trabajo en grupo, la de wikis y blogs con tecnologías de colaboración
solución a problemas y la generación e intercambio de sincronas como: NetMeeting, audio/video conferencias
conocimientos, soportado sobre la realización de sobre protocolo VoIP (Skype, Google Talk, LiveMeeting,
reuniones en tiempo real, y el intercambio de TooMeeting Conference, WebEx etc.),soportados tanto
experiencias, documentos y material relevante para el sobre plataforma Web como en redes P2P, permiten el
trabajo, entre personas geográficamente distantes, desarrollo de actividades de formación, intercambio de
reduciendo de esta forma barreras geográfica y costos. Por experiencias, reuniones, las cuales apoyadas con
su parte, las herramientas de colaboración asíncrona, tales anotaciones en pizarras compartidas (Ej.:Doodleboard),
como: Wikis, blogs y foros de discusión, van servir de presentaciones de podcast y videocast, uso de mensajería
soporte para el establecimiento de diálogos y discusiones, instantánea (Gabbly,
sesiones de preguntas y respuestas entre los miembros de
la comunidad o grupo, que van a permitir consensuar,
validar, conceptualizar y clasificar el conocimiento
disponible producto de las transferencias de conocimiento
cara a cara en reuniones virtuales y a su vez servir de
repositorio compartido. En este orden de ideas, las Wikis
(MediaWiki, WikiSpace,Twiki, SocialText ,IBM Lotus
Quickr ), como herramientas colaborativas de groupware,
son consideradas tecnologías base para soluciones de
gestión del conocimiento, sirviendo de fuente y soporte
para la producción colectiva y permitiendo de esta forma
el almacenamiento de información y conocimiento útil
relacionado con experiencias, solución de problemas,
buenas prácticas e ideas inherentes al desarrollo
colaborativo de los procesos del negocio [15]. Este tipo
de herramientas permite romper las barreras tanto
personales como organizacionales, ofreciéndole a cada

453
Figura 3. Procesos de Gestión del conocimiento es consensuado y perfeccionado a través de diálogos,
inherentes a la Creación y Conversión del reflexiones y análisis; desarrollados a través de debates y
conocimiento en el espacio virtual. Fuente: discusiones, llevadas a cabo entre integrantes de grupos
Elaboración propia. de interés, haciendo uso de tecnologías de colaboración
asíncrona como: foros de discusión, blogs y wikis.
Geesee), permite la discusiones y distribución de Tecnologías que han cambiado el modelo de conversación
documentos en tiempo real entre miembros de grupos en la Web, añadiendo naturalidad e informalidad a la
colaborativos virtuales. En esta misma línea, dicho comunicación corporativa tanto oral como escrita,
intercambios de ideas y experiencias para la solución de permitiendo un intercambio de experiencias más abierto y
problemas y procesos de formación pueden ser por tanto una exteriorización más efectiva del
desarrollados de forma análoga con la creación de conocimiento individual [6]. El conocimiento explicito
comunidades en mundos virtuales como Second Life, capturado al ser clasificado en forma colectiva y asociado
Kaneva u OLIVE, en donde los empleados son para ello tags alusivos ala temática, se generan metadatos
representados por medio de avatares que interactúan para que facilitan la recuperación de los conocimientos
solucionar problemas relacionados con los procesos, disponibles en el repositorio compartido, producto de la
generación de nuevas ideas, desarrollo de proyectos etc., agrupación ó categorización de temas, opiniones o
permitiendo de una forma más eficiente la realización de resultados se, generan folksonomias asociadas con la
reuniones, incorporando la utilización de video información o conocimiento disponible y asociado a cada
conferencias y la mensajería instantánea, de forma participante, la cual se distribuye a través de enlaces en
simultánea, lo cual facilita la comunicación y transferencia cuentas compartidas por el grupo, en marcadores sociales
de conocimiento tácito, generando como resultado un o social bookmarking (Ej.: del.icio.us, stumleupon,
conocimiento contextuado el cual será validado o connotea, Blinklist etc.) o en forma selectiva a través de
confrontado a través de diálogos y discusiones entre canales de difusión (RSS, ATOM, JSOM), que a través de
miembros de comunidades o grupos agregadores rastrean las fuentes seleccionadas y recopilan
En un mismo contexto, los procesos de localización tanto las actualizaciones, de tal forma que todos los miembros
de especialistas por área de trabajo como de interesados del grupo cuenten con la información o conocimiento
en algún tópico o temas relacionados con el trabajo del manejado y almacenado en forma dinámica tanto en los
grupo, es apoyado sobre la estructura de enlaces y foros de discusión, blogs y wikis, relacionados con el
folksonomias asociadas al contenido del sitio. Estos tema en discusión. Todo esto conlleva al establecimiento
mecanismos permiten ordenar y categorizar los recursos y de relaciones más formales y rigurosas entre los
el conocimiento disponible, tal como es utilizado por los conceptos, conformando de esta forma un cuerpo de
miembros del grupo, asociándole a cada recurso una o conocimiento coherente y consistente en relación a los
varios tags que van a permitir clasificar y agrupar por tema o problema tratados, donde dicho cuerpo de
temas, permitiendo la identificación de la información que conocimiento además de estar almacenado en
cada grupo maneja y la asociada a cada participante. documentos(Google Docs, Google Spreadsheets, Zoho,
Mediante búsquedas simples basadas en la folksonomia de Edocr, etc.), puede estar complementado con archivos
tags, se identifican las etiquetas asociadas a cada perfil de videoscast, podcast o imágenes (fotos, graficas),
usuario y la cantidad y calidad de las contribuciones de almacenados directamente en el sitio Web o a través de
cada miembro de la comunidad. Por lo que los enlaces a plataformas de distribución, tales como:
colaboradores efectivos sobre un tema de interés son YouTube, Google Video for Business, Talkr, Odeo,
reconocidos por los propios miembros del grupo como Podomatic, Castpost, Slide Share, flickr, Picasa,
autoridades en el área utilizando como métrica los Panoramio, Redes P2P para localización y descarga de
comentarios positivos relacionados con sus aportaciones y archivos (Gnutella, BitTorrent, Napster, etc.), para su
la cantidad de enlaces ó referencias, mientras que los consulta y recuperación con miras a su aplicación en
gustos o intereses de cada usuario son identificados a situaciones o problemas similares, o tomados como base
través del contenido de las consultas realizadas. para generar nuevo conocimiento. En este mismo orden de
ideas, el uso del microblogging en el entorno empresarial,
a través del desarrollo de plataformas con funciones
similares a Twitter, para la comunicación corporativa
Tácito a Explícito interna, tales como: SocialText Signals, SocialCast,
A partir del conocimiento tácito producto de la CubeTree, Communote, ESME, Laconica, Ididwork,
verbalización y formalización de las ideas compartidas OraTweet de Oracle, Present.ly, Wordpress 2, Yammer,
entre las personas, como resultado de procesos de etc., con la incorporación de regulaciones y políticas de
socialización, se crean conceptos presentados en forma de integración orientadas al ámbito corporativo, tales como:
textos, formulas, algoritmos etc. El conocimiento explicito Búsqueda y análisis de la mensajería, control de acceso

454
multinivel por grupos para controlar el flujo de complejidad y facilitando la recuperación de todo tipo de
información sensible y su distribución a publico contenidos. En este mismo orden de ideas, el proceso de
especifico. Se convierte en otro mecanismo para la recuperación de información o de conocimiento, puede
validación de la información y conocimiento explicitado, requerir el desarrollo de mashup, que haciendo uso de las
con acceso tanto desde el escritorio como desde APIs abiertas, los feeds (RSS, ATOM) y servicios Webs
dispositivos móviles [8]. basados en SOAP ó REST, permitan la integración de
datos de diferentes fuentes y crear de esta forma una
Explícito a Explícito nueva fuente de datos que sirva de base para generar
Sin duda alguna la fase con mayor apoyo tecnológico es la nuevo conocimiento. En esta área existe una gran gama de
fase de combinación del conocimiento, ya que para su aplicaciones que van desde plataformas para el
desarrollo requiere de herramientas de búsqueda y ensamblaje de widgets, dirigidas a usuarios finales hasta
recuperación que permitan ubicar el conocimiento que aplicaciones de remezcla dirigida a profesionales de IT
servirá de base para generar nuevo conocimiento. Una de [7]. Entre estas plataformas de remezcla para generar
las características fundamentales de las tecnologías Web nuevo conocimiento se pueden utilizar: DreamFace
2.0, es la de complementar la capacidad de búsqueda de Mashup Kits, Intel Mash Maker,Presto de JackBe, Lotus
las aplicaciones Web con los sistemas de categorización, mashup, Mashery, Serena mashup Exchange.
en donde el usuario incorpora palabras que describen los Una vez recuperadas las fuentes de información o
datos. Los tags o etiquetas, reflejan la estructura y conocimientos, éstos pueden ser combinados o
relaciones de información que los empleados realmente relacionados, produciendo de esta forma conocimientos
utilizan, en vez de asimilar otro tipo de categorización novedosos e innovadores, expresados a través de nuevos
impuesta. Generándose de esta forma un nuevo sistema artículos, actualización o modificación de contenidos,
para la búsqueda y recuperación de los recursos. documentos, programas, imágenes, videos, audio, link
etc., en relación con un tema existente o con la creación
Adicionalmente, el uso de aplicaciones P2P tales como: de nuevos temas. La conversión del conocimiento logrado
Gnutella, BitTorrent, Napster, etc., permiten la a través de este proceso es muy importante ya que se
realización de búsquedas distribuidas de contenidos entre realiza una reutilización y conversión del conocimiento
todos los clientes que conforman la red, quienes a su vez existente, conectando distintos cuerpos de conocimiento,
son servidores con motores de búsqueda incorporados, de áreas o temas incluso distintos, o de encontrar nuevas
permitiendo búsquedas de forma más sofisticadas. Todo aplicaciones a algo ya conocido. Este nuevo conocimiento
lo anterior convierte los contenidos de cada usuario en es categorizado, confrontado y clasificado para formar
información visible, consultable y accesible en el tiempo, parte del repositorio compartido de conocimiento.
disponible a todos los miembros del grupo, permitiendo
que los conocimiento explícitos, producto de procesos de Explícito a Tácito
externalización, capturados y almacenados en repositorios El conocimiento explicito formalizado, creado a través de
de conocimiento compartidos como wikis y blogs, puedan los procesos de exteriorización y combinación, es
ser recuperados de forma eficiente, haciendo uso de almacenado y clasificado, generando folksonomias y
búsquedas basadas en folksonomias, tags y marcadores marcadores sociales, que colabora con su compresión y
sociales, en donde tomando en cuenta elecciones aplicabilidad, en base a un contexto, aunado al
anteriores del participante asociadas a su perfil o consultas descubrimiento de relaciones entre diferentes cuerpos de
realizadas por otros participantes, se ofrecen contenidos conocimientos y conceptos, facilitándose de esta forma el
personalizados (filtradocolaborativo), de tal forma que, aprendizaje y la difusión selectiva a través de los canales
siguiendo la estructura de enlaces se pueda llegar a la de redifusión o feeds (RSS, ATOM), evitando la
fuente de información, enlazando aplicaciones como: infoxicación generadas por el gran volumen y gran
oficina 2.0 (Zoho, Google Docs, Google Spreadsheets), variedad de fuentes, recibiéndose solo el contenido
plataformas de video( YouTube, Sclipo),plataformas para seleccionado. Por otro lado, al cuerpo de conocimientos
imágenes (Flikr, picasa o panoramio),podcast(Talkr), disponibles se puede acceder, utilizando para ello la
diapositiva (Slide Share), etc.Desde otro punto de vista, a estructura de enlaces ó a través de búsquedas textuales en
través de los mecanismos de suscripciones y el área, incrementándose de esta forma la capacidad de
notificaciones, utilizando las tecnologías de feeds tales acceder y descargar todo tipo de material relacionado
como RSS y ATOM, se permite la suscripción tanto con formación o capacitación sobre determinados
acontenidos de interés, de los cuales se recibe temas a través de archivos de audio, video ó
notificaciones de contenidos actualizados, ofreciéndose de presentaciones de diapositivas almacenados en
esta forma una difusión selectiva, lo cual permite filtrar la plataformas de distribución tales como: Talkr, YouTube,
enorme cantidad de datos, búsquedas y categorizaciones Slide Share, etc.,acceder a cursos de formación en línea
que se puedan generar a nivel corporativo, reduciendo la (E-Learning Community), consultar las experiencias

455
almacenadas en blogs y wikis producto de la ejecución de puedan formar a sus colegas integrantes del grupo en el
los proceso y discusiones realizadas, relacionadas con: uso y aplicación de las herramientas de forma más
técnicas aplicadas para resolver fallas en equipos, eficiente e informal.
experiencias de otros participantes ante problemas Integrar a los jefes de procesos a los grupos de
similares, manuales de operación de equipos, repositorio colaboración, para motivar a sus empleados a participar a
de proyectos anteriores, sugerencias de buenas practicas través de la práctica con el ejemplo, estableciendo las
para la realización de tareas, etc., con el propósito de ser herramientas Web 2.0 como soporte a la comunicación y
aprendidos por los integrantes del grupo e integrado a los permitiendo la creación de ambientes libres de
procesos del negocio, para la mejora o logro de la participación para la transferencia de información
eficiencia en el desarrollo del mismo, traduciéndose en asociada al desarrollo de los procesos.
disminución de errores y reducción de tiempo en la Integrar a la directiva a través de la comunicación por
ejecución de tareas. En el ámbito individual, cada persona parte de los jefes de proceso de los beneficios tanto
debe estudiar como el conjunto de conocimiento explicito personales como empresariales del uso de las tecnologías
colectivo y codificado, se relaciona con el cuerpo de Web 2.0 a través de los indicadores de medición presentes
conocimiento que ya posee; como integra el nuevo en el repositorio compartido de información y
conocimiento al que ya tiene. Desde el punto de vista conocimiento creado a través de la participación y
organizacional, implica que la empresa tiene que estudiar colaboración.
la manera como va a utilizar estos conocimientos nuevos
para que hagan parte de los procesos de negocios 6. CONCLUSIÓN
tradicionales y para que hagan parte de la cultura de la Las tecnologías Web 2.0 ofrecen una amplia gama de
organización, de sus saberes. La interiorización produce herramientas, mecanismos y aplicaciones que pueden ser
aprendizaje, lo cual es conocimiento integrado u utilizados para construir soluciones de Gestión del
operacional, pues está integrado a los demás saberes de conocimiento, como soporte a las fases de creación de
los individuos y de la organización. conocimiento organizacional mediante el modelo de
Nonaka, el cual divide los procesos de creación del
5. ESTRATEGIAS DE INTEGRACION conocimiento en cuatro categorías: Socialización (
En la búsqueda de una implantación exitosa enfocadas a la formación de conocimiento tácito y su comunicación),
comunicación interna de la organización como soporte al Externalización (formación de conocimiento explícito a
desarrollo de los procesos, se proponen las siguientes partir del conocimiento tácito),Combinación (uso del
estrategias que permitirán fomentar la creación de grupos conocimiento explícito), Internalización o aprendizaje
de colaboración efectiva en el espacio virtual, asociados al (creación de nuevo conocimiento tácito del conocimiento
desarrollo de las actividades del negocio: explícito). En este contexto, el valor de este modelo en el
Seleccionar procesos para la implementación en donde la contexto actual es que se focaliza en el conocimiento
comunicación tanto síncrona como asíncrona sea tácito y por tanto en las personas y en el uso que estas
fundamental para el funcionamiento del proceso. hacen de las tecnologías Web 2.0 para utilizar dicho
Establecer dominios de trabajo en base a proyectos, tareas conocimiento durante tres de las cuatro fases del modelo.
o actividades realizadas en común. Los cuatro procesos del modelo de Gestión de
Identificar las necesidades de información y conocimiento conocimiento de Nonaka son importantes. Su objetivo es
a compartir o transferir como parte del desarrollo de fomentar la creación de conocimiento organizacional,
tareas, actividades o proyectos ejecutados en forma apoyadas por el uso de las tecnologías Web 2.0. Entre los
colaborativa. aportes más significativos de la Web 2.0, para el
Implementar herramienta de soporte a la comunicación y desarrollo de los procesos de creación y conversión del
de trabajo colaborativo a través de la combinación de conocimiento, se encuentran las audio/video conferencias
wikis con la implementación de blogs, foros de discusión, sobre protocolo VoIP y los mundos virtuales,
mensajería instantánea, enlace a plataformas de incorporando chat y pizarras compartidas, permitiendo el
videocasting, podcasting, microblogging, mundos intercambio de mensajes y documentación de forma
virtuales y videoconferencias VoIP. simultánea, lo cual fomenta el uso de conocimiento tácito
Fomentar la creación de grupos de colaboración virtual, y favorece su captura. Por su parte, los mundos virtuales
acorde a los dominios de trabajo, iniciando con los ofrecen un nuevo modelo de comunicación que favorece
empleados más participativos, abiertos e influyentes, para la generación de ideas y solución a problemas, mediante
actuar como líderes de grupos que ayuden a difundir y simulaciones de situaciones propias del negocio e
fomentar el uso de las herramientas de colaboración en el interacción entre empleados geográficamente distantes,
grupo como soporte al trabajo diario. con una marcada reducción en cuanto a tiempo y costos
Capacitar a líderes como formadores de tal forma que de inversión necesarios.

456
Por otro lado, este nuevo modelo de comunicación Unfolding Saga of Blogs, Twitter, Friendfeed, and
corporativa, ofrece una forma no estructurada y menos Social Sites‖. [En línea:]
formal de comunicación, actuando como elemento http://web2.socialcomputingjournal.com
motivador para la interacción personal y eficaz para el [26] [Consultado 25 05 09]
intercambio de conocimiento explícito en la organización. [27] Hinchcliffe, D (2008b) ―Mashups turn into an
El uso de tags ó etiquetas creadas por cada usuario y la industry as offerings mature‖. [En
generación de folksonomias relacionadas con el área de línea:]http://blogs.zdnet.com/Hinchcliffe/?p=174
trabajo, para clasificar y categorizar la información en [Consultado 25 06 09]
forma colectiva, aunado a su publicación en marcadores [28] Hinchciffe, D. (2009). ―Twitter in your intranet: 17
sociales, ofrece una novedosa estrategia para la microblogging tools for business‖. [En línea
localización y recuperación de los recursos de en:]http://blogs.zdnet.com/Hinchcliffe/?p=414
conocimiento disponibles. La identificación de los tópicos [Consultado 05 07 09]
de consulta o referencias realizadas por cada grupo, [29] Joyanes, L., et al.(2002) ―Un paso hacia los modelos
ofreciendo una nueva forma para la localización de de Gestión del conocimiento desde un enfoque de
expertos, así como de personas interesadas por procesos‖, Libro de Actas de CISIC 2002 (I
discusiones sobre un área específica, apoyándose en los Congreso Internacional de Sociedad de la
temas consultados, la cantidad y calidad de las Información), McGraw-Hill, Madrid, pp. 235-242.
aportaciones realizadas y en la cantidad de referencias o [30] Lévy, Pierre. (2003). ―Le futur Web
link al mismo. En este mismo contexto, el conocimiento exprimeral‘intelligence collective de l‘humanité‖.
almacenado en el repositorio compartido se hace fácil de Journal duNet.[En línea
comprender gracias a los metadatos generados en forma en:]http://www.journaldunet.com/itws/it_plevy.shtml
colectiva, que añaden valor al contenido, ofreciendo [Consultado 10 03 09]
ventajas para un aprendizaje efectivo. Por su parte la fácil [31] Marwick, A.(2001), ―Knowledge Management
compresión del contenido asociado a cada recurso technology‖, IBM Systems Journal, Vol. 40, Nº. 4.
disponible, favorece la asociación entre diferentes cuerpos 2001.
de conocimiento y por ende la generación de nuevo [32] Nonaka I. y Takeuchi H. (1999) La organización
conocimiento. creadora del conocimiento, Editorial Oxford Press,
México DF.
7. REFERENCIAS [33] O‘Reilly, T. (2005). ―Qué es web 2.0: patrones del
[20] Berners-Lee, T. (2000). Tejiendo la red. El inventor diseño y modelos de negocio para la siguiente
del World Wide Web nos descubre su origen. Siglo generación del software‖. Traducción Equipo de
XXI. Madrid. (online) Boletín Sociedad de la Información de Telefónica.
http://news.bbc.co.uk/1/hi/technology/ 4132752.stm [En
[Consultado 10 03 09] línea]:http://sociedaddelainformacion.telefonica.es/js
[21] CapGemini (2004). ‖Estudio sobre la Gestión del p/articulos/detalle.jsp?elem=2146 [Consultado 21 06
Conocimiento y Competitividad en España‖. Informe 09].
elaborado por la consultora CapGemini en [34] Polanyi, M.(1996).‖The Tacit Dimension‖. Editorial
colaboración con IESE. (online) Routleged & Kegan Paul.
http://www.es.capgemini.com/recursos/news/el_67_p [35] Rangaswami, M. R. (2006). ―The birth of Enterprise
or_ciento_de_las_empresas_espaolas_realizan_proye 2.0‖.[En línea en:]
ctos_de_gestin_del_conocimiento [Consultado 26 06 http://sandhill.com/opinion/editorial.php?id=98 [
09] Consultado 08 06 09]
[22] Davenport, T. Y L. Prusak.(2000), ―Working [36] Sanguino, R. (2003). ―La Gestión del conocimiento.
Knowledge: How Organizations Manage What they Su importancia como recurso estratégico para la
Know‖, Boston, MA: Harvard Business School Press. organización‖, [en línea en:]
[23] Gaudin, S. (2007). Rivals face off in Enterprise 2.0 http://www.5campus.org/leccion/km [Consultado 22
debate. [En línea en:] 06 09]
http://www.informationweek.com/news/showArticle.j [37] Wagner, C. and Bolloju, N. (2005). Supporting
html?articleID=199905148 [Consultado 15 06 09] knowledge management in organisations with
[24] Grudin, J. (2006) ―Enterprise Knowledge conversational technologies: Discussion
Management and Emerging Technologies‖. forums,Weblogs, and Wikis, Editorial preface‖,
Proceedings of the 39th Hawaii International Journal of Database Management, vol.16, no.2, pp. 1.
Conference on System Sciences. [38] West, J., and West, M (2009).Using Wikis for online
[25] Hinchcliffe, D (2008a) ―Endless Conversation: The Collaboration.First Edition. Editorial Jossey-Bass,
San Francisco. USA.

457
458
459

You might also like