Professional Documents
Culture Documents
V SIMPOSIO INTERNACIONAL de
SISTEMAS DE INFORMACIÓN E INGENIERÍA DE SOFTWARE EN LA SOCIEDAD DEL CONOCIMIENTO
ii
Contenido
Parte I:
Tecnologías Informáticas y Gestión del Conocimiento en la Educación:
Congruencia Epistémica y Pertinencia Social. ........................................... 15
Currículo coherence model knowledge based a case for industrial
engineering. ................................................................................................. 37
La inteligencia emocional y la neurociencia elementos fundamentales de la
construcción integral del ciudadano. .......................................................... 49
Marco Normativo de Investigación Científica, Tics Desarrollo
Tecnológico y Procesos de Innovación, I+D+I en Colombia ................ 61
Prototipo metamodelo de integración de modelos de procesos de negocio.
..................................................................................................................... 75
Algoritmos Matemáticos para fusión de imágenes satelitales. ................... 93
Sistema Integrado de Información para el Régimen Subsidiado de Salud
en Colombia .............................................................................................. 105
Producto software para simular líneas de espera ...................................... 117
Diseño y Desarrollo de una Aplicación de Generación Automática de
Componentes Bajo la Especificación SCA............................................... 123
Metaproceso para el desarrollo de Software ............................................. 135
Análisis, Diseño y Desarrollo de un sistema de identificación dactilar
basado en Redes Neuronales Artificiales ................................................. 149
Educación Virtual: Entornos Colaborativos Interinstitucionales ............. 163
Complejidad de información en fuentes de datos RSS, un nuevo enfoque:
RSS2SOM ................................................................................................. 173
Tecnologías de información y terminología asociadas al área de desastres.
................................................................................................................... 181
Servicios de Geolocalización, el enfoque de las Redes Sociales ............. 191
Modelo de Gestión del Conocimiento en Docencia Universitaria: Caso
Universidad Distrital ................................................................................. 201
Evolución de los códigos de barras a redes wireless NGN ― RFID‖,
computación ágil, inteligente y móvil....................................................... 213
Cloud Computing en redes sociales de telefonía móvil ¿En dónde está el
límite entre las relaciones sociales tradicionales y virtuales? .................. 219
Ontología de la composición geométrica 3D para la web con el estándar
X3D. .......................................................................................................... 231
Implementación de Plataformas Virtuales basadas en Cloud Computing
................................................................................................................... 247
Cálculo del Esfuerzo en el Desarrollo de Proyectos Software a Partir de
Puntos de Función ..................................................................................... 257
Descripción del software para la configuración de un tranceiver. ........... 271
Conocimiento para toso: La inclusión social hacia la competitividad
educativa mediante un modelo de gobernabilidad basado en conocimientos
para la educación superior en Colombia por ciclos propedeuticos .......... 281
Modelo de Inteligencia de Negocio utilizando Datos Textuales No
Estructurados ............................................................................................. 303
PARTE II
v
PRESIDENTE DEL COMITÉ DEL PROGRAMA:
DIRECTOR GENERAL:
Dr. Victor-Hugo Medina García (Universidad Distrital Francisco José de Caldas, Bogotá, Colombia)
9
universitaria e investigadora. En concreto, la Pontificia Universidad
Católica de Perú, el Instituto Tecnológico de Las Américas (ITLA) y la
histórica Universidad de Cartagena en el Caribe colombiano. Al
camino de Sisoft se han ido uniendo otras instituciones europeas como
el prestigioso Barcelona Supercomputing Center (BSC) o Centro de
Supercomputación de Barcelona y en esta edición el Instituto de
investigación en Documentación “Agustin Millares” de la joven pero
ya muy prestigiosa a nivel internacional Universidad Carlos III de
Madrid, la Fundación de I+D de Software Libre de España, un
referente en la investigación y desarrollo de código abierto o software
libre y el Centro Iberoamericano de Ciencia, Tecnología y Sociedad
que con sede en la Facultad de Filosofía de la Universidad
Complutense de Madrid es un foco difusor de la cultura en América
Latina, Caribe, Brasil, España y Portugal. Así mismo es de destacar la
labor en el campo investigador de los Grupos de Investigación GISSIC
de la Universidad Pontificia de Salamanca y GICOGE de la
Universidad Distrital de Bogotá.
La edición de este año ha regresado a su sede inicial en Bogotá y
se ha configurado en dos grandes ejes: la emergente tecnología y
plataforma Computación en Nube (Cloud Computing) base de la nueva
informática que se está configurando para la actual década, y la
Supercomputación, ya una realidad palpable en la industria, la ciencia
y la sociedad. Dentro del Simposio Sisoft se inaugurará el Centro de
Computación de Alto Desempeño de la Universidad Distrital de
Bogotá. En el Simposio se analizarán y estudiarán los avances y
desarrollos en las tecnologías punteras hoy día: Web 2.0, Web
Semántica, Bioingeniería, Sistemas geoespaciales, Inteligencia de
Negocios, Gestión del Conocimiento 2.0, Social Media y otras áreas de
investigación en las que se conforma la nueva computación o
informática.
Sisoft se configura desde esta edición como un Centro de Ideas y
de Pensamiento en torno a la Sociedad del Conocimiento tanto desde el
punto de vista tecnológico como en los aspectos sociales, económicos y
de negocios que impactaran en la vida futura y en la forma de trabajar,
investigar y vivir. Nos preparamos para cumplir el 10º aniversario el
próximo año con un edición especial que pretende tener impacto en
todos los países de habla española y portuguesa, pero que pretende
extenderse a otros países de influencia latina como Italia, Portugal y
10
Grecia, y en la medida que nos sea posible actuar de puente con la
cultura tecnológica del resto de Europa y Gran Bretaña, además de
países iberoamericanos.
Confiamos que las aportaciones y conclusiones de esta edición de
Sisoft sean de gran interés para la comunidad universitaria y científica,
y nos sirva de puente para el VI Sisoft al que os convocamos desde este
momento y que celebraremos en el año 2011 coincidiendo con la
celebración de nuestro X Aniversario.
Gracias a los comités de programa, de organización y todos
cuantos han contribuido de una u otra forma al éxito del evento, y de
modo especial a conferenciantes y ponentes que con sus conferencias,
mesas redonda (paneles) y comunicaciones han hecho posible que este
libro de actas sea una realidad como reflejo del desarrollo del
Simposio en la ciudad de Bogotá.
11
PARTE I
Web 2.0
Sistema de Información y Comunicaciones.
Innovación tecnológica.
Inteligencia de negocios
Gestión del Conocimiento 2.0
Cloud Computing.
Sistema Geoposicionales.
13
14
Tecnologías Informáticas y Gestión del Conocimiento
en la Educación: Congruencia Epistémica y Pertinencia
Social.
15
revalued categorically epistemological perspectives, reflective,
conceptual and even semantics. Reading takes place on the Knowledge
Management deals with paradigmatic elements that allow a clear
delimitation of this administrative and managerial discourse, just inside
the crib: organization. This indicates that not necessarily be highly
effective in this context could be applied uncritically in the educational
scene.
1 Introducción
16
especialistas informáticos. Esto es: el ser humano, el estudiante, entendido como otro
recurso, otro activo más de la organización.
De esta manera se orienta en los albores del siglo XXI, una lectura instrumental de
la esfera educativa, en donde el fin último de esta se lapidaría en lograr una
intersección ideológica, estructural y funcional; con la dimensión productiva,
comercial y mercantil y la supuesta revolución informática que hoy determina su
esencia. Es en este punto en donde resulta osada y pretenciosa la visión tecnocrática
de la educación.
Con lo hasta ahora expuesto surge el objetivo del presente artículo. Cuando se
equiparan y se pretenden transponer acríticamente, los condicionados y
parcializadamente definidos métodos y estrategias de producción de capital; sobre las
indeterminadas e ilimitadas visiones propias del desarrollo del conocimiento
académico, subyace una grave crisis. Crisis de deshumanización de la educación.
Crisis de una academia a riesgo de sucumbir ante el adiestramiento y la capacitación
empresarial.
No se pretende con lo anterior elaborar un análisis destructivo acerca del
protagonismo global de la presunta revolución informática, representada mediante la
lógica organizacional de las TICs y su incursión en la educación, entre otros
escenarios. Se busca más bien, someter a cuestión profunda los supuestos que guían
discursos aún en estado de gestación como el de la ―gestión del conocimiento en la
educación‖ y las ―tecnologías informáticas implementadas en la educación‖ mediante
aplicaciones como los (A.V.A) .
Se pretende mediante este artículo analizar detenidamente algunos de los
argumentos, hasta ahora inescrutables, que han institucionalizado, con el beneplácito
de la comunidad académica, la articulación de las TICs, y de prácticas empresariales,
como la (G.C), en el ámbito educativo. Esto indicando que su validez en la escena
organizacional e industrial global, no necesariamente conlleva un acierto ni una
revolución en el ámbito educativo.
17
científica‖ fue una teoría que contribuyó significativamente al desarrollo de las teorías
organizacionales; formalizó el pensamiento administrativo, le dio rigor metodológico
y en su momento histórico aportó criterios, conceptos y métodos para el desarrollo de
la sociedad industrial [2]. Cuando se llevó al sistema educativo y a las prácticas
pedagógicas, el fracaso fue ostensible; la lógica del quehacer académico no podía ser
pensada con elementos y métodos propios de la lógica de la industrialización. Al
respecto causa bastante desconcierto o mejor no es pertinente pensar que, la
estandarización de procesos, los tiempos y movimientos, la eficiencia y optimización
de costos, sean los principales criterios en el aprendizaje y la educación, no obstante,
demostraron validez en la industrialización. A continuación se presentan algunos
aspectos inherentes a la G.C y se destaca cómo cada uno de ellos tiene pertinencia en
lo organizacional, pero puede no tenerla en la educación.
18
e interrelacionadas. Podría estarse o no de acuerdo, pero debe reconocerse que es un
planteamiento que puede aportar al rol educativo; en el caso empresarial ha
demostrado su validez y contribuido a crear una idea de lo que son y deben ser las
organizaciones en el mundo contemporáneo. Cuando el desarrollo social requiere,
más que saberes especializados y campos de la ciencia inconexos,
interdisciplinariedad y transdisciplinariedad para la solución creativa, innovadora,
participativa e incluyente de los problemas; no tiene sentido y se caería en el
dogmatismo, abordar una posición ―purista‖ y decir que desde la pedagogía pensar el
conocimiento en función de hacer mejoras a las empresas a través de elaboraciones
colectivas, es un desenfoque y deshumanización del hacer pedagógico. Los teóricos
mas humanizantes de la educación afirmarían que es un envilecer, empobrecimiento e
idea precaria del conocimiento.
A pesar de las anteriores consideraciones y aceptando que la educación debe prestar
atención a las contribuciones que le podría dar la G.C para enriquecer su propio
discurso, es evidente que ésta no es la idea de conocimiento en el aprendizaje.
Obviamente en la teoría pedagógica y dados sus distintos y en algunos casos
antagónicos modelos, no hay una definición única, consensuada y aceptada de
conocimiento y cuál es su relación o su participación en el proceso de aprendizaje.
Podría establecerse como algo generalizado que el conocimiento es para la formación
del que aprende (y aún del que enseña) y está orientado al sujeto. Véanse algunos
casos que sustentan lo anterior.
En el aprendizaje significativo de la propuesta constructivista, se construye
conocimiento en tanto cada estudiante articula el saber de la escuela con sus saberes
previos y esto le permite enriquecer, comprender y aun reconstruir sus propias
vivencias. Así, el conocimiento es una construcción permanente de cada individuo
para su propio crecimiento [6]. Debe destacarse que aquí lo principal es que
individualmente la persona de acuerdo con sus intereses, sus pre-saberes y sus
posibilidades cognitivas, desarrolle y crezca en su conocimiento; con estos criterios
los resultados no pueden ser iguales para el grupo. En las estrategias evaluativas del
proceso de aprendizaje no tiene pertinencia establecer logros, competencias u
objetivos que todo el grupo debe conseguir. Cada estudiante es un ser único e
irrepetible y se le evalúa el proceso según su propio desarrollo.
En el caso de la escuela nueva o activismo, el estudiante convierte la experiencia y
el contacto directo con los objetos en conocimiento. La función principal de la
escuela, más que el aprendizaje, es la misma vida real y objetiva, preparar al
estudiante para esa vida. En el futuro el hombre hará parte del mundo real; por ahora
el niño debe tener un micro mundo dónde capacitarse experiencialmente y estar
preparado para ese futuro. Ese micro mundo es la escuela y sus procesos de
aprendizaje [7].
Para la pedagogía tradicional, aquella de la ―letra con sangre entra‖ y centrada en la
transmisión, el conocimiento está constituido por un conjunto de saberes específicos
y valoraciones aceptadas socialmente. Está definido oficialmente el conjunto de
conocimientos que los ciudadanos deben aprender; la función de la escuela es
transmitirlos e imprimirlos en los cerebros de los estudiantes. El objetivo es que al
final del proceso sean ciudadanos ―educados‖ con valores y saberes iguales a los del
resto de la sociedad [8].
19
Puede observarse que a pesar de las diferencias entre las teorías pedagógicas
mencionadas, existen elementos comunes: la pedagogía estudia a la educación y en
ésta se dan procesos de aprendizaje para formar al estudiante. Es el conocimiento que
tendrá el ser humano el objetivo de la educación. Frente a esto se pueden dar varios
enfoques; algunos se diferenciarán por su posición frente al proceso mental y
cognitivo que implica conocer, la psicología del aprendizaje; otros por sus estrategias
metodológicas y didácticas; otros por la postura política e ideológica con la cual se
concibe el rol de la educación en la sociedad. No obstante, el marco de referencia es
el mismo: la formación del estudiante. Se puede inferir una generalización; en las
teorías pedagógicas y por tanto en la educación, el conocimiento es el objetivo en sí y
debe, a través de procesos de aprendizaje, estar en la mente del estudiante. Es esa la
razón de la educación.
En consecuencia y sin pretender ser descalificativo, queda establecido que el
concepto de conocimiento inherente a lo educativo tiene una racionalidad,
contextualización y propósito notoriamente diferente a la idea de conocimiento
organizacional que está en la base conceptual de la G.C; surge aquí el primer
elemento a destacar en la idea de la presentación de este artículo. La posibilidad
hipotética de modelos de G.C para el ambiente educativo, conlleva al siguiente
imperativo: reconceptualizar la idea de conocimiento que subyace actualmente a dicha
teoría.
Debe destacarse que se diferencia pedagogía, educación y en general el ámbito del
aprendizaje, de entidad educativa; esta última es una organización y el estudio que
debe hacerse para aplicar en ella un modelo G.C debe tener un enfoque y base teórica
distinta al que se emplea en este análisis. Las universidades o colegios en tanto
organizaciones que son, se gestionan, deben planearse empresarialmente, tienen áreas
administrativas, deben optimizar sus recursos, llevar registros financieros, hacer
mercadeo. Este quehacer debe estar articulado con la docencia y la investigación. Pero
el conocimiento que se genera o sobre el cual se trabaja en estas últimas y que es su
razón de ser, es distinto al conocimiento organizacional del área administrativa, el
cual a su vez puede entenderse cabalmente como afín al que se gestiona en los
modelos de G.C.
20
parte de las posibilidades de este artículo siquiera hacer una mínima relación de
dichas teorías o posturas frente a una teoría de la ciencia; se busca establecer los
lineamientos generales señalados al iniciar el numeral.
Se dice que el conocimiento es científico si ha sido elaborado a través del método
científico [9]. El método (acerca del cual existen distintos criterios) se caracteriza en
general por la rigurosidad en la comprobación del saber que se está creando. Por
ejemplo formulando hipótesis y validándolas en un proceso racional, coherente y
sólidamente sustentado en una teoría y comprobado mediante ―praxis‖ a las que el
mismo saber científico ha dotado de rigurosidad. El resultado es conocimiento
pertinente ya no en una situación específica sino con un grado mayor de generalidad,
se crea una teoría. De lo anterior se destacan algunos aspectos: el conocimiento
científico es el resultado de procesos más complejos y rigurosos, tanto en la teoría
como en la práctica, que el proceso asociado a la G.C. En este último, pueden darse
casos en donde saberes obtenidos a través de la intuición o lo sensible, llevan a
exitosas prácticas de las empresas y deben convertirse en ventajas estratégicas y
capital intelectual.
Por ejemplo en el área de ventas cierto vendedor, a través de su experiencia, ha
encontrado la forma de crear ambientes de diálogo especialmente atractivos para los
clientes y su práctica lo ha convertido en el funcionario del área con mejores
resultados en los indicadores de gestión. Se da aquí un caso en el cual la organización
aspirará a que el conocimiento no se quede en la mente de un único funcionario sino
sea una práctica de común uso en la empresa; son las condiciones típicas a partir de
las cuales se aplican modelos de G.C. No interesa si tiene validez para generar una
teoría o si se le han practicado rigurosos métodos de comprobación, lo importante es
que se trata de conocimiento que empresarialmente está demostrando utilidad y se
convierte en capital intelectual.
No es entonces comparable el método de investigación científica con los modelos
de G.C. El objetivo de la ciencia es el conocimiento en sí mismo, crear conocimiento;
con esta premisa se da alto valor a la antropología del hombre como saber; razón
importante y vital de lo humano: el conocimiento [10]. En la tradición filosófica
griega puede plantearse en los siguientes términos: el principal desafío cognitivo del
ser humano es conocerse como ser, conocer el mundo que lo rodea y conocer para qué
el ser humano en el mundo.
En los aportes que históricamente se han hecho a la teoría de la ciencia han
aparecido diversos enfoques para hacer clasificaciones de la misma. En algunos se ha
hecho énfasis en separar el saber conceptual y el saber instrumental o que también se
conoce como el saber qué y el saber cómo. Es decir que en algunos campos el énfasis
es conocer el concepto, la teoría; mientras en otros, lo importante de conocer es
aplicar los métodos que surgen a partir de ese conocimiento [11].
En la teoría de la G.C hay una fuerte tendencia a pensar que el conocimiento
relevante para una empresa es aquel que conduce a las buenas prácticas; algo así como
entender que el conocimiento es información en acción, es tener habilidades [12].
Aunque en el conocimiento científico se presentan tendencias dadas a enfatizar en lo
aplicativo, en general para la ciencia el interés principal es la creación de nuevo
conocimiento, de nuevas teorías. En el conocimiento organizacional se pretende que
la empresa cuente con procesos, experiencias, habilidades, que le permitan mayor
21
calidad, imagen y rentabilidad.
Para ilustrar la diferencia entre conocimiento científico y organizacional se
menciona un ejemplo. Algunos ingenieros han pensado que la G.C es aplicable no
sólo en empresas sino en otros ámbitos, el caso es en la educación; citan como
ejemplo de aplicación el caso de un profesor universitario de reconocido prestigio y
trayectoria por sus habilidades pedagógico-didácticas. El profesor se encuentra
próximo a jubilarse y la Universidad no puede admitir que se vaya sin previamente
haber compartido con los profesores jóvenes su exitosa experiencia y hacer de ella
una práctica común. Según los ingenieros este es un caso en el cual sería totalmente
pertinente la aplicación de la G.C en la educación [13].
Esta es una descontextualización; el conocimiento del cual se está hablando no es
solamente una buena práctica organizacional que debe convertirse en conocimiento de
la empresa y el método ideal para ello es la G.C. Se está hablando de conocimiento
pedagógico, de conocimiento científico y el proceder para que sea socializado,
compartido y reconocido debe ser a través de los métodos de la investigación
científica.
La práctica exitosa del profesor próximo a jubilarse debe convertirse o estar
articulada en una teoría y comprobada y validada a través de los métodos científicos
de la pedagogía. A menos que ―en casa de herrero azadón de palo‖ y la Universidad
del ejemplo opte porque los procesos de enseñanza-aprendizaje no estén sustentados
en una teoría pedagógica y a cambio las prácticas educativas sean resultado de haber
compartido mediante sistemas de G.C, experiencias exitosas de casos particulares.
Con las tendencias mundiales y las exigencias de calidad y pertinencia que la sociedad
está haciendo al sistema educativo, tal hecho tendría poca presentación en los
procesos de acreditación tan comunes hoy día en la educación.
El ejemplo ubica la idea central del artículo, pero podría no ser de amplia
aceptación dado el relativo y escaso reconocimiento de la pedagogía como ciencia.
Para algunas personas seguramente lo importante de la profesión docente no es su
formación científica, es su praxis en la enseñanza y ésta bien puede ser el resultado de
compartir experiencias exitosas.
Para ilustrar con mayor claridad, se da el ejemplo en un área que, como científica,
tiene mayor reconocimiento y trayectoria: las ciencias de la salud. Siguiendo la idea
de los ingenieros, la hipotética situación podría ser la siguiente: en un hospital un
médico cardiólogo es reconocido por sus incontables éxitos en tratamientos con
pacientes. Al hospital como empresa no le interesa la fundamentación científica del
conocimiento del médico, le interesa que hay un prestigio reconocido, pero
desafortunadamente es conocimiento de un empleado. Interesado el hospital en que el
saber no sea individual decide utilizar un modelo de G.C para hacer de la práctica de
dicho médico, el conocimiento y la práctica colectiva de los cardiólogos de la
institución. Quizá funcione, pero quizá no y aquí se estaría no sólo ante cierto fracaso
de la práctica organizacional conocida como G.C; se estaría ante la pérdida de vidas
humanas. Cualquier persona vinculada a las ciencias de la salud entenderá que ante tal
situación (un éxito individual convertirlo en conocimiento colectivo) lo aplicable es
utilizar los métodos de investigación científica de dichas ciencias.
Como un comentario un poco aparte, pero que ilustra la posibilidad de que el caso
anterior sea real, recuérdese la situación de las empresas de salud en Colombia (EPS)
22
Los médicos, desde su óptica de las ciencias de la salud, quisieran poder establecer su
relación con los pacientes según su formación científica: calidad en tiempo y
consultas, exámenes de laboratorio, remisión a especialistas y todo lo necesario para
su objetivo: la calidad de vida y salud del paciente. Las EPS desde su óptica gerencial,
de optimización de recursos y rentabilidad, establecen normas para las consultas:
tiempo máximo, 15 minutos; remitir a especialistas únicamente en casos
completamente extremos; ordenar menor número de exámenes de laboratorio,
preferiblemente ninguno; formulaciones de medicamentos teniendo como criterio
principal el costo mínimo. Y las normas no se quedan en escritos. A los profesionales
que mejor las cumplan se les dan bonificaciones, viajes y toda clase de incentivos.
Quienes no cumplan (y se manejan límites) no siguen siendo contratados [14].
En resumen, no es lo mismo, ni atienden a la misma racionalidad; el conocimiento
científico y el organizacional, corresponden a enfoques, metodologías,
fundamentaciones teóricas e intereses divergentes ¿Podrían o deberían buscarse
convergencias? En apariencia desde la G.C no; en los planteamientos teóricos
subyacentes a dichos modelos se hace referencia tangencial a la teoría del
conocimiento pero se hace explícito que allí no es relevante el qué del conocimiento,
sino la posibilidad de utilizar procesos y tecnologías para convertirlo en capital
intelectual.
23
a ello se han desarrollado teorías más específicas: Gestión financiera, Gestión de
Recursos Humanos, Gestión de la producción y ahora Gestión del Conocimiento. Lo
común es que hacen parte de la gestión en términos organizacionales y dan especial
énfasis a la optimización y eficiencia en el manejo del recurso que les corresponde.
Como el término se ha venido generalizando y aplicando en diversas esferas se han
presentado discusiones acerca de la conveniencia y pertinencia de utilizarlo en ciertos
campos. Por ejemplo se ha hablado de gestión cultural; quienes entienden la idea de
cultura en dimensiones que trascienden lo organizacional han evidenciado lo
inadecuado de la idea; ¿Se puede gestionar la creación artística? Es obvio que no. Se
ha llegado entonces al consenso, el concepto no hace referencia a los procesos de
creación cultural sino al manejo de los recursos de las organizaciones que se dedican a
la cultura y el logro de sus objetivos.
Especialmente polémico y sensible ha sido el término gestión del Recurso Humano.
En la teoría organizacional clásica fue normal ver a los trabajadores como uno más de
los recursos de la empresa; equiparable, en cuanto a la necesidad de ser gestionados,
con las finanzas o la maquinaria. En la evolución de dicha teoría se ha ido pasando de
la metáfora de la empresa como una máquina, a la metáfora de la empresa como
cultura o aún como organismo vivo [16]. En consecuencia se ha ido diluyendo la idea
de entender al ser humano como recurso que se debe gestionar; desde la ciencia
humana es un despropósito. La idea se ha ―suavizado‖ y se habla por ejemplo de
gestión del talento humano; no se gestiona la persona sino las capacidades que le
aporta a la organización.
Estos antecedentes para establecer que polemizar acerca de la pertinencia de
utilizar el término gestión, según el contexto, no es algo nuevo. Dependiendo del área
del conocimiento en el cual se esté utilizando cierto término, adquiere rigor
paradigmático. Evidentemente no es similar el concepto de hombre en ciencias
humanas al que se tiene en ciencias administrativas. En el caso de ―gestión‖ del
conocimiento es significativamente cuestionable.
No está en la intencionalidad de este artículo cuestionar la validez de gestionar el
conocimiento y la conceptualización y práctica que ha implicado para los modelo de
G.C organizacional. Si en esta teoría se admite que el conocimiento es un recurso y
que su importancia radica en el hecho de generar riqueza y capital intelectual, parece
válida la idea.
En lo educativo es más cuestionable. Si la educación es la formación del estudiante
y se realiza mediante procesos pedagógico-didácticos en los cuales el conocimiento es
parte vital tanto de la formación como del proceso, no es aplicable la idea de
―gestionar‖ el conocimiento. Aquí no es un recurso; su complejidad, su rigurosidad
conceptual y metodológica, su condición humana, no pueden ser sobre simplificadas
al nivel de elemento que se gestiona, se mide, se optimiza, se transfiere y se convierte
en capital. Antes de hablarse de G.C se hablaba de gestión educativa; anteriormente se
hizo referencia al tema, en este caso no se trata de gestionar el conocimiento en los
procesos de enseñanza y/o aprendizaje. Se aplica para gestionar la entidad educativa.
Tampoco tiene validez hablar de ―gestión‖ del conocimiento en la ciencia; la
epistemología a lo largo de siglos ha propuesto y crecido en elaboraciones milenarias
acerca de métodos para la investigación científica y por tanto elaboración del
conocimiento. Como en el caso de la educación, también se habla de gestión,
24
particularmente gestión de la investigación. Esta hace referencia a los aspectos
administrativos y financieros de apoyo a los proyectos de investigación o a la creación
de condiciones organizativas (grupos, semilleros) para favorecer la realización de
actividades investigativas. Lo que no es congruente es incluir el tipo de racionalidad
de la gerencia y la gestión en los métodos ya propios del quehacer investigativo.
25
caso del constructivismo el rol de la información es pasivo, importa más la
significación que el estudiante haga en su propia vivencia, esto permite construir
conocimiento. Para la escuela nueva el conocimiento es acción y experiencia, contacto
directo con la realidad.
No es posible, con las limitaciones del artículo, analizar exhaustivamente las
distintas posturas que en la teoría pedagógica existen acerca del rol de la información
como fuente de conocimiento, pero especialmente ahora que se pretende superar la
crisis y precariedad que el transmisionismo causó a la idea de conocimiento en la
educación, no es aceptable que los datos y la información sean el principal
componente del conocimiento en la práctica educativa. No se puede mencionar un
solo factor (dada la diversidad de teorías), pero se reconocen con mayor importancia
que lo informacional en el conocimiento educativo: la estructura mental cognitiva y
que evoluciona con la edad según la teoría de Piaget [19]; el proceso de estímulo –
respuesta – refuerzo, del conductismo ; la idea del aprendizaje significativo en
Ausubel [20]; la zona de desarrollo próximo ideada por Vigotski.
Se destaca que desde otras áreas e incluso desde el planteamiento organizacional,
surgen crecientes cuestionamientos acerca del rol tan protagónico de la información
en el conocimiento y aún en la sociedad. Se está empleando el término infocentrismo
[21] para hacer referencia al sobredimensionamiento, el cual ha permitido concluir
equivocadamente que si lo fundamental es la información, pues las tecnologías que
permiten su manejo más eficiente deben ser los factores de primer orden en el
conocimiento y ¿por qué no? en la educación.
Conviene trazar una clara distinción entre lo que se entiende por tecnologías
educativas y el tema a tratar: tecnologías de la información y las comunicaciones
aplicadas a la educación. Si bien a simple vista podrían verse como fenómenos
estrechamente ligados, para efectos de una comprensión rigurosa, se hace necesario
diferenciarlos claramente.
Las tecnologías educativas se entienden como el inventario de aplicaciones
prácticas que a lo largo de la historia, desde Comenio o los sofistas griegos, se han
implementado en el ámbito de la educación, tomando como referente los hallazgos de
las distintas ciencias relacionadas con la pedagogía. Es en últimas, la praxis
pedagógica de los resultados teóricos de campos del conocimiento como la
Psicología, la Medicina, la Sociología, la Antropología o la Ingeniería entre muchas
más. Asumir su estudio, su comprensión y su reflexión, implicaría el desarrollo de
una iniciativa mucho más abarcadora y ambiciosa, por esta razón se considera
fundamental iniciar con esta claridad.
Por otro lado, se entienden las TICs inicialmente de una manera más bien genérica,
como aquellas tecnologías que permiten transmitir, procesar y difundir información de
manera instantánea. Fenómeno cuya ocurrencia desde la década de los 80, comenzó a
desarticular las antiguas cadenas industriales de montaje de las organizaciones, para
convertirse en el sustrato informático innovador sobre el cual en la actualidad
26
funcionan las mismas. Su aplicación en la educación mediante constructos como
(A.V.A) corresponde al objeto central que de aquí en adelante ocupará la atención del
autor.
Al hablar de una escaza historia de las TICs en el ámbito educativo , se pretende
recalcar que hasta el momento son el ordenador, a través del software educativo, y la
red virtual internet, las únicas herramientas a las que se puede asociar el hipotético
impacto revolucionario que ha traído consigo la ―ola cibernética‖, en las dinámicas
pedagógicas. O por lo menos en las de ocurrencia masiva, en las que insinúan una
educación democrática.
Es a partir de estas herramientas que ha surgido la posibilidad de pensar en (A.V.A)
como ―el espacio físico donde las nuevas tecnologías tales como los sistemas
satelitales, el Internet, los multimedia y la televisión interactiva entre otros, se han
potencializado rebasando al entorno escolar tradicional que favorece al conocimiento
y a la apropiación de contenidos, experiencias y procesos pedagógico-
comunicacionales‖ [22].
El análisis diferenciado de Internet y Software educativo como esencia de los
(A.V.A), será el eje posterior de análisis.
Desde la propuesta de Begoña Gross (2008) [23], los programas computacionales que
adquieren la connotación de ―educativos‖ deben estar articulados en un proceso
formal de aprendizaje; no es posible acudir a la liviandad propia de muchas
coyunturas o situaciones que sin tener un atisbo de sentido pedagógico se denominan
por sí mismas ―educativas‖.
Tal es el caso de las ―modas tecnológicas‖, en donde por incidencia directa de
acuerdos macropolíticos y transcomerciales y tímidamente por necesidades educativas
explícitas, problemáticas pedagógicas identificadas o sustentos curriculares
congruentes; se saturan de computadores a las instituciones. Esto bajo el amparo de
imperativos económicos globales. Luego de esto se denominan innovaciones
―educativas‖ o políticas públicas ―educativas‖.
Las ―necesarias políticas públicas educativas neoliberales‖ o las ―nuevas estrategias
educativas para el desarrollo en Latinoamérica‖, planteadas por los gurús de la
globalización en ―auténticos manifiestos para la reforma económica‖ [24], proponen
que el énfasis en las competencias operativas frente a las nuevas tecnologías
informáticas, ha de ensalzar la esencia del acto educativo y de la planeación
curricular.
El futuro ―capital humano‖ de las organizaciones: los estudiantes, ―tienen que hacer
uso adecuado de las nuevas tecnologías‖. Su sustento reposa en que son estas el
sustrato mediador de la productividad en el siglo XXI y por ende la educación debe
acoplarlos a su estructura. Ante esto cabe preguntarse ¿Es el fin último de la
educación la preparación de mano de obra calificada?, ¿No se estará confundiendo
capacitación, adiestramiento, tecnificación; con educación?.
En este punto valdría la pena invitar a Sarramona (2006) para ilustrar y advertir a
27
los tecnócratas neoliberales sobre el filosófico e irrenunciable significado crítico y
transformador de la educación y sobre todo para motivar al lector hacia el interrogante
sobre el rol y el protagonismo del computador frente a una educación entendida como:
―Un proceso esencialmente dinámico entre dos o más personas que proporciona las
herramientas y ayudas para alcanzar las metas del hombre, partiendo de la aceptación
consciente del sujeto. Que pretende la formación del individuo como persona libre,
que busca la inserción activa y consciente del individuo en el medio social, que
significa un proceso permanente e inacabado a lo largo de toda la vida humana, que el
estado resultante, aunque no definitivo, supone una situación duradera y distinta del
estado original del hombre‖. [25]
En lo anteriormente descrito se podría ubicar en un lugar secundario a todas las
acciones dirigidas a la enseñanza instructiva de procedimientos productivos y a la
apropiación de estos por parte del estudiante. Sarramona en su definición sobre
educación da prelación a la formación de seres humanos con anhelos y deseos, metas
libres y activas, no necesariamente acuñadas con el éxito productivo o la eficiencia y
la eficacia laboral que se espera del ―capital humano‖. Sujetos con disposición de
experimentar la vivencia del mundo en toda su magnitud, no exclusivamente dentro
de los linderos de la organización. Hombres con capacidad de escenificar un papel
protagónico en el ámbito social, alejándose progresivamente del rol operativo obrero
y avistando cada vez con más cercanía el papel de entes creadores y transformadores.
Personas con pleno entendimiento de un reto formativo interminable, inconstante y
variable. Sarramona sobre todo alienta una visión transformadora y revolucionaria
hacia la liberación del hombre, a la luz del acto pedagógico, la cual no se puede leer
ni escribir en los términos de la tecnocratización.
No obstante, hay que reconocer que en el campo de las tecnologías educativas se ha
logrado llevar a la praxis lo planteado por Gross en cuanto dotar de congruencia
pedagógica ciertas aplicaciones computacionales implementadas en algunos procesos
educativos. Esto ha dado lugar a lo que se conoce como ―software educativo‖. Esta
nueva categoría, siguiendo los parámetros fijados por Gros (2008), se ha considerado
como ―diseños informáticos específicos a través de los cuales se adquieran unos
conocimientos, una habilidad, unos procedimientos, en definitiva para que un
estudiante aprenda‖
El software educativo presenta directa e irrenunciablemente como gran innovación
al interior de las aulas, la inclusión del ordenador, en un rol protagónico en los
procesos enseñanza– aprendizaje, lo cual puede desembocar en una acción de tipo
educativo dependiendo del uso y direccionamiento adecuado por parte del docente.
Esto sin pretender que se magnifique la virtualidad ofrecida por el uso del
computador, hasta el punto de reducir el ambiente de aprendizaje a las interacciones
mediadas por los instrumentos tecnológicos.
No se ha de olvidar que la presencia del ordenador no sólo en las escuelas sino en
todos los ámbitos sociales, se constituye en el fenómeno tecnológico guiado
mercantilmente que ha definido las nuevas tendencias políticas, culturales y sociales
de la contemporaneidad, al mediar instrumentalmente la última gran revolución
industrial, aquel giro paradigmático que emerge de las nuevas tecnologías de la
información y las comunicaciones.
Esto conlleva a pensar que la presencia del ordenador en los escenarios educativos
28
obedece principalmente a una corriente global de orden económico que pretende la
implantación universal de ciertas prácticas del mercado, como la masificación de las
TICs básicamente, pero con repercusiones culturales, sociales y psicológicas.
De acuerdo a lo anterior, la plataforma comercial del software educativo
implementada en los (A.V.A) intenta incursionar en las necesidades educativas
tratando las diferentes materias, de formas ya milenariamente exploradas a partir de la
interacción humana docente-estudiante. A partir de cuestionarios, presentando una
información determinada a los estudiantes o a través de la simulación de fenómenos,
ofreciendo un entorno de trabajo poco sensible a las circunstancias de los alumnos
desde sus diferencias individuales y mucho menos provisto de posibilidades de
interacción. Sin embargo, desde el modelo que guía la tendencia económica neoliberal
que impulsa esta implementación tecnológica en la educación, se contemplan las
siguientes características que más se asemejan a metas ideales aún no alcanzadas en su
totalidad:
Se puede apreciar que al igual que ocurre con muchos otros constructos propios de
la etapa actual que atraviesa la humanidad, guiada por la incidencia de la
globalización, el neoliberalismo y la masificación vertiginosa de TICs, las
características del software educativo se plantean más con el deseo y el afán
desmedido de autovalidación a toda costa, que con la razón y la información
proveniente de los hechos.
La interacción docente - estudiante, por el contrario a lo descrito, no se nutre ni se
acentúa a partir del uso del software educativo. El modelo transmisionista, implícito
en esta aplicación pedagógica, insinúa la irrelevancia de la presencia constante del
maestro en procesos educativos que se centran en la inserción lineal de cúmulos de
información en las mentes de los educandos, lo cual se logra fácilmente mediante el
uso de las tecnologías descritas. Las relaciones educativas de tipo crítico y que se
fundamentan en los procesos reflexivos del estudiante, no se puede construir en la
interacción con un aparato; éste no está en capacidad de accionar un ejercicio
dialéctico que someta a prueba de rigurosidad argumentativa y a escenario de
transformación conceptual el discurso del estudiante, ya que no puede hablar por sí
mismo desde su experiencia, ideales y sistema de pensamiento, tal y como hace un
maestro.
Por otra parte, las habilidades que desarrolla este tipo de material en los estudiantes
están limitadas a la manipulación tecnológica, lo cual se constituye como un serio
29
quebranto a los principios de individualidad, heterogeneidad y diferencia de
pensamiento. La estandarización y formación de las capacidades de los estudiantes de
acuerdo a las competencias evidenciadas al momento de hacer uso de los aparatos
tecnológicos no se puede confundir con la acción creadora, crítica y transformadora
que significa la educación y subsecuentemente la construcción de conocimiento. Tal
vez en una parte de los contenidos curriculares sea pertinente la evaluación de estas
competencias operativas, pero se ha de recordar: ésto no constituye la esencia de la
obra creadora que es la educación.
En cuanto a la reducción del tiempo destinado al desarrollo de tareas escolares que
significa el uso del software educativo, cabe mencionar que si la escuela fuera una
empresa o una organización destinada a optimizar recursos en pos de ganancias
tangibles, sería de gran ayuda. Afortunadamente aún el modelo económico
empresarial predominante no se ha logrado posar totalmente en la educación como lo
ha hecho en otros contextos como las artes o el costumbrismo típico regional entre
otros, imprimiendo su sello mercantil en toda acción humana. Aún la escuela no es un
escenario en donde confluyen los más veloces, los más aventajados y los mas
―competentes‖ devorando a los que no manifiestan estas disposiciones genéticas y
ambientales, aún no llega el momento en el que al estudiante se le limite o condicione
el tiempo para conocer, como a un empleado industrial se limita el tiempo de
alimentarse. El factor optimización y ahorro del tiempo no juega un papel protagónico
en la construcción ontológica que significa el conocimiento; por el contrario es la
dedicación significativa y en ocasiones exagerada, lo que desemboca en las grandes
creaciones del conocimiento crítico y transformador [26].
El uso del software por parte del docente y del estudiante, según los economistas
neoliberales que parecen tener fuero y potestades ilimitadas en todos los campos del
conocimiento, también proporciona numerosas ventajas, las cuales se someten a
análisis; entre ellas están:
30
novedad sólo opera en la fase de circulación del conocimiento en el ámbito
académico, pues irrebatiblemente es el sujeto de ciencia quien ―carga‖ o provee el
contenido de cada software educativo, éste no se actualiza o reevalúa sus contenidos
autónomamente. Siempre estará condicionado a la actualización y complementación
que el mismo ser humano tenga en su voluntad añadirle; adicionalmente, al igual que
siempre, estará supeditado a una serie de variables exógenas como las fuentes de
energía o el status aventajado tecnológicamente de determinada comunidad.
Se puede adaptar el software a las características y necesidades del grupo teniendo en
cuenta el diagnóstico en el proceso de enseñanza-aprendizaje. Lo cual supone un
estado estático e inerte intelectualmente de los grupos académicos, en el lapso de
tiempo comprendido entre el diagnóstico de necesidades académicas de determinada
comunidad y el momento de la puesta en circulación del software planeado a partir de
dicho diagnóstico, el cual puede modificarse considerablemente en proporción a las
variables exógenas arriba mencionadas.
Permite elevar la calidad del proceso docente-educativo. Lo cual está
condicionado ampliamente, al igual que toda la estructura computacional, por la
postura y dimensión ética que el ser humano, en este caso el maestro, esté en
disposición de escenificar. En muchas oportunidades se ha hecho evidente que el uso
de software en la escuela permite ―flexibilizar‖ la carga laboral del docente
permitiéndole así destinar más tiempo disponible a actividades no necesariamente
académicas, también personales, extralaborales e incluso administrativas; siendo esto
último muy deseable en la concepción neoliberal de la escuela como empresa.
Permite planear y controlar las actividades del docente de forma individual o
colectiva, lo cual no es ninguna novedad o consecuencia exclusiva del uso de
software, es uno de los pilares de la acción del educador.
Muestra la interdisciplinariedad de las asignaturas, lo cual, conservando las
proporciones -no es lo único que se necesita para ilustrar el carácter multi e
interdisciplinar de la educación-, se constituye en un aporte al representar la
asociación conceptual y la transversalidad necesaria en el abordaje complejo de los
fenómenos propios de la ciencia.
Marca las posibilidades para una nueva aula más participativa y democrática;
cuestión que es relativa e inclusive en muchas ocasiones opuesta, ya que en los países
subdesarrollados y en vías de desarrollo, el uso de software educativo,
antagónicamente a lo enunciado, lo que logra es aumentar la desigualdad y el
desequilibrio social. Cuando la tecnología es un lujo o un bien suntuoso, tal y como
sucede en países como Colombia, se limita su uso y alcance a las clases más
favorecidas, lo que pone en aguda situación de desventaja a quienes no tienen
igualdad de acceso a estos medios facilitados por la ciencia pero sobre todo por la
capacidad adquisitiva. Es lo que comúnmente se denomina ―la brecha digital.‖
31
como un proyecto militar en Norteamérica cuyo diseño y ejecución se delegó a la
Agencia de Investigación de Proyectos Avanzados (ARPA) del Departamento de
Defensa de los Estados Unidos a finales de los años sesenta. [28]
El objetivo principal de la red era configurarse como un sistema práctico,
sistemático y seguro de comunicaciones que siguiera funcionando en caso de que,
durante un conflicto bélico, fueran destruidos los canales de comunicación, amenaza
que ya históricamente había significado el debilitamiento de potencias militares muy
similares a los Estados Unidos como el utópico ―Tercer Reich‖que en la Alemania de
la primera mitad del siglo XX lideró el bien conocido Adolfo Hittler. El diseño de la
red bélica sería interconectado, de tal manera que si un canal de comunicación se caía,
en un bombardeo por ejemplo, los otros pudieran suplirlo. La información viajaría
digitalizada y dividida en remotas unidades bien camufladas en las que figuraría la
referencia del conjunto de datos. Al llegar a destino, las remotas unidades serían
comprobadas y organizadas para "decodificar" la totalidad del contenido.
Curiosa génesis para una aplicación que en su evolución actual es el escenario de
múltiples intercambios de datos e información, desde compras en línea hasta sexo
virtual.
El resultado fue ARPANET, una red extendida, sin un canal o centro estratégico -
descentralizada- y un conjunto de pasos sistemáticos que permitirían una
comunicación confiable utilizando gran variedad de medios poco confidenciales -
redes telefónicas y conmutadas, satélites, líneas privadas, enlaces de microondas.
En la década de los 80 se integran a la ARPANET la CSNET –la red del Computer
Science Network- y MILNET -la red militar de los EE.UU.-. Este momento, junto con
la posterior integración de NSFNET - la red de la National Science Fundation - que
contenía a los cinco más importantes centros de desarrollo computacional de los
Estados Unidos; se considera como el nacimiento de la verdadera internet o red de
redes. A este hilo vertebral comenzaron a unirse universidades y centros de
investigación que ya no dependían exclusivamente de la milicia y se incrementó
pandemicamente el número de usuarios. En 1995, la asociación nacional de ciencia
Norteamericana abandono la mediación entre sus usuarios y el acceso a la red y
comenzó la denominada "privatización" de internet, la universalización comercial y el
fenómeno mediático que hoy todo ciudadano del mundo occidentalizado conoce: la
Internet.
Se pretende que descritas las anteriores perspectivas históricas se logre aparte de
complementar los referentes conceptuales necesarios para la comprensión crítica de
las tecnologías informáticas aplicadas a la educación; acentuar la postura del autor en
lo referente a la posibilidad del uso de la red informática internet en el ámbito
educativo. La red de redes podría articularse en la educación, siempre y cuando exista
un profundo ejercicio multidisciplinar que convoque a la pedagogía y las demás
ciencias asociadas a un análisis exhaustivo, a la luz del conocimiento crítico-
reflexivo, de las infinitas posibilidades, no necesariamente educativas, que ofrece la
internet y sobre todo de sus constructos particulares susceptibles de incluir dentro de
las estrategias pedagógicas al interior del aula.
No es posible que una iniciativa de origen bélico, planeada para la guerra y la
hecatombe pueda integrarse mecánica y acríticamente a los procesos educativos. Se
insiste en que en una interacción de índole instructiva o de capacitación laboral podría
32
no ser de gran utilidad una compleja selectividad de los materiales a utilizar, pero en
la visión de la educación hacia la formación crítica transformadora ¿―funcionará‖ de
la misma manera?.
Un ejemplo de integración pertinente y de adecuación de las condiciones
tecnológicas provistas en la actualidad con las necesidades sociales de las
comunidades, que claramente se ejemplifica a través del uso de la Internet en (A.V.A),
se puede identificar en los programas de formación a distancia (e-learning) que cada
vez se hacen más accesibles y eficaces atendiendo a las potencialidades comunicativas
que ofrece la red. Esto sin duda alguna es un gran beneficio para aquellas iniciativas
instructivas que persiguen la apropiación de contenidos y el manejo de conceptos por
parte del estudiante, ejecutivo u operario. Sin embargo no cobija la posibilidad de
interacción reflexiva o debate constructivo frente a tales contenidos. No apunta a una
educación de orden reflexivo ni mucho menos revolucionario.
Tampoco hay que obviar que las formas comunicativas –multimedia e hipermedia-,
existentes anteriormente a la aparición del computador y las redes informáticas, se
facilitan y promueven sustancialmente gracias al uso de la ―red de redes‖ y del
software educativo. Esto se podría puntuar como un gran aporte de orden instrumental
para las estrategias docentes implementadas al interior del aula y fuera de esta.
La pregunta que aquí subyace es ¿tendrá la educación que sopesar la
impenetrabilidad y la soberanía indestructible de una iniciativa militar perfecta que se
salió de control por el carácter universal que adquirió; la cual aparte de las bondades
descritas en la cotidianidad, enfrenta a los maestros en el ámbito de la complejidad del
conocimiento, con el absoluto facilitarismo y la inerte iniciativa en materia de
esfuerzo e investigación-acción que implica en el estudiante la utilización de esta?
Como se planteó inicialmente el mayor atractivo de las redes informáticas como
internet es la inmediatez en cuanto consecución, teorización y praxis de cierta
información que su uso conlleva, enunciada empresarialmente en términos
organizacionales como optimización de tiempo, recursos y procesos. Pero ¿es esto lo
que se requiere en los procesos de pensamiento crítico, de la academia?. Tal vez
Copérnico, Voltaire, Einstein, Freud, Marx o Fleming entre muchos más podrían dar
una respuesta optativa al anterior interrogante.
Afortunadamente en sus sepulcros no pueden digerir mentalmente los
planteamientos de los tecnócratas de la educación y su ―global‖ acogida. Atendiendo a
la gran materialización de la ―Mcdonalización‖ [29] a la que ha sido sometido el
conocimiento científico a la luz de la lógica neoliberal, probablemente se lamentarían
de haber dedicado una vida al arte de conocer, para entregar este pilar de la
humanidad a herederos como los tecnócratas educativos, ―caballeros de la mesa
global‖. Estos particulares personajes en antagonismo sustancial a la labor del sabio,
buscan como a la piedra filosofal los alquimistas, minimizar recursos como tiempo,
esfuerzos docentes e infraestructura educativa en aras de optimizar la gestión de la
empresa que para la visión neoliberal significa el conocimiento científico, la academia
y en general toda iniciativa y acción humana.
33
4 Conclusiones y Trabajos Futuros
Referencias
34
http://degerencia.com/articulo
5. Senge, Peter. (1994). La Quinta Disciplina. Buenos Aires. Ed. Granica.
6. Rodriguez, María Luz. (2004). "La Teoría del Aprendizaje Significativo." [consulta:
25 de agosto de 2008]. Disponible en Web: http://cmc./hmc.us/papers
7. De Zubiria, Julián. (2008). De la Escuela Nueva al Constructivismo: un Análisis
Crítico. Bogotá. Editorial Cooperativa Magisterio.
8. Durkheim, Emile. (1991) Educación y Sociología. México. Ed. Colofon.
9. Popper, Karl. (1994) Desarrollo del Conocimiento Científico. Buenos Aires. Ed.
Paidós.
10. Berthier, Antonio. (2005). "El Pensamiento Sociológico de Jürgen Habermas".
[Consulta: 15 de julio de 2008]. Disponible en Web:
http://conocimientoysociedad.com/habermas
11. Foucault, Michel. (1996) La arqueología del saber. México. Ed. Siglo XXI.
12. Ongallo, Carlos. (2005). "La Gestión del Conocimiento y la Normalización de sus
Buenas Prácticas". Revista económica de Castilla-La Mancha. N°7. p 183-208
13. Vicario, Claudia. (2002). "Gestión de Conocimiento, Desafío de la Educación".
[consulta: 14 de septiembre de 2008]. Disponible en Web:
http://www.somece.org.mx/memorias
14. Munar, Mabel. (2002) "Acreditación de las EPS y el Sistema de Calidad de Salud en
Colombia y su Relación Beneficio-Costo desde el Punto de Vista de los Usuarios".
[consulta: 10 de noviembre de 2008]. Disponible en Web:
http://monografias.com/trabajos
15. Dávila, Carlos. (2001). Teorías Organizacionales y Administración. Bogotá. Ed.
McGraw Hill. Capitulo3
16. Ganhao, María Teresa. (1997). "Las Metáforas Organizacionales" p. 183-189
[consulta: 23 de septiembre de 2008]. Disponible en Web:
<http://ddd.uab.es/pub/papers>
17. Lopez, Daniel. (2004). "Del Conocimiento Tácito al Dato Explícito". [consulta: 10
de octubre de 2008]. Disponible en Web: http://www.redcientifica.com/doc
18. Roque, Silvia. (2001). La Inteligencia de Negocios. [consulta: 25 de octubre de
2008]. Disponible en Web: http://www.gestiopolis.com/recursos/documentos
19. Bendersky, Betina (2004). La Teoría Genética de Piaget. Buenos Aires. Errepar.
20. Suarez, Cristóbal. (2004). ―La Zona de Desarrollo Próximo, Categoría Pedagógica
para el Análisis de la Interacción en Contextos de Virtualidad‖. Revista de medios y
educación. N°24 p 5-10
21. Brown, John. (2001). La Vida Social de la Información. Buenos Aires. Ed. Prentice
Hall.
22. Cabero, J. (2007). Nuevas Tecnologías Aplicadas a la Educación. Madrid. Mc Graw
Hill.
23. Gros, Begoña (2008). Aprendizajes, Conexiones y Artefactos. Barcelona. Ed Gedisa.
24. Chomsky, N. (2006). Ambiciones Imperiales. Barcelona. Península.
25. Sarramona, J. (2006). Debate sobre la Educación: Dos Posiciones Enfrentadas. (1ª
Ed). Barcelona. Ibérica.
26. Barbero, J. M. (2002). Ciudadanía, Democracia y Diálogos Sociales en América
Latina. Conferencia en ocasión a la apertura del programa de Maestría en Educación.
Universidad Distrital Francisco José de Caldas. Bogotá.
27. Amin, Samir. (2002). El Capitalismo en la Era de la Globalización.
Barcelona. Paidos Ibérica
28. Dreyfus, H. (2003). Acerca de Internet. Barcelona: UOC.
29. De Moraes, Denis. Cultura Mediática y Poder Mundial. Bogotá: Norma
35
36
Currículo coherence model knowledge based a case for
industrial engineering.
37
1. 1 BRIEF BACKGROUND
The system model of higher education for propaedeutical cycles has been called
FESSJ-PROP© is a complex curricular architecture for analysis and implementation
in all institutions of higher education. The architecture is built the COHERENT
CURRICULUM and cohesion of the three propaedeutic cycles, TECHNICAL
PROFESSIONAL, TECHNOLOGY and ENGINEERING. The model is based on
three dialogic components: the structural component or curricular coherence matrix
sub-model, the knowledge management system for flexibility and the intelligent and
preliminary component of STUDENT and LECTURER PRODUCTIVITY.
The testing and validation of the model, initially supported the rational use of
mathematical tools and computer and then in the degree of approximation (quality of
data) of the measurement system, the same rationale for the theoretical frameworks of
study, contrasting with the actual implementation of curricular coherence matrix
during the visit of assurance of the quality requirements of academic peers to
FESSANJOSE in Bogota (March and April 2009) in all tested programs. This study
revealed the possibility of the model and predictive power with the development of a
computer construct called iCOACH© (Intelligent knowledge-based systems for
individual student and lecturer productivity), working prototype, which is operating at
the level of experiential learning. (Experiential learning) iCOACH is a knowledge-
based intelligent system as a component that ensures the coupling propaedeutic cycles
of higher education but mainly as a tool for individual student productivity. This
realization led us finally the engineering design iCOACH and FESSJ-PROP with a
Professional Development.
The objectives include:
38
• To improve the prospective scope of PEI-TICs.
• To quantify the production of the university in terms of knowledge
development in the student (culture of competence) per cycle propaedeutic.
• To quantify the contribution of each subject cognitive propaedeutic cycle.
• To re-model the expertise areas in each cycle and the Know-How.
• To prioritize and classify the areas of competence.
• To contribute to develop a curriculum free of errors and ambiguities.
• To build the input-output matrix as the basis of structural analysis and
optimization.
Among the purposes and scope of the linear model of consistency in curricular
knowledge are: The understanding de-complexified methodological strategy in cycles
propaedeutic and also the optimization of university resources.
The curricular coherence matrix is both an instrument of analysis as a linear
mathematical structure, enabling the justification of curriculum and making sense as a
whole organized and complex. Curricular coherence refers to the logical relations
between the cognitive parts of the architecture of an educational system
The internal coherence: is the strategic alignment between a study plan
(curriculum) with its objectives, justification, given the mission and vision and
properly articulated with PEI-ICT (Institutional Education and ICT Strategic Plans).
The external coherence refers to the alignment of the educational style of
FESSANJOSE to the professional profiles and intellectual capital which demand the
industry, the government, science, and technology in a global society. The model
based on educational processes according to the industrial curriculum study plan,
where an assignment (including classes, workshops, tutorials, laboratories etc.) is
associated to an expertise unit. The matrix method is of morphological type to obtain a
system contradictions free without the unwanted entropy. The coherence also implies
harmony, and articulation between teaching and apprenticeship, alignment, and
synchronization.
The system diagram of the model is expressed in the Figure 1
KNOWLEDGE SUPPLY
Competences DEMANDING
EXPERTISE CULTIVATED
KNOWLEDGE
MANAGEMENT
39
between the achieved in face to the wanted is null, curricular coherence.
• The PEI-TICs is the expression of the proper philosophical comprehension
of the educational task and it acts as definition of identity, exercising the university
autonomy, recognized by the Constitution and Law.
a
i
i, j nj d j
40
3.2 Fuzzy Matriz
On the other hand, each coefficient (cell) representing the cohesion and coherence of
each assignment with the competence, can have other qualitative values / fuzzy logics,
i.e.:
Ai,j = (null, middle, high) represented by colors in the matrix: [blank, red, blue],
as displayed in equation 3.
This type of Matrix can be of two classes: the longitudinal in time (i.e. by academic
semesters of the study plan and the transversal knowledge, where the curriculum
knowledge of the subject is grouped as mentioned above.
3.3 Input / Output Matrix
In this matrix each cell is expressed in equation 1 as a technical coefficient of the
input fraction by production unit.
d
a~i , j j
bi
Where each element ai,j is the ratio of cognitive inputs by unit of cultivated
competence production. With this matrix it can be performed the optimization
analysis, adding quality objectives, capacity restrictions as costs, academic objectives,
scholars population, lecturers, university resources and many others related.
The Coherence Matrix for the FESSANJOSE INDUSTRIAL ENGINEERING, the
first two propaedeutic cycles is shown in Figure 2. It should be noted for each row of
expertise establishing equivalence with the Latin America TUNING Competences,
published by the Policy MEN Document (yellow).
41
or due to the demands of the industries. In the case of FESSANJOSE, was left with
unit values.
With the above matrix, referred to in economics interindustry of the technical
coefficients, which initially was called in Wassily Leontief Matrix, it can be perform
the analysis of academic governability, finance sustainability, educational
competitiveness and optimize university institutions, with the addition of multiple
objective functions, capacity constraints, unit costs for academic credit, the target
student population, limited college resources and many other related. In several
previous works we did this analysis for the Colombian cases.
Another chart shows the metric for how well the industrial courses and subjects within
each cycle propaedeutic features are integrated to provide specific expertise of the
skills deployed in the cross-coherence curricular matrix consistency: from the
quantified matrix can be obtain for each cycle the industry productions, namely in
terms of industrial expertise cultivated by the engineering educational process.
In the diagram you can see how they develop skills throughout student academic life.
It is noted that development of basic skills is permanent Salthouse [1] or continous
backed by numerous studies in which skill or expertise has a behavior of someone
who continually learns, throughout his life: a Normal Distribution as shown in Figure
3
Weight of Competence: The next column, in blue, possible to assign weights or
weighting of each unit of expertise to respond to the academic style of an institution,
or due to the demands of the industries. In the case of FESSANJOSE, was left with
unit values.
With the above matrix, referred to in economics interindustry of the technical
coefficients, which initially was called in Wassily Leontief Matrix, it can be perform
the analysis of academic governability, finance sustainability, educational
competitiveness and optimize university institutions, with the addition of multiple
objective functions, capacity constraints, unit costs for academic credit, the target
student population, limited college resources and many other related. In several
previous works we did this analysis for the Colombian cases.
42
Fig 3. Skills Student Continuity
This may be associated with the occupational skills of the three cycles preliminary
in Industrial Engineering.
The industrial professional expertise requires the definition of specialized skills or
outstanding tasks i.e SUPERIOR PERFORMANCE or represented in a domain that
are described as KNOW HOW. The cognitive processes associated with learning
mechanisms are of more complex.
EXPERTISE approach involves the development of skills as a dynamic continuum
and is associated with learning processes throughout life that are affected by change
and social practices, industry behavior, science and technology. As a result, the
structure of competence is variable in itself, change usually associated with a
requirement of living space in which it is used.
The Industrial Engineering curriculum design based in propaedeutical cycles and
also in EXPERTISE have cognitive and structural features distinctive, the first of
which is an academic structure articulated, sequential, complementary and flexible,
whose cornerstone is the development of professional and occupational engineering
skills. This assumption allows defining:
The Feedback Sub-matrix corresponding to the cycle objective, which can be
quantified knowledge articulation processes subsequent courses to strengthen the
competencies implied.
The Feedforward Sub-matrix, to quantify the knowledge articulation of the
processes of the current cycle and feeding skills training for senior cycle (upper). The
Figure 4 these sub-matrices are displayed.
There are many possibilities for analysis, to meet the socio-economics demands in
terms of such competences.
Are they balanced?
43
Is there any bias?
What if a new competence is included due to the industry demand?
What is the effect of restructuring a subject or a course or a subset of them in
missionary terms?
How is the University answer in front to new demands given by additional
regulations?
How is the finance sustainability given the raise in education costs
CULTIVATED EXPERTISE 83 43
1. T o describe the stages of the life cycle of sustainable production processes 78 88
from the study, analysis and design, product, to delivery to the customer with
Professional Technician in Sustainable Production Process
44
Fig 5. Industrial Engineering Professional Technician Expertise Values
CONTROL DE LA CALIDAD
PROGRAMACION LINEAL
GESTION DE LA CALIDAD
GESTION DE MERCADOS
INGENIERIA ECONOMICA
EXPERTISE CULTIVADO
GESTION PRODUCCION
SALUD OCUPACIONAL
LOGISTICA INDUSTRIAL
INVESTIGACION DE
PRAC. EMPRESA
Diseño de Planta
Proyecto Grado
OPERACIONES
ECODISEÑO
ELECTIVA III
ELECTIVA II
LOGISTICA
3 3 2 2 2 3 2 2 3 2 2 2 2 2 2 2 2 2 2 2 2 43
78 78 40 44 40 45 24 44 87 46 46 40 44 36 56 42 32 42 6 44 56
CULTIVATED EXPERTISE 83 43
1. Develop thinking to deal with the complexity of the current company,
63 121
encourages awareness, sense of ethics, analysis of organizational
problems, implementing solutions to their profession. Industrial diagnose
and propose solutions to identified needs.
10. T o develop strategies and implement technologies for the development 44 110
of industrial processes as efficiently and preserving the environment.
45
Fig 8 Technology Expertise Values
5 CONCLUSIONS
This study has indicated the Leontief Model resituation towards a social
sector as Education, from the economy to the academic world of knowledge
of an institution of higher education in Colombia.
The Coherence Matrix is a kind of macroscopic of great quantity of
curriculum information and competences, allowing the corresponding
knowledge management. We have shown an implementation for Industrial
Engineering at the FESSANJOSE.
This initiative sets up a way toward the architectural of information of IES
(Higher Education Institution) on account of Colombia Education Law 1188
which is explicit about the curriculum complexity.
The model seeks to be an institutional learning instrument in the community
and handles knowledge, thereby from these experiences is expected that IES
go beyond of the simple management of the ICTs.
It is seen that is entirely feasible an ethos for research and knowledge in the
technical and technology institutions. Likewise it is also seen that this policy
based on propaedeutic cycles far from being an utopia really enables the
democratic way to knowledge as proclaimed in the World Summits on
Information Society: Geneva and Tunisia.
6 FUTURE WORK
As part of the Convocation of the European Community, FESSANJOSE is
being presented and the mentioned convocation requires the formation of
partnerships and strategic alliances to produce knowledge and the product
marketing. In this sense we have initiated discussions with the Pontifical
University of Salamanca in Spain with Professor LUIS JOYANES
AGUILAR.
To develop the Professional Software with international standards to
strengthen the matrix analysis of curricular coherence, so widespread and
friendly management, involves Study Plans Management for each cycle,
Competency Management, Content Management, Multimedia and Digital
Reality Virtual and the extended.
Develop the maturity model for the formation of Lecturer-Authors for
Content Generation and Verification of knowledge for Student Learning.
To develop the corresponding Leontief Dynamic Matrix for curricular
coherence analysis including Academic Governability and economic
sustainability.
ACKNOWLEDGEMENTS
To ―FUNDACION DE EDUCACIÓN SUPERIOR DE SAN JOSE‖, to Lecturers and Officers,
especially to SAN JOSE EIDOS RESEARCH TEAM including Carlos Pareja, Alexis Mena,
Giovanni Rozo, Leyini Parra and Miguel R. Ortegón Gutierrez, to all of them a debt of
gratitude.
46
References
1. Salthouse Timothy A.: EXPERTISE AS THE CIRCUMVENTION OF HUMAN
PROCESSING LIMITATIONS; in Toward a General Theory of Expertise Prospects and
Limits. Edited by K. Anders Ericsson and Jacqui Smith – Published 1991-
2. Ministerio de Educación Nacional Banco de Experiencias Significativas: FUNDACION
DE EDUCACION SUPERIOR SAN JOSE: Modelo Analitico de Coherencia Curricular
de los Ciclos Propedéuticos con Articulación desde la Educación Básica a la Educación
Superior. www.colombiaaprende.edu.co.
3. Perez Gama Alfonso, Guillermo Hoyos Gómez, Leyini Parra Espitia, Miguel R. Ortegón
G, Giovanni Rozo Pardo, Byron Alfonso Perez Gutiérrez: EDUCATION SOFTWARE
ARCHITECTURE: FACING STUDENT DESERTION IN COLOMBIA HIGHER
EDUCATION WITH AN INTELLIGENT KNOWLEDGE BASED COACHING
SYSTEM: in ANDESCON 2010 IEEE; Bogotá Colombia
4. [4] Perez Gama Alfonso, Guillermo Hoyos Gomez, Alexis Mena Mena: ANALYTICAL
MODEL OF PROPAEDEUTIC CYCLES FOR HIGHER EDUCATION IN
COLOMBIA; 40 Reunión ISTEC (October 27/28- 2009) Ibero-American Conference on
Trends in Engineering Education and Collaboration, University of New Mexico
Albuquerque, NM - USA. Memorias ISBN 978-0-9842912-1-2-
6. Perez Gama Alfonso, Guillermo Hoyos Gomez, Ing. Mena Mena; Byron Alfonso Pérez
Gutiérrez.; A KNOWLEDGE BASED ANALYTICAL MODEL OF PROPAEDEUTIC
CYCLES FOR HIGHER EDUCATION IN COLOMBIA; The IEEE /ACM
INTERNATIONAL CONFERENCE ON ENGINEERING EDUCATION -; ICEED
2009, Kuala Lumpur, Malaysia. IEEE Catalog Number: CFP0968H ISBN: 978-1-4244-
4844-9 Library of Congress: 2009905648.
7. Perez Gama Alfonso, Guillermo Hoyos Gomez, Alexis Mena Mena, Byron Alfonso Pérez
Gutiérrez: A KNOWLEDGE BASED ANALYTICAL MODEL OF PROPAEDEUTIC
CYCLES: LINKING MEDIA EDUCATION TO HIGHER EDUCATION IN
COLOMBIA; IEEE EDUCON 2010 Conferencia Mundial de Educación Madrid España
Abril 2010. Conference Book ISBN 978-84-96737-70-9. CD ROM IEEE CATALOG
CFP10 EDU-CDR ISBN 978-1-4244-6569-9.
10. Ministerio de Educacion Nacional: MARCO DE REFERENCIA PARA POLÍTICA
PÚBLICA SOBRE EDUCACIÓN SUPERIOR POR CICLOS Y POR
COMPETENCIAS MEN: www.mineducacion.gov.co.
11. [11] Joosung J Lee et al: Business and Management Competences of Engineers; IEEE
EDUCON 2010 Conferencia Mundial de Educación Madrid España Abril 2010.
Conference Book ISBN 978-84-96737-70-9. CD ROM IEEE CATALOG CFP10 EDU-
CDR ISBN 978-1-4244-6569-9.
12. Hoffman Michael HW et al: Knowledge, Skills and Competences: Descriptors for
Engineering Education; IEEE EDUCON 2010 Conferencia Mundial de Educación-
Madrid España Abril 2010. Conference Book ISBN 978-84-96737-70-9. CD ROM IEEE
CATALOG CFP10 EDU-CDR ISBN 978-1-4244-6569-9.
13. Buckley J.J. (1992). Solving fuzzy equations in economics and finance Fuzzy Sets and
Systems 48. North-Holland , pp. 289-296 15th International Conference on Input Output
Techniques. Renmin University of China Beijing 2005.
47
La inteligencia emocional y la neurociencia elementos
fundamentales de la construcción integral del ciudadano.
Abstract. All we know that emotions are involved in our daily life
experience, mainly in our family, at school, at work, and all kind of
relationships that gets in our lives and modify the affective part, all this
process give us a total integrity. Forming and educating citizens all of it
even handed, without mispricing aspects that also should be form as
academic, emotional, psychological, ecological and the whole
discernment-comprehensive mind development. This paper openly
offers a better way to learn how to construct yourselves by giving
concepts and exploring brain behavior.
49
3. Introducción
4. Sociedad y Complejidad.
El sistema educativo actual construye el futuro con base en el pasado bajo los
principios Newtonianos y Cartesianos, nuestro pensamiento está determinado por el
determinismo el simplismo desconociendo el azar y la complejidad de un mundo que
se va construyendo segundo a segundo
El sistema educativo es el llamado a liderar las grandes transformaciones y la
adaptación a los cambios generados por los procesos evolutivos y no quedarse
encorsetado en el siglo quince, estas transformaciones radicales deben comenzar por
una reforma de la profesión docente. Profesión que debe ser multidisciplinaria y de
una alta complejidad más que cualquier otra, la misión del sistema educativo debe
proyectar la educación de las emociones, la inteligencia emocional, la inteligencia
social y la inteligencia ecológica.
Estas inteligencias se conocían desde hace mucho tiempo pero lo nuevo es que hoy
sabemos que se pueden enseñar, una mente que sepa gestionar las emociones es una
mente más tranquila, más atenta, más creativa e innovadora y a la vez más saludable,
como también generando una vida más feliz o con el menor número de perturbaciones
ya que la felicidad es el motor de la evolución y uno de los fines de todos los seres
humanos y porque no decirlo de los animales.
Pero la sociedad en que hoy vivimos más interdependientes somete a nuestras
50
mentes a un bombardeo permanente de información generándonos más dudas,
mayores grados de indeterminismos y a la vez mayores angustias.
El stress ocasionado por esta situación inyecta a nuestro sistema nervioso altas dosis
de cortisol y a la vez volviendo más activas las emociones negativas como el miedo, la
angustia y actitudes egocéntricas, la familia, las comunidades también reciben estos
impactos los cuales contribuyen a su descomposición incrementando la violencia, la
inseguridad, y una sociedad cada vez más infeliz.
Una educación emocional nos va a permitir educar las emociones positivas,
potenciarlas, apaciguar nuestras mentes y espíritus y gestionar las emociones
negativas de tal forma que no afecte nuestra salud mental y física. [1]
Una mente educada emocionalmente es mucho más receptiva a los procesos de
aprendizaje y a la construcción de conocimiento.
Si la empresa en que usted trabaja es una gran organización, quizá en este mismo
momento lo estén evaluando en función de esas actitudes aunque usted no lo sepa. Si
va a solicitar un empleo es probable que lo examine a través de esta óptica.
Si la empresa en que usted trabaja es una gran organización, quizá en este mismo
51
momento lo estén evaluando en función de esas actitudes aunque usted no lo sepa. Si
va a solicitar un empleo es probable que se le examine a través de esta óptica.
No se trata de una moda pasajera de la panacea gerencial del momento. Los datos que
inducen a tomarla en serio se basan en estudios hechos sobre millares de personas que
trabajan en actividades de todo tipo. La investigación destila con insucitada precisión
que cualidades identifican a un sol en el trabajo. Y demuestran que actitudes humanas
constituyen la mayor parte de los ingredientes que llevan a la excelencia laboral y muy
especialmente al liderazgo.
Si usted es miembro de gestión, es fundamental que su organización fomente esas
actitudes que permiten un excelente clima laboral para una mayor eficiencia y
productividad. Maximizando la inteligencia del grupo la integración sinérgica de los
mejores talentos de cada uno y si trabaja por cuenta propia estas actitudes le
permitirán lograr un desempeño óptimo, actitudes que desafortunadamente no se han
enseñado nunca en la escuela o en la universidad. Así, nuestro éxito va a depender en
mayor o menor medida de nuestro nivel de dominio de estas actitudes. Por varias
décadas se habla de las personalidades, del carácter de actitudes positivas. Hoy el
talento humano se conoce por el IE ―Inteligencia Emocional‖ que es una contribución
importante para la gestión efectiva y por la aplicabilidad de normatividad para ala
optimización de resultados. [3]
Con el estudio de la neurociencia tenemos un conocimiento más exacto de este
talento humano, que permite generar y fomentar habilidades desde el carácter, la
personalidad, las habilidades suaves y actitudes Estas actitudes generan un concepto
nuevo del empleo el cual ha sido remplazado por el de actitudes portátiles condición
esencial para hacernos buenos candidatos para obtener y conservar un empleo. [4]
Obedece a procesos evolutivos del ser humano y al desarrollo científico de la
neurociencia las investigaciones llevadas a cabo, asi lo confirma mostrándonos cuales
son las actitudes emocionales que conducen a la excelencia y por ende al liderazgo
laboral y social.
Todo ser humano hoy se le debe enseñar a aprender y cultivar dichas actitudes, las
cuales le son esenciales para lograr el éxito y la felicidad.
52
lugar frente a la inteligencia emocional y ha dejado de ser el determinante que
fundamente el éxito en nuestra vida social y laboral.
4.4 Empatía
53
4.5 Actitudes
De acuerdo Goleman, Daniel en su libro de Inteligencia emocional, cada vez son más
los empleadores que se quejan por la falta de habilidades sociales de los nuevos
contratados, son demasiado los jóvenes que no pueden aceptar una crítica cuando se
les hace un comentario constructivo sobre lo que están haciendo, se ponen a la
defensiva o se muestran hostiles reaccionando como si fuera un ataque personal. Este
problema no solamente lo presentan los jóvenes sino también algunos ejecutivos
curtidos, muchos de ellos formados en la década de los 60 y 70 en donde la manera de
progresar estaba determinada por una buena escuela de excelente preparación
cognitiva pero de muy baja empatía, pero de excelentes actitudes técnicas especificas
las cuales son ahora menos importantes que las capacidades subyacentes de aprender
en el puesto tales como:
Saber escuchar y comunicarse oralmente.
Adaptabilidad y respuesta creativa ante los obstáculos y reveses.
Dominio personal, confianza en uno mismo, motivación para trabajar en pos
de un objetivo, deseo de desarrollar la carrera y enorgullecerse de lo
alcanzado.
Efectividad grupal e interpersonal, espíritu de colaboración y de equipo,
habilidad para negociar desacuerdos.
Efectividad en la organización, deseo de contribuir, potencial para el
liderazgo.
Eficiencia en la lectura, escritura y matemática.
54
tenga. Siendo estas las actitudes que se necesitan para triunfar pero también
necesitamos aptitudes emocionales para aprovechar a fondo el talento, sino obtenemos
todo el potencial de la gente es por ineptitud emocional. [7]
Cada vez son más los empleadores que de los rasgos deseados por las empresas
solamente el último es académico los otros tienen que ver con la inteligencia
emocional, siendo la comunicación, las relaciones interpersonales y la iniciativa las
más deseadas por los empresarios como también la empatía, la posibilidad de ver las
cosas en perspectiva, la afinidad y la cooperación.
Los exámenes de ingreso a las universidades ponen el énfasis en el cociente
intelectual, es asombroso el poco peso que este tiene en el éxito laboral y en la vida.
Cuando las puntuaciones de las pruebas de inteligencia de una persona se comparan
con el desempeño de una persona en su carrera el cálculo más generoso atribuye al
cociente intelectual una incidencia del 25%, no obstante un análisis cuidadoso permite
pensar que sería más adecuado reducir esta cifra a no más de un 10% o 4%, esto
significa que el consiente intelectual por si solo deja sin explicación en el mejor de los
casos, un 75% del éxito laboral en el peor, un 96% ; en otras palabras no permite
determinar quién va a triunfar y quien fracasara. [8]
Muchas veces estos exámenes de ingreso tienen una correlación de 0 o negativa
con el posterior éxito profesional, paradójicamente, el consiente intelectual tiene
menos efectividad para pronosticar el éxito para aquellas personas con inteligencia
suficiente para manejarse en los campos de mayor inteligencia cognitiva, el valor de la
inteligencia emocional como instrumento del éxito se hace más poderoso cuando más
alto son las barreras de inteligencia para ingresar.
En aquellas carreras como medicina e ingenierías en donde la selección profesional
se concentra exclusivamente en aptitudes intelectuales la inteligencia emocional tiene
más peso que el cociente intelectual en cuanto a determinar quien surgirá como
líder.[9]
5.2 Aptitudes
55
la computadora puede hacer al menos por ahora, pues nunca podrá darle a sus
palabras una potencia emocional pasión ni la posibilidad de interesar al televidente y
mucho menos influir sobre ellos, pues todo va ha depender de su capacidad emocional
para tener realmente un impacto significativo, pues por más fuerte poderosos y
convincente que sea el argumento no solamente le habla a la mente sino también al
corazón. Esta ajustada orquestación de pensamiento y sentimiento es posible gracias a
lo que equivale a una supercarretera dentro del cerebro, un manojo de neuronas que
conecta los lóbulos prefrontales detrás de la mente al centro de decisiones ejecutivas
del cerebro con una zona profunda del cerebro que alberga nuestras emociones.
Cualquier daño causado a estas conexiones cruciales torna emocionalmente inepta a
una persona, aunque sus facultades puramente intelectuales sigan intactas en otras
palabras esa persona aun obtendría una buena puntuación en los test de coeficiente
intelectual y otras medicines de capacidad cognitiva. Pero en el trabajo en la vida
social y emocional fracasaría en las artes emocionales que tornan tan efectivas a las
personas de éxito.
Por lo tanto la división ante las aptitudes puramente cognitivas y las que dependen
también de la inteligencia emocional reflejan una división paralela en el cerebro
humano.
Una actitud emocional es una capacitad aprendida basada en la inteligencia
emocional que originan un desempeño emocional sobresaliente que tiende a lograr
que otros respondan de manera deseada. En el fondo de esta aptitud hay dos
facultades la empatía que incluye la captación de los sentimientos ajenos y la
habilidad social que permiten manejar con habilidad esos sentimientos.
La inteligencia emocional determina nuestro potencial para aprender las
habilidades pre cognitivas que se basan en sus cinco elementos conocimiento de uno
mismo, motivación, autorregulación, empatía y destrezas para las relaciones. La
aptitud emocional muestra que porción de ese potencial hemos traducido a las
facultades que aplicamos a nuestro conocimiento y al trabajo por ejemplo ser hábiles
para servir a los clientes es una aptitud emocional basada en la empatía de igual modo
la confiabilidad es una aptitud que se basa en la autorregulación o en la capacitada de
manejar bien los impulsos y las emociones. Tanto el servicio a los clientes como la
confiabilidad son aptitudes por las que una persona puede destacarse en el trabajo.
Una elevada inteligencia emocional por si sola no garantiza que alguien haya
aprendido las aptitudes emocionales que interesan para el trabajo o su educación;
significa solo que tiene un excelente potencial para adquirirlas. Una persona puedes
ser sumamente empática, per ejemplo pero no haber adquirido las habilidades basadas
en la empatía que se traducen en la posibilidad de brindar un excelente servicio al
cliente y un alto grado de afectividad al conocimiento, ser un docente de primer nivel
o lograr que un grupo caracterizado por la diversidad se trabaje en equipo. Sería como
si alguien tuviera un registro perfecto y tomara lecciones de canto para convertirse en
un magnifico cantante de ópera. Sin las lesiones habría carrera en la música a pesar de
su potencial. [11]
56
5.3 Aptitud Emocional
Las aptitudes emocionales se arraciman en grupos cada uno basado en una facultad de
inteligencia emocional subyacente, esas facultades de inteligencia emocional
subyacente son vitales para que alguien adquiera efectivamente las aptitudes
necesarias para triunfar en el lugar de trabajo o en su vida académica. [12]
Si es deficiente en habilidades sociales será inepto en cuanto a persuadir e inspirar
a otros, dirigir equipos o catalizar el cambio. Si tiene poco conocimiento de si mismo
ignorara sus propias debilidades y carecerá de seguridad que brinda el tener
conciencia de sus propias fuerzas.
No será posible que alguien posea toda una serie de aptitudes emocionales pero
para tener un desempeño destacado solo se requiere que seamos duchos en un número
dado de estas aptitudes (al menos seis) y que esos puntos fuertes se extiendan a las
otras zonas de la inteligencia emocional.
Es decir hay muchos caminos que nos pueden llevar a la excelencia, estas
facultades de la inteligencia emocional son:
Independiente, cada una efectúa una contribución inigualable al desempeño
laboral o académico.
Interdependiente, cada una requiere hasta cierto punto de otra determinada
con muchas interacciones fuertes.
Jerarquía plana, una facultad de la inteligencia emocional sirve de base a otra
e interactúan mutuamente, el autoconocimiento es crucial para la
autorregulación y la empatía; la autorregulación y el autoconocimiento
contribuyen a la motivación. Estas facultades operan en las habilidades
sociales.
Necesarias, pero no suficientes poseer una facultad de inteligencia emocional
subyacente no garantiza que alguien escriba las actitudes asociadas tales
como la colaboración o el liderazgo. Factores tales como el clima de una
organización o el interés de una persona por su trabajo determinaran también
que la actitud se manifiesto o no.
Genérica, la lista general es aplicable hasta cierto punto, a todos los trabajos,
sin embargo, en trabajos diferentes se requieren aptitudes diferentes.
57
flexibilidad los equipos y una fuerte orientación hacia el servicio y el cliente, esta
crucial serie de aptitudes emocionales se van tornando cada vez más esenciales para la
excelencia y relaciones sociales en este mundo. [13]
6. Neuronas espejo
7. Conclusiones
58
pacífica, contribuyendo a formar el marco de la globalización de la comunidad en el
nuevo entorno de cultura compartida a través una mayor participación en el desarrollo
integral del ciudadano de Colombia e ir más allá para abrir puertas a los nuevos
planteamientos de un ciudadano integral con marco extraterritorial.
Generar espacios organizacionales en donde se fomente la influencia de la
neurociencia en ambientes laborales en nuestro país, con tendencias hacia crear una
cultura organizacional, en donde nos posibilite un nuevo horizonte económico,
teniendo presente que no son las maquinas, las que nos van a ayudar, sino que el valor
fundamental se encuentra en nuestro capital humano, para solucionar los problemas
económicos, sociales, y de migración para no incrementar mas la pobreza de nuestro
país
La importancia que tienen los medios de comunicación y más aun en estos tiempos
multimediales con un lenguaje visual o grafico, en los que estos interfieren
plenamente en el pensamiento y actúan en diferente medida, en la sensación, la
intuición y el sentimiento, es por esto tan importante la aplicación de la neurociencia
en los medios de comunicación para la transferencia del conocimiento y en compartir
experiencias, para promover una sociedad más tecnológica pero más humana, con una
mayor inversión en desarrollo educativo, es lo único que nos podría ayudar a salir de
la problemática actual de violencia, intolerancia, inseguridad.
La importancia de la inteligencia emocional en los procesos educativos, en los
desarrollos sociales como la paz y convivencia entre los pueblos haciendo necesario y
fundamental una educación basada en la inteligencia emocional como único camino a
la paz y al bienestar y la felicidad de los colombianos.
References
1. Fernández Villegas, Miguel : Como agua entre los dedos. (eds)Aljibe 100—120. España
(2010).
2. Vivas Mireya, Gallego Domingo, Gonzalez Belkis pp.142 20—40 (2007)
3. Yañez Carlo M: Sistema de Gestión de calidad en base a la Norma ISO 9001.
http://www.internacionaleventos.com/Articulos/ArticuloISO.pdf Carlo M.Yañez. Accedido
el 05 de Septiembre de 2010
4. Evans Dylan : Emocion la ciencia del sentimiento. (eds) Editorial Taurus. pp 200 130—160
(2002)
5. Mora Francisco : El cerebro sintiente pp 224 180-190 Barcelona (2000)
6. Grande del Brio, Ramon : Las bases Ecológicas del comportamiento humano pp 212 35—
80 Valencia (2008).
7. Ledoux, Joseph : El cerebro emocional (eds) Planeta pp 440 325—337 Barcelona (1999)
8.Codina Alexis: Inteligencia emocional para el trabajo gerencial.
http://www.degerencia.com/articulo/inteligencia_emocional_para_el_trabajo_gerencial
Accedido el 20 de Agosto de 2010
9. Goleman, Daniel. Inteligencia emocional en la Empresa. (eds) Vergara 250—340
10. http://www.slideshare.net/jcfdezmx6/inteligencia-emocional-1626264 Diferencia entre el
coeficiente intelectual y emocional Enrique Benjamin Franklin
11. Purves, Dale: Neurociencia. (eds.) Medica Panamericana 2006. 912 pp. 148--158.
12. Goleman, D. (2008). La inteligencia emocional. Por qué es más importante que el cociente
intelectual. Uruguay. Editorial Zeta.
59
13.Rodriguez Dario, Majluf Nureya Nicolas, Abarca Majluf,: El nuevo mundo de las relaciones
laborales http://www.uc.cl/laucmiraachile/pdf/19_nuevo_%20mundo_laboral.pdf. Accedido
el 3 de Septiembre de 2010
14. Iacoboni,Marco : Las neuronas Espejo. 270, 195--197 (2009)
60
Marco Normativo de Investigación Científica, Tics
Desarrollo Tecnológico y Procesos de Innovación, I+D+I
en Colombia
1
Dea Ingeniería Informática UPSAM Docente Universidad Distrital
Bogotá D.C., Colombia
2
Dr. Ingeniería Informática UPSAM, Docente Universidad Distrital
Bogotá D.C., Colombia
3
Dea. En Dirección y Administración de Empresas Universidad Pablo de Olavide
Sevilla España, Docente Universidad Distrital
Bogotá D.C., Colombia
1
gtarazona@udistrital.edu.co, 2vmedina@udistrital.edu.co
3
jpalacios@udistrital.edu.co
61
país en relación al Desarrollo Tecnológico con base en la Investigación
Científica y los Procesos de Innovación, con claros compromisos del
Estado para el fomento y la inversión en ciencia y tecnología, con
objetivos, metas y estrategias definidas, dentro de las cuales la
formación científica y tecnológica para el recurso humano es la partida
que incentiva la investigación en el país, como cultura acorde a la
llamada sociedad del conocimiento, donde la visión enfoca no sólo a las
temáticas de las telecomunicaciones, sino orientada a las Tecnologías de
la Información y las Comunicaciones, lo que implica un concepto más
amplio e integrado de desarrollo. Este artículo presenta los elementos
esenciales del nuevo marco normativo que posibilitara la investigación
y el desarrollo en Colombia y la mediación de las TIC en tal propósito.
1 Introducción
2 Marco Normativo
La Ley sobre Ciencia, Tecnología e Innovación fue creada con el fin de establecer
unos parámetros legales genera el ambiente de consolidar una cultura investigativa
que sustente el desarrollo social, económico, político y cultural en Colombia.
Ley 29 de1990 inicia generado con pocos artículos, lo cual se puede justificar
porque es la primera Ley de esta índole que se establece. Con el pasar de los años esta
Ley viene a ser modificada y sustituida por la Ley 1286 de 2009, la cual es más
específica y robusta respecto a la anterior, donde mantiene el compromiso del
gobierno y de entidades privadas, y además plantea los objetivos a cumplir en caso de
implementarla.
62
Tabla 1. Comparativo estructura de las leyes de ciencia y tecnología (ley 1990 - ley 1286 2009).
63
estado como para las demás entidades. Al tener esta Ley nuevas más específica,
establece roles en diferentes entidades del gobierno, a quienes les asigna unos
objetivos a cumplir a cabalidad, y de los cuales depende el desarrollo de la ciencia y
tecnología, y el cumplimiento de la misma ley. Ahora bien, no solo es un problema de
más normatividad, sino de mecanismos que buscan institucionalizar y generar
apropiación de los procesos de Innovación y Desarrollo en las políticas estatales de
Colombia. Tal como se aprecia, la Ley 1286, define no solo una estructura
organizacional de Colciencias, sino también define otros mecanismos de
funcionamiento, que garantiza el cumplimiento de la misma.
Con base a lo dicho por Jaime Restrepo Cuartas [1], autor de la iniciativa
legislativa ―la nueva ley eleva a Colciencias a la categoría de un departamento
administrativo de orden nacional. Aumenta los recursos para investigación al uno por
ciento del Producto Interno Bruto, PIB, cuando estábamos en el 0.19 por ciento.
Busca la regionalización de la ciencia, en los departamentos de menor desarrollo y
apoya la unión con el sector productivo. Crea los consejos regionales de tecnología,
autoriza a los gobiernos locales y regionales a crear instancias que manejen el tema; y
todos los departamentos tendrán representación en el Consejo Nacional‖
Se muestra el crecimiento de la importancia de la Ciencia, de la tecnología y de la
innovación, no solo en los departamentos del país más desarrollados, sino también en
aquellas regiones y poblaciones rurales, que tiene la oportunidad de demostrar su
conocimiento en este ámbito.
En términos de Pérez [2] la nueva Ley orienta la educación superior, dando
importancia a la educación por excelencia que direcciona procesos de investigación,
donde desde la enseñanza se estimula la investigación, la generación de conocimiento
y el acceso a las tecnologías de la Información, como medio de integración de saberes.
Igualmente, para este autor, se observa un incremento en el número de profesionales
que contribuyen a la generación de conocimientos, lo que permite que tanto
académicos como empresarios accedan a nuevas ―rutinas tecnológicas‖.
La nueva ley cambiará el modelo productivo colombiano, pues se generan más
recursos para la investigación, fortalecerá el proceso de regionalización de la ciencia y
dará solución a los constantes problemas que existen en la relación entre el sector
empresarial y científico del país. “Esta ley busca darle un valor agregado a todos los
productos y servicios en el país y crear una nueva industria nacional de base
tecnológica, que posibilite el desarrollo productivo a largo plazo y ofrezca empleos
más estables a los colombianos”. [3]
64
la prestación de todos los servicios de telecomunicaciones indistintamente. Este
cambio normativo, el más importante en el sector en los últimos 20 años, recoge los
principios de política que ya había plasmado el entonces Ministerio de
Comunicaciones en el decreto 2870 de 2007.
Uno de los puntos más importantes, es la visión enfocada no sólo a las temáticas de
las telecomunicaciones, sino orientada a las Tecnologías de la Información y las
Comunicaciones, lo que de suyo implica un concepto más amplio e integrado. Durante
más de diez años, el sector discutió y esperó una ley que entendiera los fenómenos
convergentes que estaban transformando el sector de las telecomunicaciones, y que de
alguna manera no permitían una claridad en las reglas del juego para todos los
operadores.
Esta Ley 1341 de 2009 tiene un significado muy importante, pues después de 10
años de debates sectoriales se materializa esta iniciativa, en una ley que no sólo abarca
el sector de las telecomunicaciones, sino que lo integra como uno solo en el sector de
las Tecnologías de la Información y las Telecomunicaciones, generando así un marco
normativo convergente y con condiciones equilibradas para todos los operadores. De
tal forma, que se garantiza el derecho a la comunicación, la información y el acceso a
las TIC en un marco de inclusión social, con diferentes proyectos [4].
Desde el Ministerio de TIC, deberá desarrollarse la reglamentación que permita el
cumplimiento de los fines de incorporación de todos los colombianos, a la sociedad de
la información, mandato supremo de la ley.
65
Director General, quien será nombrado por el Ministro de Tecnologías de la
Información y las Comunicaciones, por un período de cuatro (4) años, reelegible por
una vez. El Gobierno Nacional a través del Ministerio de Tecnologías de la
Información y las Comunicaciones reglamentará la materia.
3.1 Oportunidades
El interés que se muestra por parte del gobierno nacional por apoyar la actividad
investigativa en ciencia y tecnología, como una vía para generar competitividad en la
industria colombiana. Al implementar un nuevo mecanismo de financiación basado en
recursos provenientes del Fondo Nacional de Regalías, es posible crear un mayor
nivel de desarrollo en las regiones, y disminuir en cierta manera la inequidad que en la
actualidad se vive en relación con la repartición de los recursos públicos.La propuesta
de hacer que el desarrollo del conocimiento no sea exclusivo de los entes académicos
del país sino también del sector productivo nacional. La generación del nexo entre la
academia, el Estado y la empresa debería resultar muy productiva, tal y como ocurre
en países industrializados. Su cumplimiento conllevaría a la competitividad de la
industria que en últimas lleva al mejoramiento de la calidad de vida de la sociedad y
estos réditos son bien distribuidos y no quedan en pocas manos. La creación de
unidades regionales de investigación científica e innovación permite que en realidad
exista un lineamiento de desarrollo regional y descentralización, lo cual se ha
discutido durante mucho tiempo pero no se ha materializado en acciones
concretas.Una mayor sinergia entre los entes relacionados con la labor de impulsar el
desarrollo de la ciencia y la tecnología, pues al darle a COLCIENCIAS el carácter de
Departamento Administrativo, y permitir que asista a los CONPES, existe una mayor
interlocución con instituciones de sector político así como educativo. Esta
66
participación más activa permite que se le dé una mayor relevancia a las actividades
relacionadas con el impulso de la ciencia y la tecnología, además que se puede influir
en la orientación que tengan las políticas gubernamentales.
La creación del Consejo Nacional de Beneficios Tributarios en Ciencia, Tecnología e
Innovación se convierte en un mecanismo importante para estimular la inversión en
tecnología al interior de las empresas e instituciones educativas.
3.2 Retos
La nueva Ley de Ciencia y Tecnología soporta toda una estructura que puede ser
totalmente ineficaz sino es apoyada con los recursos necesarios para implementar la
infraestructura adecuada para lograr todo lo propuesto, o si no se cumple a cabalidad
con ello. Esto afectaría negativamente al país por las expectativas generadas con su
creación, que de por sí era urgente fuese efectuada.
Con la nueva potestad que se le otorga a las Asambleas departamentales y Concejos
municipales para ordenar la creación de unidades regionales de investigación
científica e innovación, existe el riesgo de que se levanten barreras contra ello pues
los recursos para su realización deben provenir de sus fondos regionales de fomento.
A menos que el Gobierno entregue una mayor cantidad de partidas por este concepto,
los departamentos y municipios pueden encontrarse con limitaciones para cumplir con
la creación de dichas instituciones.
La concepción de los empresarios colombianos de ver a la investigación, desarrollo e
innovación como un gasto, o una inversión con rendimientos mínimos, y no como un
mecanismo para la elaboración de productos y prestación de servicios con valor
agregado, que únicamente se logra a través de la generación de conocimiento. Lo
anterior se convierte en una limitante a la ley, que contempla al sector empresarial
como uno de los pilares fundamentales para el desarrollo del modelo productivo
sostenible que se busca establecer en el país.
Se encuentra una deficiencia en el alcance que tiene la nueva Ley y es que no existe
una posición clara en términos de la destinación que se haga del PIB a Ciencia y
Tecnología, lo cual no se comenta en el texto aprobado por el Congreso.
Consideramos que esta situación puede generar dificultades en el largo plazo, pues se
convertiría en una política del gobierno de turno, y no de Estado, como debería ser.
67
beneficiarios preparados que utilicen las TIC, se puede lograr una verdadera
transformación económica y social. [5]
Un dominio amplio de estas tecnologías en el sector público y privado es una
condición necesaria para reducir la pobreza, elevar la competitividad y alcanzar el tan
ansiado desarrollo sostenido de los países. De ahí que es necesario adoptar una serie
de acciones y estrategias que permitan la expansión y adecuación del uso de las TIC
en los diferentes sectores de la comunidad y en particular la vinculación de las
personas quienes generaran nuevas formas de desarrollo. [6]
Muchos gobiernos de países desarrollados y emergentes han tratado de avanzar
durante los últimos años hacia un modelo de desarrollo que se ha denominado la
Sociedad del Conocimiento (SC) en concordancia con la Cumbre Mundial de la
Sociedad de la Información (http://www.itu.int/wsis/index-es.html) que involucra y
fortalece los sectores productivos, económico y social. Para ello, se han desplegado
diferentes planes y estrategias para impulsarlo.
Los países que han adoptado planes estratégicos de TIC han avanzado más
rápidamente en los ejes de acción establecidos como prioritarios. Ejemplo de ello son
la Unión Europea (Plan Avanza2) [7] y países como Finlandia, Corea, Singapur,
Estados Unidos, Canadá y en Latinoamérica [6] y Chile entre otros. Todos ellos han
implementado progresivamente planes de TIC exitosos que les han asegurado los
primeros lugares no solamente en los indicadores de preparación para el modelo de la
Sociedad de la Información y del Conocimiento (SIC), sino también en aquellos que
miden la competitividad.
Hay que desarrollar mecanismos para que se pueda ejercer una coordinación
interinstitucional entre las distintas entidades del Gobierno que deben participar en él,
al igual que con el sector privado, la academia, los centros de investigación y la
sociedad civil.
Para ello se requiere un modelo institucional que asegure esa permanencia y
68
coordinación. Este modelo debe además tener un fuerte componente de participación
y responsabilidades regionales, tanto en el manejo de los programas y proyectos como
en los recursos que se destinen a ellos; y que desarrolle sus actividades en completa
alineación con el Sistema Nacional de Competitividad, coordinado por la Alta
Consejería para la Competitividad. Ejemplo de ello, es el programa PlanEsTIC del
Ministerio de Educación, el cual busca fortalecer el uso TIC en los procesos
educativos de las instituciones de Educación Superior
(http://comunidadplanestic.uniandes.edu.co/), caso similar ser observa con los
proyectos de la Corporación Colombia Digital (http://colombiadigital.net/) proyectos
orientados al sector educativo, productivo y gubernamental.
Eje de Educación
Programa de Uso de Medios y Nuevas Tecnologías.
Componente uso de TIC.
Computadores para Educar.
Fortalecimiento de la Red Nacional Académica de Tecnología Avanzada
Innovación Educativa en e-learning.
Servicio Nacional de Aprendizaje.
Eje de Salud
Sistema Integral de Información de la Protección Social.
Telemedicina.
69
Eje de Justicia
Modernización Tecnológica de la Administración Judicial.
Ahora bien, estos ejes definidos por el Plan TIC para Colombia, encuentra un
mayor soporte y respaldo con la Ley 1341 de TIC, en la medida que se fortalecerá la
puesta en marcha los diferentes ejes mencionados. Es así como desde la perspectiva
de la Ley se definen las TIC como ―conjunto de recursos, herramientas, equipos,
programas informáticos, aplicaciones, redes y medios que permiten la compilación,
procesamiento, almacenamiento, transmisión de información como: voz, datos, texto,
video e imágenes‖ (Articulo 6), de tal forma que estos ejes son considerados por la
Ley. Es de observar, que desde el gobierno Nacional, Colombia progresivamente se
ha involucrado en la llamada Sociedad de la Información, iniciando con el proyecto
de la Agenda de Conectividad, que hoy se enmarca en el proyecto de Gobierno en
Línea y por lo tanto en la nueva Ley.
De acuerdo con lo anterior las IES, debe iniciar y fortalecer programas y planes
estratégicos de TIC, con el firme propósito de generar proceso de inclusión social,
democratización en el acceso a la información y redes de conocimiento, así como
también, apoyar programas y proyecto de investigación que reduzca la brecha
tecnológica y ampliando cobertura de calidad mediada por las TIC.
De otra parte y como una característica propia de las TIC, la descentralización de
procesos y la ruptura de la relación tiempo - espacio, permite y facilitan el intercambio
de información, conocimientos, junto con la aparición de redes interorganizacionales,
de tal forma que se logra un mayor y más eficiente acercamiento de las IES con el
sector productivo y la sociedad. Ejemplo de ello, se observa con proyectos como:
PlanEsTIC, representado por la creación del Plan Estratégico en TIC para la IES
(http://comunidadplanestic.uniandes.edu.co/), o bien UDtecnovirtual
(http://www.udtecnovirtual.org/) proyecto de Universidad Distrital, igualmente para
las empresas está entre otros el proyecto de Colombia Digital
(http://colombiadigital.net), Colnodo (http://colnodo.org/index.shtml?apc=I1----
&s=s&m=I), proyectos que se orientan procesos de inclusión social.
Son solo estos un par de ejemplos del sin número de acciones que se están
desarrollando y que se deben desarrollar en el marco de la Ley y del Plan de TIC,
proyectos y programas que deben tener un visión integradora y convergente, con la
participación de la Universidad, la Industria y la Políticas Gubernamentales.
Las IES por su parte cuentan con un importante número y valiosos talento humano,
que está capacitado y en formación para procesos de Investigación, Desarrollo e
Innovación, por su parte del Industria demanda desarrollo de tecnología, aplicaciones
informáticas, gestión y almacenamiento de información, entre otras necesidades y por
su parte la Ley de TIC, fomenta precisamente este tipo de requerimientos y es aquí
donde se deben crear redes interorganizacionales e intersectoriales.
70
5 Investigación Desarrollo e Innovación
5.1 Inversión
71
para desarrollar avances en este ámbito a nivel nacional, regional y de parte las
poblaciones rurales, que demostraría un desarrollo en este aspecto sin importar las
condiciones de la persona que se interese por fomentar el conocimiento.
El presupuesto es un aspecto condicional, para que todos esos estudios y alcances
se hagan realidad, por eso es importante que Colciencias, como representante,
gestione el aumento de recursos económicos, tecnológicos y espaciales, para poder
levar a cabo el desarrollo de los proyectos y así mostrar las diferentes propuestas de
las personas dedicadas a este tipo de estudios.
6 Universidad –Empresa
72
habilidades que la empresas requieren, acciones realizada en conjunto)
La nueva ley no contempla la participación de las universidades públicas como los
entes académicos del estado para la administración de las actividades, los fondos y
demás de la ciencia, la tecnología y la innovación del país, que puede generar
preguntas a cerca de la imagen distorsionada actual de la universidad pública que
puede verse relegada a participaciones de peso como lo establecido en la Ley 1286 de
2009 en donde no se define ninguna responsabilidad para las universidades públicas,
solo las alianzas estratégicas de universidad - empresa como objetivo No 8 del
Sistema Nacional de Ciencia, Tecnología e Innovación - SNCTI-. Difiriendo con el
decreto 585 de 1991 en el que claramente se definió las responsabilidades del rector
de la Universidad Nacional, así como la asignación de responsabilidades a un rector
de la universidad privada.
Referencias
Restrepo C., "La Crisis Económica y la nueva Ley de Ciencia, Tecnología e Innovación Ley
1286 de 2009 - Debate Nacional - Desarrollo," Bogotá, D.C, 2009.
Pérez T. J, "Universidad y gerencia en el medio internacional," Universidad & Empresas,
Universidad del Rosario, vol. 17, pp. 156 - 182, 2009.
Universidad Nacional, "Ley de Ciencia, Tecnología e Innovación Cambiará modelo de
productividad colombiano." vol. 2009, 2008.
CINTEL, "Panorama de las Tecnologías de la Información y la Comunicaciones en Colombia,"
Bogotá D.C., Ed., 2010.
Mohsen K. Philippe D., "Visión General - Cap 1," Información y Comunicación para el
Desarrollo 2009 - Banco Mundial, 2009.
Pineda M., "Desafíos actuales de la sociedad del conocimiento para la inclusión digital en
América Latina," Anuario electrónico de estudios en Comunicación Social, vol. 2, 2009.
Gobierno de España, "Estrategias 2011 - 2015 Plan Avanza2," 2010.
Ministerio de Comunicaciones, "Plan Nacional de Tecnologías de la Información y las
Comunicaciones 2008 - 2019," 2008.
Colciencias, "Generación del Bicentenario," Bogotá, D.C., 2009.
Colciencias, "Colombia Construye y Siembra Futuro - Política Nacional de Fomento la
Investigación y la Innovación," Bogotá D.C., 2008.
Alvarado B. Aida, "Vinculación Universidad - Empresa y su Contribución al Desarrollo
Regional " Revista de Sociedad, Cultura y Desarrollo Sustentable, vol. 4, pp. 407 - 414,
2009.
J. Bruner, "Relación Empresa-Universidad: una grieta a sellar." vol. 2010, 2009.
CINTEL, "ESPECIAL: Ley 1341 de 2009: Una mirada a la nueva ley de TIC." vol. 2010,
2009.
73
humano, los recursos de biodiversidad material amplio estudio y aplicación, y ahora la
mayor asignación de recursos financieros que recrean el escenario perfecto dirigido
hacia cultura de la investigación en la era del conocimiento.
Promover la ciencia y la tecnología siempre será una necesidad crítica, y la
creación de esta ley debe convertirse en un instrumento que permita que la cultura de
la investigación se apropie al interior de las instituciones educativas y las
organizaciones productivas, motor del crecimiento y desarrollo de los países y que se
incluya en los planes estratégicos de cada institución
La nueva Ley de Ciencia y Tecnología genera muchas expectativas en todos los
ámbitos. Se esperaría que aspectos como la calidad de la educación, el fortalecimiento
de la capacidad científica, tecnológica y de innovación se impulsen de manera
importante, ya que en realidad éstos son unos de los principales indicadores de
medición que permitirían determinar si el impacto de esta Ley es el esperado.
Las Universidades son quienes prevalentemente están llamadas a vigilar el
cumplimiento de la Ley de Ciencia y Tecnología por todos los beneficios que puede
ello aportarle a sus grupos y centros de investigación. Además de ello, esta nueva Ley
permite articular de mejora manera la relación Universidad-Empresa, tan importante
para la formación integral de los estudiantes, e igualmente poco cultivada en la
actualidad.
Con la expedición de la Ley 1341, se modifica la estructura en la prestación de los
servicios de telecomunicaciones del país, migrando del esquema normativo inspirado
en la clasificación de los servicios de la UIT que se plasmó en la ley 72 de 1989 y el
decreto ley 1900 de 1990, a un modelo de título habilitante convergente, que incluye
la prestación de todos los servicios de telecomunicaciones indistintamente. Este
cambio normativo, recoge los principios de políticas que ya había plasmado el
entonces Ministerio de Comunicaciones en su decreto 2870 de 2007. [13]
Muchos son los cambios normativos, pero quizá uno de los puntos más importantes es
la visión enfocada no sólo a las temáticas de las telecomunicaciones, sino orientada a
las Tecnologías de la Información y las Comunicaciones, lo que de suyo implica un
concepto más amplio e integrado.
Es necesario plantear y discutir diferentes aspectos que permitan la sostenibilidad
del desarrollo socio-económico de un país y para lograrlo el mejor instrumento es tal
vez, la formulación y puesta en marcha de un Plan Nacional de TIC que se constituya
en una estrategia integrada, que busque obtener resultados de alto impacto, a corto,
mediano y largo plazo. Dicho Plan incluye definir y fortalecer los siguientes
elementos: Visión, misión y justificación, Políticas (Orientadas a la inclusión social,
Orientadas a la competitividad)
74
Prototipo metamodelo de integración de modelos de
procesos de negocio.
75
Investigation Metamodel of Process model integration of Business.
1 Introducción
2 Metodología
1
BPM – Business Process Management – Gestión de Procesos de Negocio
76
secuencia específica de actividades de trabajo a través del tiempo y del espacio, con
un inicio, un final y unas entradas y salidas claramente definidas: una estructura para
la acción. Los procesos describen cómo es realizado el trabajo en la empresa y se
caracterizan por ser observables, medibles, mejorables y repetitivos. La figura 1
describe elementos básicos que permiten conocer y entender cuál es el rol de cada
actividad dentro de un proceso de negocio.
77
proceso, así como sus objetos participantes a partir de la descripción dada por un
experto. Permite documentar a nivel de detalle un proceso facilitando su análisis a
través de la identificación y captura del conocimiento crítico del mismo. Proporciona
un mecanismo para recoger y documentar los procesos, captura la precedencia y las
relaciones de causalidad entre las situaciones y acontecimientos, proporcionando un
método estructurado para expresar el conocimiento acerca de cómo un sistema,
proceso, o una organización funcionan.
Los componentes fundamentales que emplea IDEF3 en su representación son:
unidad de trabajo, ligas, conexiones y referencias. En la Tabla 1 se muestra una
descripción y representación gráfica de los Componentes básicos de este Modelo.
78
estructuras organizacionales y recursos, descomposiciones funcionales, datos y
modelos de información, estrategias y reglas de negocios [4].
En la Tabla 2 se muestra una descripción y representación gráfica de los
elementos de BPMN-BPD, la cual ha sido adaptada de [4].
Intermediate
Eventos intermedios, se producen entre el inicio
y el término del evento. Indica que afectará el
flujo del proceso, pero no se iniciará o terminara
el proceso.
End
Indican donde finalizará el Proceso, el flujo de
secuencia del Proceso y por tanto no tienen
ningún Flujo de secuencia saliente.
Activity
Una Actividad es un término genérico para describir el trabajo que es ejecutado
dentro de un Proceso de Negocio. Una actividad puede ser atómica o compuesta.
Task (Atomic) - Tarea (Atómica)
Una tarea es una actividad atómica que se
incluye dentro de un proceso. Se usa cuando el
trabajo en el proceso no está roto a un mayor
nivel de detalle del Modelo de Procesos.
Process/Sub-Process (Proceso/Sub-proceso)
Un sub-proceso es una actividad compleja que
se incluye dentro de un proceso. Es complejo en
la medida en que puede dividirse en un mayor
nivel de detalles (un proceso) a través de un
conjunto de sub-actividades.
Gateway – Puerta de Enlace
Se utiliza para controlar la divergencia y
convergencia de múltiples secuencias de flujo.
Por lo tanto, determinará ramificación,
bifurcación, la fusión y unión de caminos.
79
ELEMENTO / DESCRIPCION NOTACION
Se utiliza para mostrar el orden en que las actividades se llevarán a cabo en un
proceso.
Normal Flow - flujo normal
Se refiere a la secuencia que proviene del inicio
del evento y continúa las actividades a través de
alternativas y caminos paralelos, hasta que
termina en un evento de finalización.
Conditional flow - Flujo Condicional
Puede tener condiciones que se evalúan en
tiempo de ejecución para determinar si el flujo
se va a usar. Si el flujo es condicional saliente
de una actividad, entonces la secuencia de flujo
tendrá un mini-diamante en el principio de la
línea.
Message Flow - Flujo de mensajes
Se utiliza para mostrar el flujo de mensajes
entre dos entidades que están preparados para
enviar y recibir. En BPMN, dos carriles en el
diagrama representan las dos entidades.
Swimlanes
El concepto de Swimlanes se utiliza para particionar y/o organizar actividades. Hay
dos principales tipos de swimlanes: Pools y Lane
Pool
Representa cada uno de los participantes en un
proceso.
Lanes
Es una subpartición dentro de pool, amplia la
longitud total, ya sea vertical u
horizontalmente.
Cada carril se utiliza para organizar y clasificar
las actividades.
Para obtener la información necesaria para desarrollar este aspecto, se llevó a cabo
una revisión sistemática de la literatura relacionada con las especificaciones de los
Modelos de Procesos de negocio, con el fin de identificar las características
funcionales a ser generalizadas, y parametrizar la información mínima que debe ser
80
aportada a los modelos para su correcta generación. El objetivo de esta revisión
sistemática es que a partir de investigaciones preliminares se pueda contar una base
conceptual para diseñar un Metamodelo que permita integrar modelos procesos de
negocio.
Aún cuando la mayoría de los documentos seleccionados no están directamente
relacionados con Procesos de Negocio, en Rolon [5] y Pessagno [6] se parte de la
premisa que los procesos de software y los procesos de negocio tienen ciertas
similitudes, ya que ambos tratan de capturar las principales características de un grupo
de actividades ordenadas que son llevadas a cabo para lograr una meta; de Acuña[7]
y Sharp [8] se determina que en ambos casos, el objetivo es obtener un producto para
los clientes o para otros implicados por el proceso.
En cuanto al modelado de los dos tipos de procesos, para Finkelstein [9], un
modelo de proceso software es una descripción abstracta de las actividades por las
cuales el software es desarrollado y para Dufresne [10], un modelo de procesos de
negocio describe las actividades involucradas en el negocio y la manera en que se
relacionan unas con otras e interactúan con los recursos necesarios para lograr la meta
del proceso. Wedemeijer [11], citado por Rolon [5], define al modelo conceptual del
proceso como un modelo abstracto del proceso de negocio cuyo propósito es perfilar
todas las acciones indispensables para producir los resultados esenciales.
La necesidad de una aproximación metodológica basada en el desarrollo dirigido por
modelos para la construcción de sistemas ubicuos que den soporte a procesos de
negocio, es planteada por [12], investigación en la que se llevaron a cabo estudios
sobre la repercusión que puede tener la introducción de la Computación Ubicua en
entornos gestionados por Procesos de Negocio. De estos estudios, Giner et al,
identificaron algunos beneficios de utilizar la computación ubicua, de los cuales para
el caso particular de este estudio se resaltan:
Adaptación al contexto, implica que un cambio del entorno puede disparar eventos
del Proceso de Negocio, obligando a que éste se adapte a la nueva situación. Esto
aporta un mayor dinamismo en los Procesos de Negocio, permitiendo su adaptación al
cambio sin necesidad de un rediseño completo.
Interoperabilidad entre sistemas, los Procesos de Negocio pueden involucrar a varias
organizaciones o sistemas distintos dentro de una misma organización. El Sistema
deberá ser capaz de integrar sistemas legados así como comunicarse con sistemas
externos de forma sencilla.
Por su parte, Nieto et al [13] proponen un conjunto de conceptos para evaluar
métodos de modelado para procesos de negocio utilizando tres niveles de
representación de una aplicación web organizacional, de integración y Web. El
aporte de esta investigación consiste en la identificación y clasificación de un
conjunto de conceptos los cuales son utilizados para determinar los conceptos que se
modelan en cada nivel de abstracción y para desarrollar un método de evaluación que
ayude a distinguir qué capacidades de modelado tiene un método particular en los tres
niveles de abstracción. Concluyen que considerado diferentes niveles de abstracción,
permite separar los servicios de los elementos que los proporcionan. Esta separación
permite tratar la evolución y la interoperabilidad de los sistemas de manera cómoda
Durante la evaluación y análisis de los estudios primarios se identificaron como
relevantes las siguientes características funcionales que puede servir de base para
81
diseñar un Metamodelo que integre diferentes modelos de procesos de Negocio:
Interoperabilidad
Mantenibilidad
Usabilidad
Característica
Referente
Funcional
Interoperabilidad [12][13][6][14][15][16][17][18][19]
Mantenibilidad [5][12][13][20][14][21][15][16]
Usabilidad [14][21][15][16]
4 Resultado
Tomando como referencia la estructura por niveles que define Pérez [17] y la que
propone la OMG2 [1], el Metamodelo para integrar modelos de procesos de negocio
también presenta una estructura basada en niveles de abstracción que van a permitir
distinguir entre los distintos niveles conceptuales que intervienen en el modelado de
82
un proceso de negocio.
En la tabla 4, se relacionan los niveles estructurales de estas dos arquitecturas y como
se relacionan con el Metamodelo Integrador propuesto, donde cada nivel representa el
grado de cooperación o compatibilidad entre actividades distintas:
Nivel 3: Integración
Nivel M2: Metamodelo
de Procesos
Nivel 2: Servicios de
Integración
Nivel 4: Integración Nivel M3: Meta-
Externa Metamodelo
83
4.2 Capa de Servicios.
84
uno de los procesos del Negocio. Por lo tanto debe implementar las rutinas necesarias
para acceder a los modelos inter-empresa y/o inter-empresas.
85
envíe esta información al paquete PARSER, para hacer la conversión respectiva, la
cual quedara almacenada en otro archivo de salida Homologado XMI. A
continuación se explica en detalle cada uno de estos paquetes.
Al igual que en el caso anterior, el estándar BPMN define una serie de símbolos
que permiten especificar las actividades de un Proceso de Negocio, que se desea
modelar. La notación planteada por BPMN, se encuentra detallada en la Tabla 2.
En este estándar, las actividades se encuentran organizadas teniendo en cuenta el
participante encargado de ejecutarla. Por lo tanto, en BPMN, un proceso de negocio
86
se encuentra conformado por un conjunto de participantes, cada uno de los cuales
especifica las actividades o tareas que desarrolla. La secuencia de actividades está
determinada por un flujo que determina qué o quién continua con la ejecución de la
tarea.
En la figura 6, se plantea el Metamodelado encargado de interpretar un modelo
desarrollado con la notación específica de uno de los lenguajes estándar para la
ejecución de procesos BPMN.
Hasta el momento lo que se ha planteado, son dos metamodelos que van a permitir
interpretar un modelo que ha sido diseñado previamente utilizando uno de los
estándares más ampliamente difundidos.
Ya se ha enunciado que el objetivo primordial del Metamodelo integrador, es
precisamente contar con un modelo que permita integrar diferentes modelos de
proceso de negocio. Vale la pena aclarar, que los modelos pueden utilizar el mismo o
diferente estándar. Para poder realizar esto, se plantea el Metamodelo Homolog,
figura 6, el cual tiene como objetivo, proporcionar un mecanismo de homologación de
los símbolos utilizados en el diseño original, el cual debe estar previamente
interpretado por el Metamodelo BPMN o por el Metamodelo IDEF3.
87
Fig 6. Metamodelo Homolog (Homologador)
Este Metamodelo debe contar con una tabla de Homologaciones, que informa que
símbolo de un estándar se homologa con qué símbolo del otro estándar. Los
metamodelos BPMN e IDEF3, fueron diseñados de tal forma que los nombres de las
clases fueran fácilmente homologables. Cuando existen símbolos específicos para
cada estándar, se plantea la incorporación de Interfaces, que facilitan el proceso de
Homologación.
88
Fig 4. Metamodelo Parser (Convertidor)
6 Conclusiones
89
Referencias
90
al modelado de procesos del negocio. Revista Española de Innovación, Calidad e
Ingeniería del Software, Vol.4, No. 1.
21. Rolon, E., et al (2007). Familia de Experimentos para validar medidas para Modelos de
Procesos de Negocio con BPMN. Keynote Quality Metrics For Business Processes
PNIS‘07.
22. ISO (2001) . ISO/IEC 9126-1, Software Engineering. Product Quality. Part 1: Quality
Model.
91
Algoritmos Matemáticos para fusión de imágenes
satelitales.
Rubén Javier Medina Daza 1-2, Luis Joyanes 2, Carlos Pinilla 3, Sandra
Velazco 2
1) Universidad Distrital Francisco José Caldas, Bogotá D.C., Colombia, 2)
Universidad Pontificia de Salamanca, Madrid, España. 3) Universidad de Jaén. Jaén,
España.
1) rmedina@udistrital.edu.co, 2) luis.joyanes@upsam.net, 3) cpinilla@ujaen.es
93
software. In this article one presents the study of the mathematical
algorithms for the merger of images.
1 Introducción
El principal objetivo de las técnicas digitales es procesar una imagen de forma que
resulte más adecuada que la original para una aplicación específica.
El procesamiento de los datos digitales se enfoca a lograr tres objetivos básicos:
Corrección de los datos, Realce de la información original y clasificación o extracción
de información. En una alta proporción, los datos suministrados por la agencias
distribuidoras de datos en forma digital, realizan las correcciones básicas tanto
geométricas como radiométricas; no obstante, algunos procesos requieren datos
brutos, para lo cual el usuario adquiere este tipo de producto, quedando a su cargo la
corrección del mismo.
La fusión de imágenes es una respuesta a la frecuente necesidad de tener en una
sola imagen datos de alta resolución espectral y espacial a partir de imágenes
multiespectrales y pancromáticas de diferente resolución espacial y diferentes
sensores remotos. La fusión permite obtener información detallada sobre el medio
ambiente urbano y rural, útil para una aplicación especifica en estudio.
Los procedimientos convencionales de fusión de imágenes están basados en
diferentes técnicas, tales como la transformación RGB a IHS, la transformación de
Brovey, la transformación de componentes principales, entre otros. En los últimos
años se ha empezado a experimentar un procedimiento que usa la transformada de
Wavelet en dos dimensiones y diversos autores han reportado que dicha aproximación
conserva la riqueza espectral de las imágenes originales.
En este trabajo se realiza la revisión de los algoritmos matemáticos de los métodos
tradicionales de fusión de imágenes, los fundamentos matemáticos de la
descomposición de Wavelet, los conceptos básicos de las técnicas emergentes de
fusión, basada en Wavelet.
2 Fusión de imágenes
La fusión de imágenes es una técnica digital que tiene por objetivo mejorar una
imagen multiespectral y así potenciar su uso en diversas aplicaciones. Para ello se
combinan los datos de una imagen pancromática (o una imagen de radar o de otro
sensor no óptico) de alta resolución espacial con los de una imagen multiespectral de
alta resolución espectral. El resultado final es una nueva imagen en la cual se ha
conservado una buena parte de la riqueza espectral original y se ha ganado resolución
espacial.
La fusión de imágenes se puede usar para:
94
Mejorar la corrección geométrica de una imagen
Realzar elementos que no son visibles en una imagen
Complementar datos para mejorar una clasificación
Detectar cambios en una zona usando datos multitemporales
Reemplazar datos anómalos de una imagen
Adicionar datos faltantes en una imagen
La fusión de imágenes se puede realizar por diferentes métodos, según sea el lugar
donde se ejecuta, en la cadena de producción de información espacial:
A nivel de datos
A nivel de objetos
A nivel de decisiones
3
Píxel es el elemento mínimo que conforma una imagen. Píxel es una contracción de picture
element.
4
La frecuencia espacial es una medida de la variación del nivel digital de una imagen en
función de la distancia.
95
Transformar la imagen resultante en el dominio original de la imagen
Registrar una composición a color RGB de la imagen multiespectral con una imagen
pancromática, usando el mismo tamaño de píxel de esta última.
Transformar los componentes RGB en componentes IHS (Intensidad Matiz y
Saturación)[1].
Ajustar el histograma de la imagen pancromática al histograma de la componente I.
Reemplazar el componente I por la imagen pancromática.
Realizar la transformación inversa IHS a RGB
n 1 i 1
V I 0 , los valores propios de V son las soluciones de la ecuación
característica, para obtener el porcentaje de varianza por cada componente Principal
%VCPi . Para hallar los espacios propios asociados a cada valor propio se
96
Vecino más cercano.
Usa el valor del pixel más cercano para asignar al valor de pixel de salida, el cual deja
el valor del pixel igual al valor digital en cada posición.
Interpolación bilineal
Usa el valor de los niveles digitales de la ventana de 2x2, el promedio de los cuatro
pixel es el valor de salida.
Convolución cubica.
Usa los valores de los niveles digitales de la ventana de dieciséis pixel en 4x4, el
promedio de estos pixeles es el valor de salida para generar la nueva banda.
Este método se basa en obtener una nueva imagen RGB usando la Transformada
de Brovey que combina tres bandas originales de una imagen multiespectral con la
imagen pancromática.
El algoritmo usado es:
97
Rijk Imagen fusionada
H ijijk Imagen pancromática
M
Para generar las nuevas imagenes fusionadas se usan las tecinas, vecino más
cercano, interpolación bilineal y convolución cubica.
Rijk M ijk * H ij
En donde,
4 LA TRANSFORMADA DE WAVELET
98
La descomposición wavelet es un proceso iterativo, con sucesivas aproximaciones,
la cual recibe el nombre de descomposición de árbol.
La imagen original es descompuesta en coeficientes de aproximación (A1) y
coeficientes de detalle (D1). Los coeficientes de aproximación (A1) se descomponen
en nuevos coeficientes de aproximación (A2), y coeficientes de detalle (D2). Los
coeficientes de aproximación (A2), se pueden descomponer en nuevos coeficiente de
aproximación (A3) y detalle (D3) y así sucesivamente. Para recuperar la imagen
original se adiciona la última descomposición de los coeficientes de aproximación con
cada una de las descomposiciones de los coeficientes de detalle, tal como se muestra
en la Imagen 9.
99
espacial de la imagen multiespectral es preservada. Así, la gran ventaja del método de
adición es que la información de detalle de ambos sensores es usada.
Como parte de esta investigación se tomo una zona de estudio, sobre la cual se
aplicaron los métodos anteriormente estudiados y posteriormente se realizo la
evaluación de los resultados obtenidos. Los pasos son los siguientes:
ZONA DE ESTUDIO
100
685.
Fig 10. Imagen RGB (143) Izq. Imagen Pancromática Der. Corresponde al parque
metropolitano Simón Bolívar, 2048 de ancho por 2048 de alto
Coeficiente de correlación de Pearson, mide la relación lineal, que nos sirve para
resumir dos variables cuantitativas de manera conjunta, es el cociente entre las
covarianzas de las dos imágenes entre las variabilidades de la dos imágenes de las
S AB
dos desviaciones típicas, es decir r , no tiene unidades y el rango está
S A SB
definido 1,1 , cuando es positive significa que a medida que crece una variable la
otra también, cuando es negativo significa que a medida que crece una variable la otra
decrece.
Una correlación de +1 significa que existe una relación lineal directa perfecta
(positiva) entre las dos variables. Es decir, las puntuaciones bajas de la primera
variable (X) se asocian con las puntuaciones bajas de la segunda variable (Y),
mientras las puntuaciones altas de X se asocian con los valores altos de la variable Y.
Una correlación de -1 significa que existe una relación lineal inversa perfecta
(negativa) entre las dos variables. Lo que significa que las puntuaciones bajas en X se
asocian con los valores altos en Y, mientras las puntuaciones altas en X se asocian con
los valores bajos en Y.
Una correlación de 0 se interpreta como la no existencia de una relación lineal
entre las dos variables estudiadas.
En la siguiente tabla se muestra la correlación entre las imágenes fusionadas por
métodos convencionales y transformada de wavelet realizado en Erdas y por el
http://www.bogota.gov.co/vis/public%20simon%20bolivar/parque%20simon%20bolivar.htm
l, fecha 03-03-2010
101
método wavelet respecto a las imágenes originales, Ikonos multiespectral y la Ikonos
pancromática usando Matlab.
102
Fig 11.Comparacion de un extracto de la imagen original con diferentes imágenes
fusionadas
103
7 Conclusion
De acuerdo con los resultados obtenidos en el presente trabajo se pueden realizar las
siguientes conclusiones:
Referencias
104
Sistema Integrado de Información para el Régimen
Subsidiado de Salud en Colombia
1 Introducción
105
nacional, se decidió desarrollar un prototipo que ofreciera una solución a los
principales problemas del sistema administrativo de las EPS-S, ayudando a la toma
de decisiones y mejorando los tiempos de respuesta en cuanto a solicitudes
presentadas por los pacientes, buscando el acercamiento de las instituciones hacia las
diferentes zonas a través de una plataforma en línea.
2 Problemática
Entre los problemas que presenta el Sistema General de Seguridad Social en Salud
(SGSSS) en Colombia se encuentra la calidad de la información que manejan6, dada la
experiencia práctica que se presenta en entidades como Caprecom, Capresoca y
Emdisalud, se puede observar que los sistemas de información de salud en estas
entidades no cuentan con los datos necesarios para proveer apoyo a las necesidades a
nivel de gestión. Una gran parte de estos datos que son registrados y reportados por el
personal de los servicios de salud son poco útiles a la hora de tomar decisiones debido
a que en muchos casos estos son incompletos, obsoletos, de poca fiabilidad y no están
relacionados con las prioridades, tareas y funciones de los trabajadores de salud [1]7.
Por ejemplo, cuando se realizan las matrices de Promoción y Prevención 8 la
funcionalidad actual de los sistemas de información sólo se centra en la identificación
de la cantidad de personas a las cuales se les promueven dichas actividades, pero no
permite discriminar individualmente, ni hacer revisiones en cada ciclo de evaluación
para determinar si siempre es la misma población la que queda excluida.
De esta forma, la falta de consistencia y calidad de los datos de la población
afiliada que se presenta en los sistemas de información en salud dificulta la vigilancia
y el control y, facilita la proliferación de duplicados y multiafiliaciones en el Sistema 9,
causando traumatismos de toda clase tanto para la institución como para las personas.
A lo anterior se suma la falsificación de los documentos de afiliación a las EPS-S que
ocasiona a los prestadores, pérdidas, dado que no pueden hacer los cobros por los
servicios prestados hacia el supuesto responsable del pago.
6 La información debe ser oportuna, actualizada, exacta, completa y accesible para que se
entienda como información de calidad.
7 En Colombia para la solicitud de autorizaciones en lo que se conoce como sistema de
referencia y contrarreferencia, digitar la información no es responsabilidad de los médicos ni
de un profesional de la salud, por lo que es posible que la información que se introduzca no
sea fiable o este incompleta por problemas de legibilidad y estructura.
8 Las matrices de promoción y prevención muestran la relación entre los servicios prestados y
la población atendida. Los servicios de promoción y prevención comprenden las actividades,
procedimientos e intervenciones que permiten identificar en forma oportuna enfermedades,
facilitando el tratamiento oportuno, evitando secuelas, incapacidades y muerte.
9 MINISTERIO DE LA PROTECCIÓN SOCIAL. Resolución 890 de 2002.
MINPROTECCION, 2002.
106
muerte‖ 10, que se produce por la negación de prestación de servicios ante el temor de
las IPS de la no remuneración de la atención prestada y por la ―tramitología‖ en la que
incurren los familiares, e inclusive el mismo paciente para la solicitud de
autorizaciones de los procedimientos, que incluye en muchos casos el desplazamiento
hacia los centros de atención al usuario de las EPS-S y que se agudiza cuando la
atención se presenta fuera de la zona de cobertura.
Otro aspecto importante que hay que tener en cuenta es que los sistemas de
información van mucho más allá que el diseño y desarrollo del subsistema
informático. Un sistema de información puede definirse como "un conjunto de
componentes interrelacionados que permiten capturar, procesar, almacenar y distribuir
información para apoyar la toma de decisiones y el control de una institución" [2] por
lo que la calidad de los subsistemas informáticos deben permitir a los directivos y al
personal analizar problemas, visualizar cuestiones complejas, crear nuevos productos
en un ambiente intensivo de información, y brindar información que les faciliten la
toma de decisiones en cada uno de los procesos internos de una EPS-S, como el perfil
epidemiológico, costo por paciente y por municipio, entre otros.
3 Marco Teórico
Normatividad [3]
107
fin de establecer la dinámica propia del SGSSS13; la normatividad vigente con
relación a los procesos sobre la prestación de servicios de salud está reglamentado
mediante la resolución 3374 de 2000 la cual reglamenta los datos básicos que deben
reportar los prestadores de servicios de salud y las entidades administradoras de
planes de beneficios sobre los servicios de salud prestados a sus afiliados en la que se
define básicamente la estructura del registro individual de prestación de servicios de
salud – RIPS - a partir de los cuales las EPS14, EPS-S15 y entidades del orden
territorial y nacional podrán obtener información acerca de su población y a su vez
gestionar el sistema de pagos en la relación EPS ó EPS-S y su red prestadora (IPS,
profesionales independientes o los grupos de práctica profesional), y define los
procesos informáticos16 que se deben ejecutar como son actualización, validación,
organización, administración de la base de datos, transferencia de datos y disposición
de información.
En cuanto al registro de afiliación y lo concerniente a requerimientos mínimos de
información de los afiliados se reglamentó mediante la resolución 812 de 2007 a
cargo del Ministerio de la Protección Social estableciendo la necesidad e importancia
de definir las estructuras de datos que permita la consolidación de la Base de Datos
Única de Afiliados (BDUA) con el fin de dar cumplimiento a lo dispuesto en el
artículo 8 del Decreto 2280 de 2004 y garantizar la calidad y oportunidad de la
información de los afiliados al SGSSS17, y que mediante el artículo 3 determina la
disposición, mantenimiento, soporte y reporte de información por parte de la EPS 18 y
que mediante el artículo 4 de la misma ley y posterior modificación mediante el
artículo 1 de la resolución 123 de 2008 19 en la que establece la conformación y
actualización de la Base de Datos Única de Afiliados (BDUA) establece la
responsabilidad del manejo y reporte de novedades de sus afiliados a los entes
territoriales para EPS-S20 o Fidufosyga (Administrador del fondo fiduciario del fondo
de solidaridad y garantía) para EPS ó EOC21, finalmente, mediante los artículos 10 y
1122 se establecen la reserva del manejo de los datos y disposición de la información
respectivamente.
108
4 Antecedentes
109
5 Metodología
Fig 5. Proceso Unificado (UP), relación entre las fases del proyecto y las disciplinas
técnicas que se abordan en cada una de las iteraciones.
110
6 Desarrollo
23
Para mayor información visitar el sitio web http://www.cavsi.com/preguntasrespuestas/que-
es-un-navegador-web/.
24
Para mayor información visitar el sitio web http://www.mozilla.com/firefox/.
25
Para mayor información visitar el sitio web
http://www.microsoft.com/spain/windows/internet-explorer/.
26
Para mayor información visitar el sitio web
http://www.cibernetia.com/manuales/instalacion_servidor_web/1_conceptos_basicos.php.
27
Para mayor información visitar el sitio web http://tomcat.apache.org/.
28
Para mayor información visitar el sitio web http://www.w3.org/Style/CSS/.
29
Para mayor información visitar el sitio web http://www.w3schools.com/html/default.asp.
30
Para mayor información visitar el sitio web http://docs.sun.com/source/816-6408-
10/contents.htm.
111
Esta presentación es generada desde el núcleo de la aplicación (software de
SIRESS), que está desplegada en el Servidor de Aplicaciones 32 (Enhydra
Application33), el cual brinda seguridad, manejo de concurrencia y escalabilidad al
sistema.
La aplicación se rige por el estilo arquitectónico denominado Modelo-Vista-
Controlador34 para la implementación de la dinámica encontrada en la funcionalidad
del SGSSS; en cuanto a los componentes estáticos del SGSSS, estos están plasmados
en la Base de Datos (PostgreSQL35), y se manipulan usando la implementación del
Patrón DAO36; y así, ser coherentes con las buenas prácticas de Desarrollo Web. [6]
31
Para mayor información visitar el sitio web
http://www.adobe.com/es/products/acrobat/adobepdf.html.
32
Para mayor información visitar el sitio web
http://www.bestpricecomputers.co.uk/glossary/application-server.htm.
33
Para mayor información visitar el sitio web http://www.enhydra.org/.
34
Para mayor información visitar el sitio web http://heim.ifi.uio.no/~trygver/themes/mvc/mvc-
index.html.
35
Para mayor información visitar el sitio web http://www.postgresql.org/.
36
Para mayor información visitar el sitio web
http://java.sun.com/blueprints/corej2eepatterns/Patterns/DataAccessObject.html.
37 Para más información visitar la página de Eric Yu: http://www.cs.toronto.edu/~eric/
112
derechos aplica la resolución 812[8] y su posterior actualización mediante la
resolución 1982[9].
Las siguientes figuras se hacen con el lenguaje unificado de modelado UML [10].
6. 2. 1 Casos de Uso
De los anteriores casos de uso, después de un análisis realizado por medio de una
matriz de casos de uso críticos, se encontró que el caso de uso Comprobando estado
de afiliación y datos personales es el de mayor criticidad; es decir que los otros
subsistemas de alguna forma necesitan de la realización de este caso de uso para llevar
a cabo con éxito.
Diagrama de Actividades
En la figura 5 se puede observar el paso a paso del flujo de trabajo para el caso de uso
antes descrito.
Diagrama de Despliegue
113
todos y cada uno de los equipos de computo por los cuales el usuario accede al
sistema; el servidor web, representa el dispositivo de hardware/software en donde se
concentra el núcleo del sistema; y el servidor de datos, que representa el dispositivo
hardware/software que tiene la responsabilidad de la persistencia de los datos.
Para SIRESS se genero toda la documentación técnica necesario para el posterior
crecimiento de la aplicación, ya sea complementando los demás módulos del sistema
o como base para el otro régimen de salud, el régimen contributivo.
114
diseños y los manuales de instalación y de usuario.
Las debilidades presentadas por UP en cuanto a intencionalidad fueron superadas
mediante i*, logrando una mejor comprensión de los conceptos involucrados, ya que
permite hacer explícitas las intenciones inter e intra actores en una organización,
elemento fundamental para la definición holística del modelo de negocio, para lo cual
fue de gran ayuda la interacción con personas con alto grado de conocimiento y
experiencia en la gestión y ejecución de procesos; ya que permite navegar desde un
modelo general enmarcado en el régimen subsidiado de salud para después ser
detallado en un dominio particular con el apoyo de los gerentes de proceso, y de ésta
manera se logró obtener los requerimientos del sistema, siempre asociados al dominio
del negocio; para la especificación detallada de los requerimientos se contó con la
valiosa colaboración de las personas encargadas de ejecutar las tareas y actividades de
cada uno de los procesos.
El desarrollo del prototipo mediante subsistemas reduce la complejidad y facilita
la integración de funcionalidades, a medida que estas son desarrolladas (disponibles).
Con SIRESS se logró organizar los datos de manera visual y reestructurar los
procesos y la base de datos de la EPS-S brindando la capacidad de escalar en
funciones y necesidades, permitiendo su uso en el apoyo a los sistemas de calidad para
la prestación de servicios de salud, así como para el cumplimiento de la normatividad
y soporte ante los organismos de control.
La reducción de tiempo y esfuerzo que presenta el SIRESS en comparación con
los procesos actuales en las EPS-S, se pudo evidenciar al realizar las pruebas del
prototipo con datos reales y la interacción de funcionarios de la misma, estimando una
reducción entre el 25% y el 50% de los tiempos en el manejo de los procesos. El
impacto real sobre la población afiliada al régimen subsidiado de salud no se puede
ver sólo en términos de reducción de tiempos, se debe realizar un estudio estadístico
en el cual se determine el problema a estudiar, las variables aplicables, las hipótesis, el
modelo estadístico a utilizar, la población y la muestra; todo esto aplicable bajo un
SIRESS implementado completamente en una EPS-S.
Referencias
115
9. Resolución 1982 (Ministerio de la Protección Social 2010).
10. Jacobson, I., Booch, G., & Rumbaugh, J. (2000). El Lenguaje Unificado de
Modelado UML. Pearson Addison Wisley.
116
Producto software para simular líneas de espera
1 Introducción
117
amigable y de fácil uso que permite la construcción de modelos de forma rápida y
sencilla, y finalmente cuenta con su propio generador de variables aleatorias,
construido mediante el uso de algoritmos de generación de variables muy confiables
obtenidos en una amplia investigación estadística por parte de sus autores. Estos
algoritmos han sido validados y corregidos por medio de la aplicación de exhaustivas
rutinas de pruebas de bondad y ajuste utilizando diferentes herramientas software de
análisis estadístico.
Todos los días estamos expuestos a hacer parte directa de una Cola, por ejemplo
automóviles que esperan en un semáforo en rojo, piezas que esperan su proceso de
manufactura en una máquina, entre muchas otras, se consideran líneas de espera. Nos
hemos acostumbrado a esperas largas, ―El tiempo que la población de un país pierde
en colas es un factor importante tanto en la calidad de vida como en la eficiencia de su
economía, se puede decir que las líneas de espera largas también son costosas en
cierto sentido, ya sea por un costo social, por un costo causado por la pérdida de
clientes, de insumos o por algún otro costo importante.‖ [2].
La Teoría de colas es el estudio matemático del comportamiento de las líneas de
espera, éstas se generan cuando el ―cliente‖ llega a una instalación demandando un
servicio al "servidor", el cual tiene cierta capacidad de atención. Si el servidor no está
disponible inmediatamente y el cliente decide esperar, entonces se forma en la "línea
de espera" (cola o fila). El servidor elige a un cliente de la línea de espera para
comenzar a prestarle el servicio. Al culminarse éste, se repite el proceso de elegir a un
nuevo cliente (en espera). [3]
3 Software de Simulación
118
manejo de gráficas, la simulación se ha convertido en una de las ramas experimentales
de la Investigación de operaciones con mayor acogida‖. [1]
Una definición obtenida durante nuestro proceso de aprendizaje en la Universidad
indica que la simulación consiste en la representación, mediante un Modelo
Matemático, de un sistema de la vida real que se intenta reproducir a través del tiempo
con la ayuda de un sistema de cómputo. Para llevar a cabo una simulación se debe
partir del hecho que ésta es un proceso y como tal tiene una serie de pasos o
actividades a realizar, aunque en la literatura no se encuentra en sí una regla que
determine como se debe hacer este proceso, el autor Luís Ernesto Blanco en su libro
Simulación con Promodel nos brinda los siguientes pasos que nos dan una idea al
respecto.
119
6 Desarrollo del modelo funcional
De acuerdo con el modelo de proceso RUP, el modelo funcional está basado en casos
de uso los cuales surgen a partir del análisis del problema y del análisis de los
requerimientos planteados.
7 Especificación de diseño
Considerando que este tipo de software presenta una constante interacción con el
usuario que requiere de una Interfaz de Usuario ágil, y teniendo en cuenta que las
mejores prácticas para el desarrollo de software resaltan la necesidad e importancia de
separar la Lógica de Negocio de la Presentación al usuario, OPTIMUS-UD se ha
definido esencialmente en dos componentes principales; una capa de lógica de
negocio y una capa de presentación. Por otra parte, se han definido cuatro módulos
adicionales que complementan las funcionalidades de la aplicación todo esto con el
único fin hacer la aplicación mantenible y escalable.
La figura siguiente presenta un diagrama genérico de la arquitectura definida para
OPTIMUS-UD mediante un diagrama de componentes de la aplicación.
120
id Components
•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••
OPTIMUS
LIB
•••••••• • • • • • • • • • • • • • • • • LogsDeLaSimulacion
j freechart-1.0.9 • • • • • • • • • • •obtenci
••• on •
de• • • • • • • • •LogicaDelNegocio
datos •••• •••••••••••••••••••••••••• •••••••••••••••••••••••••
• • • • •GRAFICOS
••••••••••••••••••••• • • • • • • • • • • • • • • • • • • • • • • • • • •generaci
•• on •
de• •abl
vari •es• • • • • • • • • • • • • • • • • • • • •••••••••••••••••••••••••
al eatori as
«use»
•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••
•••••••••••••••••••••••••• • • • • • • • • • • • • • • • • • • • • • •Distribuciones
•••• •••••••••••••••••••••••••• •••••••••••••••••••••••••
• • • • • • • • •Imagenes
•i caci
apl •• usadas por l a
on • • representar
para • • • • l• os • • • • • • • •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••
el ementos de l a Si mul aci on
••••••••••••••••••••••••••
Fig 2. Diagrama de componentes para OPTIMUS-UD
•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••
8 Diagramas De Paquetes
•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••
• • •diseño,
• • • • • • •se
• • ha
• • •definido
••••••••una
• • • estructura
• • • • • • • • general
• • • • • • • de
• • •paquetes
• • • • • • • •del
• • simulador.
•••••••••••••••••••••••• •••••••••••••••••••••••••
121
funciones y características del simulador, en este archivo de ayuda el usuario. Puede
encontrar toda la información que necesita para crear un modelo desde cero, y
también definiciones de todos y cada uno de los elementos que componen los sistemas
de líneas de espera.
8. Conclusiones
Referencias
1. Blanco Rivero, Luis Hernesto. Fajardo Piedrahita, Ivan Dario. Simulación con promodel,
Casos de producción y logística. Primera edición. Bogotá D.C.: Ed Escuela colombiana
de ingenieros 2001
2. Hillier, Frederick S. Lieberman, Gerald J. Introducción a la investigación de
operaciones. Sexta edición. Mejico D.F.: Mc Graw Hill Interamericana Editores S.A.
1997.
3. Taha, Hamdy A. Investigación de operaciones. Quinta Edición, Méjico D.F.: Alfa Omega
Grupo editor S.A. 1995.
Wiston Wayne L. Introducción a la investigación de operaciones, (Aplicaciones y
algoritmos); segunda edición; Grupo editorial Iberiamericana 1995.
122
Diseño y Desarrollo de una Aplicación de Generación
Automática de Componentes Bajo la Especificación SCA
1
Clara Ardila, 2Javier Fajardo, 3Julio Barón Velandia
Universidad Distrital Francisco José de Caldas, Bogotá, Colombia
{1lain2040@gmail.com, 2lordmkichavi@yahoo.es, 3jbaron@udistrital.edu.co}
1 Introducción
123
realice la transformación de ese modelo a un lenguaje de programación, en este caso
Java. A continuación se describe la metodología, y luego se da una descripción de
cada uno de los conceptos involucrados y la representación gráfica de los elementos a
destacar, finalmente, se presentan las conclusiones.
Ontología
Lenguajes Ontológicos
124
Table 2. Algunos Lenguajes Ontológicos
Nombre Autor Descripción
Ontololing Permite definir clase, relaciones,
Thomas R Gruber
ua funciones, objetos y teorías.
Lenguaje de representación Ontológica.
University of Permite describir clasificaciones de
SHOE
Maryland objeto y sus relaciones, además de hacer
anotaciones en paginas HTML.
Es un lenguaje para modelar ontologías,
DAML DARPA Agent
fue creado como una extensión de RDF
Posee un modelo de datos para los
objetos y relaciones entre ellos,
RDF W3C proporcionar una semántica sencilla,
este tipo de modelo de datos se puede
representar en sintaxis XML [4].
Es un vocabulario usado para describir
propiedades y clases de recursos RDF,
RDFS W3C
con una semántica jerárquica de
propiedades y clases [4].
125
composites
Estos son las diferentes herramientas que han implementado la especificación SCA:
126
3 METODOLOGÍA DE DISEÑO
Una vez que este proceso termine, se pasará a diseñar un álgebra que permita la
conversión de las ontologías desarrolladas con la estructura definida, en este caso,
conceptos, predicados y acciones, a componentes de la especificación SCA. Las
tareas en esta sección son:
127
7. Realización de pruebas para garantizar el buen funcionamiento de la aplicación.
La descripción de cada uno de los pasos queda fuera del alcance de este documento.
Esta es una propuesta que toma las características de una ontología, y las traduce en
cada uno de los elementos que caracterizan a SCA, esto significa, generar composite,
components, services y references.
La idea base y el objeto de estudio en el proceso de este proyecto es que a través de la
aplicación desarrollada, los conceptos definidos en el modelo ontológico por el
experto en el dominio del problema, se convertirán en clases Java en el dominio de
SCA, que son utilizados por los componentes para llevar a cabo un servicio
específico. Asimismo, las acciones definidas en Componentes de Servicio responsable
de hacer el servicio. A su vez, los predicados que será responsable de las restricciones
para permitir o no la llamada al servicio, según el experto. Y, por último, se definirá la
estructura del composite en XML que se invocará cada uno de los componentes, a fin
de ser procesados computacionalmente.
Una ontología consiste en dos partes, una es la definición del vocabulario que se
utiliza para la comunicación entre los elementos que se describen en SCA, la otra
parte consiste en la definición de las relaciones entre los conceptos y sus reglas,
finalmente se muestra la estructura y semántica de la ontología. En la tabla siguiente
hay algunos elementos descritos para crear la ontología genérica para el proyecto.
128
Atributo Propiedad At Agrupa los atributos de los Subclase de la
con valor conceptos predicados y clase
acciones. Propiedad
Relación Vínculo R Agrupa las relaciones que Subclase de la
existen entre los conceptos y clase
las acciones o los predicados Propiedad
Escalar Propiedad Es Agrupa las propiedad con Subclase de la
Cuantitati valor numérico de los clase Atributo
va conceptos, predicados y
acciones
Textual Propiedad Tx Agrupa las propiedades con Subclase de la
Cualitativ sentido literal contenidos en clase Atributo
a los conceptos, predicados y
acciones
Relación_A Vinculos_ VAC Agrupa las relaciones de tipo Subclase de la
cción_Conc Acción_C objetos encontradas entre las clase Relación
epto oncepto acciones y los conceptos.
Relación_P Vinculo_ VPC Agrupa las relaciones de tipo Subclase de la
redicado_C Predicado objeto encontradas entre los clase Relación
oncepto _Concept predicados y los conceptos
o
Para usar Marshall y Unmarshall con JAXB de Java 6 se creó un XSD que ha
obtenido la estructura del mapa de la ontología base (ver Tabla 4).
129
o
TipoPropiedadConcept
elemento propiedadConcepto
o
En el caso de los predicados, cada uno es una clase intermedia en el modelo UML
entre los conceptos y las acciones, además del componente central,
Interface PredicadoAService {
private void getPredicadoA(Concepto A conceptoA);
}
class PredicadoAService implements PredicadoAService {
private void getPredicadoA(Concepto A
conceptoA){}
}
130
Fig. 3. Conversión de un predicado
Interface AccionAService {
private void getAccionA(Concepto A conceptoA);
}
class AccionAService implements AccionAService {
private void getAccionA(Concepto A conceptoA){}
}
131
Fig. 5. Diagrama de Clases hecho en Eclipse Ganymede
4 Conclusiones
132
lenguajes ontológicos, y generar los componentes de la especificación de SCA con un
mayor número de lenguajes de programación, ya que este proyecto sólo funciona con
Java.
Referencias
133
Metaproceso para el desarrollo de Software
Sandro Javier Bolaños Castro1, Víctor Hugo Medina Garcia1, Jesús Soto2
1
Universidad Distrital Francisco José de Caldas, Cra 7 No 40-53 Piso 4°
Bogotá - Colombia
2
Universidad Pontificia de Salamanca, Juan XXII, 3 Madrid - España
{sbolanos@udistrital.edu.co, vmedina@udistrital.edu.co, Jesús.soto@upsam.net}
1 Introducción
135
centrar mas bien en los conceptos rectores para estas y como pueden ser llevados a
cabo por unos roles con responsabilidades bien definidas. En la presente propuesta se
hace una reflexión que apunta a tales conceptos.
2 Antecedentes
136
generalmente es en fase avanzadas, ya que las correcciones son dispendiosas y
costosas, sobre este problema recaen las críticas dado los serios inconvenientes que le
produce esto a los proyectos de software. El modelo en cascada puede considerarse
como un modelo de proceso demasiado optimista al considerar que de actividad a
actividad los defectos producidos son mínimo y además que las correcciones pueden
hacerse en fases avanzadas de los proyectos, invirtiendo un esfuerzo con el que
generalmente la organización no cuenta. Es evidente que un proceso caracterizado por
una secuencia estricta es un problema, considerar el software como un producto
convencional que se va ensamblando de actividad en actividad es un craso error.
El desarrollo de software debe flexibilizar el proceso, retroalimentar
tempranamente, definir roles e integrarlos a un trabajo colectivo, con
responsabilidades claras y articuladas, estos roles deben estar íntimamente asociados a
las actividades que propone el proceso, que por su complejidad se convierten en
disciplinas que requieren un tratamiento mucho mas formal del que clásicamente se
hace. Al parecer el modelo lineal no estimaba estas consideraciones básicas. Hay que
tener en cuenta que prácticamente el modelo en cascada es el modelo inicial mas
importante y el precio que tuvo que pagar por ser utilizado en un disciplina emergente
fue alto y es quizá el modelo al que mas se le han asociados fracasos.
Lo preocupante es que después de un tiempo considerable, en el que se supone la
ingeniería de software a progresado se sigan cometiendo los mismos defectos [1].
Modelos como el V tratan de plantear soluciones proponiendo alternativas a la
linealidad el planteamiento de este modelo se centra en considerar la prueba como una
actividad paralela al proceso, el efecto que se produce es el de llevar de manera
simultánea la prueba junto con las actividades previas: requisitos, diseño e
implementación. La aportación fundamental, detrás de esta idea, es la de romper con
el mito, acerca de la realización de la prueba en fases avanzadas, generalmente
después de la implementación. Romper el paradigma de la prueba es fundamental, ya
que es posible detectar defectos en fases tempranas, desde luego poder resolverlos,
algunas otras propuestas sobre todo metodológicas como por ejemplo XP 38 [2],
también consideran la prueba como una fase central que debe estar presente
fuertemente en el procesos, los XP consideran que el objetivo fundamental del
software es el de pasar las pruebas
De la misma manera modelos como el espiral proponen un conjunto de iteraciones
que evolucionan en el tiempo, en este modelo se aprecia de manera evidente el
concepto de desarrollo valioso en el ámbito de la ingeniera de software. El modelo
espiral también introduce conceptos como el riesgo, la planeación y la liberación de
prototipos con cada iteración. La manera de escapar a la linealidad desde el punto de
vista de un espiral es conseguir realizar Iteraciones, el objetivo en cada pasada o
iteración es producir mejoras hasta tener un producto. Si suponemos el proceso de
desarrollo de software en espiral como el proceso de pintar una pared que esta en
color negro a que quede en color blanco. Podemos imaginar muchas situaciones al
respecto como por ejemplo, el tiempo, esfuerzo, pasadas entre otras tareas que son
necesarias para transformar dicha pared de un color a otro, un proceso espiral es muy
cercano a esta situación. El espiral nos plantea un interrogante importante: Que blanco
es el que deseamos? Los procesos deben evitar a toda costa ser iteraciones infinitas en
38
Extreme Programming http://www.programacionextrema.org/
137
las que no parece haber un punto de llegada, para corregir este tipo de defectos es
necesario un enfoque claro de requerimientos y unas especificaciones y contratos bien
establecidos.
Por su parte el modelo de proceso por fases enfatiza en un conjunto de actividades
bien definidas en donde se hacen corridas parciales del proceso, en el fondo el
planteamiento es el de llevar casi de manera simultanea pequeñas cascadas que a
diferencia de la iteración considera la aplicación del proceso de principio a fin
realizando requerimiento por requerimiento partiendo desde los independientes hasta
los mas complejos que necesiten de funcionalidades ya desarrolladas. Este modelo de
proceso puede evolucionar de requerimientos que son constantes a lo largo del
proyecto o admitir la introducción de características en el desarrollo mismo del
proceso.
Lo que es claro es que los modelos de proceso se preocupan por buscar una
caracterización con la que impriman su sello, a la realización del proceso. Al rescate
de la linealidad las consideraciones de paralelismo, iteración y fase son propuestas
robustas, no se trata de demoler el concepto lineal que es muy valioso se trata de
corregir sus defectos para proyectos que requieren posturas de pensamiento versátiles
como lo son los proyectos de software. Pensemos que contamos para resolver un
problema con los siguientes conjuntos:
A = {1, 2, 3, 4, 5, 6, 7, 8, 9, 10}
B = {1, 3, 5, 7,9}
C = {2, 4, 6, 8, 10}
D = {2, 3, 5, 7}
A constituye el conjunto base lineal, secuencial y esencial para definir los demás,
sin embargo B es una posibilidad de resolver problemas pares, C problemas impares y
D problemas primos. Entre A, B, C y D ―modelos de proceso‖ hay coincidencia en la
secuencia de los números ―actividades‖ que constituyen los conjuntos definitivamente
es mas fácil contar en orden, ―ascendente‖. De la misma forma los modelos de
proceso son caracterizaciones del modelo lineal.
138
algunas estrategias poco ortodoxas. Por ejemplo la metodología ASD39 [3], considera
actividades como la especulación para incorporar conceptos flexibles de planeación;
sin embargo crean un rechazo entendible en su concepto aparentemente informal,
comparaciones como la de cerdos y gallinas hecho por Scrum40 [4], no son de fácil
aceptación aunque en el fondo sean bastante cercanas a la realidad.
Independientemente de lo criticas y mordaces de muchas metodologías, están
trazan un panorama real de aplicación en los proyectos de software que se deben tener
presente.
Las metodologías mas reconocidas son las derivadas del movimiento agilista 41
como son el caso de XP, Scrum, Crystal, ASD, entre otras, ellas mismas son una
declaración en contra de los métodos convencionales.
El ciclo de vida del software hace alusión al uso disciplinado del proceso con una
característica relevante como es la retroalimentación, es decir las entradas al proceso
sufren una transformación que a su vez convertida en salida es la entrada de una nueva
pasada del proceso. El concepto de ciclo de vida clásico del software se ha acuñada de
manera simultanea al modelo en cascada o ciclo de vida clásico [5].
39
Adaptive Software Development
40
http://www.proyectosagiles.org/que-es-scrum
41
http://www.agilemanifesto.org/
42
Rational Unified Procces
43
http://www-01.ibm.com/software/rational/
139
independencia de su tamaño o complejidad.
Más allá de considerar que los procesos son conceptos preexistentes que pueden ser
tomados en el manantial de conocimiento, es necesario plantearse el interrogante de
cómo estos son el objeto mismo de estudio. El que una organización de por sentado
que un proceso es la formula salvificadora o the silver bullet [1] en sus proyectos de
software, y que ellos tal y como se proponen son el hilo conductor al éxito, es un
pensamiento demasiado optimista. Los proceso en si mismo como herramientas
primarias en los proyectos de software deben ser estudiados como parte del problema;
como se planteo anteriormente pueden caer en tres posibles escenarios: elección,
utilización y creación. Para los tres criterios de estudio de los procesos es necesario
conocer tanto de procesos como de los modelos empresariales, porque es la sinergia
entre el dominio del problema y el proceso, lo que ofrecerá una mayor probabilidad
de éxito. Los criterios de elección y utilización se centran en el dominio de lo
existente mientras el criterio de creación anima a buscar nuevas formulas de proceso,
sin tratar por supuesto de reinventar la rueda [8], se trata es de conceptualizar nuevos
métodos de enfrentar la problemática del software.
En si tanto la elección como la utilización y creación son a su vez procesos del
proceso, en este orden de ideas el nuevo proceso constituido es realmente un
metaproceso pues es el mismo el objeto de estudio de acuerdo a la Fig. 2.
140
Fig. 2. Metaproceso
Utilizar un proceso implica gestionar cada una de las actividades que lo constituyen en
la utilización se debe:
Definir el conjunto de actividades que se necesitaran en el proceso, así como
los objetivos y resultados que se esperan de ellas.
Definir los roles que realizaran las funciones debidas a cada actividad del
proceso, esto permitirá definir con claridad responsabilidades y con ello
controlar el conjunto de resultados esperados y que contribuirán en el
desarrollo del proyecto.
Proponer los cronogramas y presupuestos necesarios para el proceso y cada
una de sus actividades.
Las anteriores consideraciones apuntan a gestionar el proceso, y así realizar una
141
utilización eficiente de los recursos.
Crear un proceso implica generar nuevas opciones para el proceso sean estas
totalmente novedosas o producto de una integración diferente de actividades de
proceso.
El primer caso que implica creación es el caso dado por una nueva disposición de
actividades preexistentes ante una nueva expectativa organizacional, y que
generalmente es conveniente para un proyecto específico, producto de la necesidad
que tiene la organización de enfrentar nuevas condiciones. En este primer escenario la
creación se centra en la disposición a conveniencia de las actividades del proceso,
debe asumirse una posición crítica y reflexiva en la organización que permita con
madurez constituir un proceso ajustado a la organización y al proyecto junta con sus
participantes.
El segundo caso que implica creación es el caso dado por la proposición de nuevas
actividades para el proceso. Este proceso es el más avezado de todos e implica un
conocimiento extenso de la disciplina. No es el camino mas sencillo pero de darse es
el mas prometedor si se tiene en cuenta que las soluciones estarían impactadas por
nuevas consideraciones técnicas y científicas.
142
Gestor del proceso: este rol tiene como objetivo definir el proceso que se debe
emplear en un proyecto de software, así como los roles que participaran dentro del
proceso y enfatizar en las practicas que sobre el proceso se deben realizar, en este rol
la tarea fundamental esta en el seguimiento disciplinado de un proceso asegurando el
cumplimiento de sus objetivos y apuntando a corregir incidentes históricos.
Arquitecto de Proceso: este rol tiene como objetivo armar el proceso de software
acondicionándolo a las exigencias del proyecto y la organización, el arquitecto es la
interfaz entre los deseos para el proyecto y lo que el proceso debe ofrecer, establece
fundamentalmente la contribución y la estrategia a seguir. Este rol compone nuevas
formas del proceso con el conjunto de disciplinas con las que se dispone para el
proceso de software, teniendo en cuente las condiciones no solo del proyecto sino
también de la organización, es posible en este rol descubrir nuevas formas del
proceso.
Innovador de Proceso: este rol se basa en un extenso conocimiento de procesos
para crear nuevas opciones, ya sea porque los procesos existentes no ofrecen el cuerpo
de conocimiento robusto para el proyecto de software o porque se quiere tener ventaja
substancial frente a los proceso convencionales. En este rol incluso se ofrecen nuevas
disciplinas de software producto de las actividades emergentes que se proponen.
Estos tres roles fundamentales apuntan respectivamente a la elección, utilización y
creación de procesos de software que como mínimo se deben tener en cuanto en el
proceso.
143
Fig. 4. Principios del Metaproceso
Siempre hay que tomar una decisión en los proyectos de software: cual es el proceso
que lo direccionará? Si el proceso es escogido de uno existente previamente o es un
proceso creado, se dispondrá en cualquiera de los casos un proceso. En el evento
extremo de no existir un modelo empresarial con el escenario mas es informal que se
pueda suponer, aun así ante la no existencia de un modelo aparentemente definido, se
esta ante la ausencia de un proceso?
La ausencia de un proceso en si es la aceptación de un no proceso que a su vez es
un proceso. Este el proceso caótico y extremista de la carencia de actividades del cual
existe una referencia que se puede situar el proceso big-bang [9]. Por otro lado si un
proceso en esencia es un conjunto de actividades por teoría de conjuntos el mismo
conjunto vacío es un conjunto por tanto soporta el hecho de que existe un proceso
incluso en el conjunto vacío de actividades que como se menciono es el big-bang.
La anterior demostración de la existencia de un proceso para cualquier escenario
es indispensable para corroborar la necesidad apremiante de considerar el proceso
como el objeto de estudio y no sumirlo únicamente como la herramienta ya existente
que usamos para guiar un proyecto de software. Y mas importante aun no caer en el
extremo de ignorar el proceso pues como se planteo esto nos conduciría al modelo
caótico
44
http://es.wikipedia.org/wiki/Damocles
144
No corresponder con la naturaleza del proyecto. Los procesos se desarrollan
bajo ciertos dominios y no es una buena estrategia utilizarlos sino apuntan a
contextos similares.
Utilizarlo cuando este ha sido originado en campos diferentes al software y
por antonomasia se asume que debe ser exitoso para proyectos con
singularidades como las que propone el software y que lo hacen un producto
poco convencional, o si no pensemos en:
• Cuántos gramos pesa un algoritmo?.
• Qué resistencia al uso tiene un ciclo?
• A qué sabe un modulo?
El no poder aplicar de manera directa una disciplina fáctica limita enormemente el
uso de estrategias antes probadas y que generalmente son utilizadas con éxito en otras
disciplinas de ingeniería.
Tomar el conjunto de actividades propuestas como una formula a seguir y no
como un ejercicio de interiorización en el que la organización debe apropiarlo a sus
condiciones y como consecuencia de un conocimiento formal de las disciplinas que se
involucran.
Las anteriores consideraciones apuntan a la doble naturaleza que puede asumir el
proceso de software. Inicialmente se espera que su aporte sea hacia el desarrollo
exitoso del proyecto de software pero no se esta lejos de que se convierta en un
obstáculo.
45
Diccionario Akal Filosofia, Cambridge University Press, 1.999.
145
6.4 Principio del Continuum del Proceso
146
7 Aportación del Metaproceso en la Ingeniería de Software
8 Conclusiones
Referencias
1. Brooks F. 1995. The mytthical Man Month, Anniversary Edition wiht tour new Chapters,.
Ed. Addison Wesley Longman.
2. Newkirk J, Martin R. 2002. La Programacion Extrema en la Práctica. Ed. Addison Wesley.
3. Highsmith J. 2000. Adaptive software development: A collaborative approach to managing
complex systems. Dorset House. Nueva York.
4. Schwaber K. 1995. The Scrum development process. OOPSLA ‘95 Workshop on Business
Object Design and Implementation, Austin,
5. Pressman R. 2006. Ingeniería del Software. Quinta edición. Ed. Mc Graw Hill.
6. Jacobson I., Booch G. and Rumbaugh J.. 2000. El Proceso Unificado de Desarrollo de
Software. Ed. Addison Wesley.
7. Somerville I. 2011. Software Engineering. 9th Edition. Addison Wesley.
8. Brown W.C. Malveau, Hays W. McCormick, and Thomas J. Mowbray. 1998. AntiPatterns:
Refactoring Software, Architectures, and Projects in Crisis. Ed. John Wiley & Son Inc.
9. Patton R. 2006. Software Testing. Ed. Sams.
147
10. David M. And Dikel D. 2001. Software Architecture: Organizational Principles and
Patterns.
148
Análisis, Diseño y Desarrollo de un sistema de
identificación dactilar basado en Redes Neuronales
Artificiales
jacuevass@correo.udistrital.edu.co, dfhernandezh@correo.udistrital.edu.co,
cfdiazm@correo.udistrital.edu.co, jbaron@udistrital.edu.co,
jsoriano@udistrital.edu,co.
Abstract. The identity is the mean unity that constitutes what are a
human being and natural person. The dilemma is how to be sure about
the people‘s identity; to this, have been used elements that try to ensure
this condition. The artificial intelligence, as an area of computer
science, has developed different tools that have been used to help
people in tasks that need a processing with certain characteristics of
huge volume and complexity, and for these reasons required a person
who checks the results after or while task is executing.
149
encontradas en el desarrollo y entrenamiento de aplicaciones concretas, llevaron a la
selección de una RNA del tipo backpropagation (RNB). Entre las ventajas que nos
llevaron a esta elección se encuentra su capacidad de aprender a asociar patrones de
entrada a la red con las clases correspondientes propagando el error hacia atrás, es
decir, su capacidad de auto-adaptar los pesos de las neuronas de las capas intermedias
para aprender la relación que existe entre un conjunto de patrones dados como
ejemplo y sus salidas correspondientes.
150
El punto de referencia es definido como el punto de máxima curvatura de la
convergencia de las crestas, que usualmente está ubicado en el área central de la
huella.
El punto de referencia se determina de la imagen mejorada, como una
característica global para la coincidencia, los puntos singulares (CORE y DELTA) son
únicos en la superficie de la huella, estos son comúnmente usados en la clasificación
de huellas dactilares como puntos de referencia, sin embargo, a menudo tenemos una
imagen parcial de la huella dactilar sin los puntos deltas y arcos planos de la huella
dactilar que no tienen estos puntos singulares
Existen diferentes tipos de métodos para localizar los puntos singulares. Sin
embargo, los filtros complejos, aplicados a la orientación sobre la huella en múltiples
escalas, son usados para detectarlos con un gran desempeño.
Los filtros complejos de orden k, para la detección de patrones con simetría radial son
modelados por . Donde x y y denotan dos coordenadas en la imagen
analizada, el filtro complejo puede ser calculado como:
(6)
. (7)
La orientación local de los patrones de de segundo orden de simetría esta dada por
como es mostrado en la figura 6, los cuales son similares a las
huellas dactilares en la orientación de los patrones de los puntos core y delta.
Se define el punto core como de punto de referencia porque es más común que el
punto delta y se puede representar como único en la imagen de la huella dactilar. El
punto core es definido como ―el punto más al norte de la unión de las líneas de las
crestas‖. Esto es apropiado para todos y cada uno de los bloques de condiciones. Para
las huellas dactilares que no contienen lazos o alguna singularidad, el punto core es
usualmente asociado con el punto de máximo de curvatura de la cresta de líneas, el
filtro h1 satisface ambas de estas condiciones.
De esta forma se aplica el filtro h1 en la orientación de la huella dactilar
representado por el ángulo de fase para determinar el
punto de referencia. El tamaño de la ventana de filtrado es , el
filtro corresponde a cada bloque es calculado por:
151
. (8)
. (9)
Para reducir el efecto del ruido y las distorsiones no lineales, la ROI es particionada
en 4 sub imágenes más pequeñas (en diferentes cuadrantes) en contra de las
manecillas del reloj como se describe en la Figura 7, donde cada sub imagen tiene un
tamaño de 32x32.
152
Fig. 3. ROI segmentada
Momentos HU
. (10)
. (11)
. (12)
Donde,
. (13)
. (14)
Con el fin de extraer las características de la ROI de la imagen mejorada, se usa los
siete momentos invariantes de Hu[5].
El conjunto de los siete momentos invariantes pueden ser derivados del segundo y
tercer momento Hu[5]. El resultado es un conjunto de momentos ortogonales
153
absolutos, los cuales pueden ser usados en escala, posición y rotación invariantes en
patrones de identificación [6].
Fig. 4. Momentos HU
Capa de Entrada
154
. (15)
Luego, de cada vector se sacó el valor máximo (vmax), el valor minimo (vmin), y el
valor promedio de los elementos del mismo (vpro), estos valores que en total son 9,
son los valores de las neuronas de la capa de entrada.
Capa de salida.
La capa de salida solo está conformada de una neurona, la cual contendrá el valor 1 si
las huellas corresponden al mismo individuo y 0 si no coinciden.
Capa oculta.
2 Resultados
46
Matching: Método en el que el conjunto de minucias ingresadas son mapeadas para
encontrar su correspondencia con el conjunto de minucias almacenadas en la Base de Datos.
47
BPNN: Back Propagation Neural Network (Red Neuronal de Retropropagación)
155
capa oculta de 4 neuronas y una capa de salida de 2 neuronas.
Los resultados obtenidos con este conjunto de datos son los siguientes:
Esta medida nos indica el porcentaje de rechazo a una huella existente en el sistema
de información, es decir, cuando una huella almacenada en la base de datos da un
resultado negativo al procedimiento de comparación. El resultado obtenido es un
3.2%, a continuación se presenta los resultados obtenidos con diferentes umbrales de
aceptación:
Esta medida nos indica el porcentaje de aceptación de una huella que no existente en
el sistema de información, el resultado obtenido es un 0.8%, a continuación se
presenta los resultados obtenidos con diferentes umbrales de aceptación:
48
FRR: False Reject Rate
49
FAR: False Acceptance Rate
156
un dispositivo de captura de huellas digitales, con respecto a una base de huellas
capturada con anterioridad con el dispositivo, es decir, una base compuesta por
imágenes de huellas de personas conocidas. Dicha aplicación arrojo comportamientos
no deseados, entonces, se decidió descomponer los procedimientos y buscar la
combinación de pasos con mayor efectividad en la base de pruebas. Mejorando el
procedimiento con los procedimientos descritos también en [9] . Los experimentos
arrojaron los siguientes resultados:
50
Fingerprint Verification Competition http://bias.csr.unibo.it/fvc2006/results/l_res_db1_a.asp
157
2.4 Imagen Procesada Binarizada
En vista de los resultados obtenidos con los dos métodos anteriormente descritos
sugiere que existe una variable adicional que está causando que se genere un error tan
alto, basados inicialmente que los momentos HU son invariantes rotación[6] pero
teniendo en cuenta a donde se indica que dichos momentos no son invariantes en la
rotación [4] se realizó la rotación de la imagen de la huella dactilar con el método de
51
ROI: Region of Interest (Región de interés)
158
la rotación por gradiente [9].
El procesamiento y extracción de la información se realizó en los siguientes
procedimientos:
1. Procesamiento de la imagen utilizando STFT
2. Binarización Imagen procesada.
3. Cálculo orientación por Gradiente y rotación de la imagen.
4. Ubicación punto de referencia
5. Extracción ROI .
6. Extracción momentos HU de ROI.
7. Matching.
52
ROI: Region of Interest (Región de interés)
159
Fig. 10. Error obtenido FAR – FRR (Binarizando y Rotando por Piramides)
3 Conclusiones
Como se puede ver en la Imagen I los puntos de las huellas que deberían hacer
matching es de muy difícil selección dentro de los puntos a los cuales no deberían
concordar, y eso pensando que es solo una imagen comparando con las demás
imágenes. Entonces el procedimiento se hace mas engorroso debido a que no es una
sola imagen sino múltiples imágenes. Como podemos ver en la imagen II la dispersión
de puntos de las 8 imágenes de una huella hace que el procedimiento carezca de
cualquier sentido.
160
Fig. 12. PCA de los Datos Tomados de 1 Misma Huella, 8 Imagenes de la Base 1.
Referencias
161
4. Flusser, J. (2000). On the independence of rotation moment invariants. Pattern
Recognition (33), 1405-1410.
5. Hu, M. K. (1962). Visual pattern recognition by moment invariants. IRE Transformation
on Information Theory , 8 (6).
6. Ju Cheng Yang, J. W. (2006). Fingerprint Matching Using Invariant Moment Features.
Computational Intelligence and Security, International Conference, CIS 2006 (págs.
1029-1038). Guangzhou, China: Springuer.
7. Richard C. Wilson, H. N.-E. (s.f.). Probabilistic Population Coding of Multiple Edge
Orientation. Recuperado el 16 de Mayo de 2010, de
http://www.springerlink.com/content/0vpt72cxyj5jclwc/
8. Yang, J. C., & Park, D. S. (2008). Fingerprint Verification Based on Invariant Moment
Features and Nonlinear BPNN. International Journal of Control, Automation, and
Systems , 6 (6), 800-808.
9. Yang, J. C., Min, B., & Park, D. (2007). Fingerprint Verification Based on Absolute
Distance and Intelligent BPNN. International Conference Frontiers in the Convergence of
Bioscience and Information Technologies. Jeju Island, Korea: fbit.
162
Educación Virtual: Entornos Colaborativos
Interinstitucionales
1 Introducción
Mientras el mundo se hace cada vez más pequeño gracias a la globalización, nuevas
necesidades aparecen en la sociedad. Una sociedad que día por día se gana más el
nombre de Sociedad del Conocimiento. Dentro del amplio grupo de las nuevas
necesidades, aparece fuertemente el desapego del concepto Espacio y Tiempo, donde
las personas buscan tener reuniones que no requieran de un lugar, ni una hora; donde
cada individuo pueda asistir en el momento mas conveniente y que adicionalmente lo
pueda hacer desde cualquier lugar del planeta.
La educación no es ajena a esta explosiva realidad y abre las puertas a nuevos
modelos que se ajusten a las diferentes necesidades, buscando incrementar, o por lo
menos no disminuir la calidad actual.
Actualmente, los estudiantes de un centro educativo, deben asistir regularmente a
clase, lo cual implica un desplazamiento espacial desde su lugar de residencia hasta la
ubicación del plantel. Este transporte genera en el estudiante cansancio, pérdida de
tiempo y costos adicionales, los cuales son recursos desperdiciados que podrían ser
163
correctamente direccionados hacia otro tipo de actividades como artes, deportes, ocio,
etc.
2 Interacción
Estudiante - Profesor
Estudiante - Contenido
Estudiante – Estudiante
Donde se analiza una relación directa entre el estudiante y los otros tres
componentes. De esta manera se deja al estudiante como el protagonista del proceso
constructivo de conocimiento.
53
ANDERSON, T., & GARRISON, D. R., Learning in a networked world: New roles and
responsibilities. Atwood Publishing, 1998
164
mejor resultado un trabajo desarrollado por un grupo de personas que si fuera hecho
por una sola. En el método educativo tradicional, existe una componente de trabajo
colaborativo, en la cual los estudiantes desarrollan actividades en grupo, generando
excelentes resultados. En el esquema de educación virtual este componente no puede
perderse, no obstante el trabajo en grupo puede ser mas complejo de llevar a cabo si
no se usan las herramientas TICS adecuadas. En este punto, es importante observar
los requerimientos a nivel de sistema que sobresalen para establecer una mejor
comunicación. Si entre dos estudiantes deben realizar un dibujo, será muy fácil
hacerlo si los dos se encuentran en el mismo lugar, en el mismo tiempo. Pero si la
situación es un entorno virtual, donde se asume que cada estudiante asiste desde un
lugar y en tiempo diferente, entonces se necesitará de una herramienta adecuada para
poder desarrollar esta actividad con éxito. Ya no será tan fácil, sin embargo seguirá
siendo posible y de hecho significara un reto adicional para el proceso educativo del
estudiante.
La interacción
MOORE
JENCI, D.; SALES, J
Profesor – Profesor
La relación profesor a profesor supone una realimentación por parte del mismo
profesor sobre sus conocimientos. Aparece aquí el conocido concepto de capacitación
docente, en la cual el profesor hace estudios de profundización generando mayor
conocimiento sobre la asignatura impartida. Esta relación es importante en la
educación virtual ya que permite mostrar el proceso de mejoramiento continuo por
parte del docente.
165
Profesor – Contenido
La relación Profesor a contenido, es una relación importante, ya que muestra la
construcción de un contenido enfocado al estudiante. No se trata del mismo material
que un profesor tiene para impartir sus cátedras cotidianas. Este contenido tiene que
ser orientado y estructurado para el estudiante que no está observando al profesor,
para el estudiante que está en otro lugar del mundo y que está viendo el material sin la
guía ni las aclaraciones del profesor. Luego vendrá por supuesto la resolución de
dudas, pero entre más claro sea el material, más eficiente será la preparación por parte
del estudiante.
Contenido – Contenido
La relación Contenido a Contenido, tiene que ver directamente con la
realimentación que pueda generar el material en sí mismo. Muchas veces se podrá
observar que el contenido tendrá que ser cambiado debido a los cambios sociales,
culturales, etc. De esta forma, el docente se vera forzado a prepararse y tendrá que
acomodarse a los nuevos contenidos que pueda estar exigiendo el mundo académico y
el mundo laboral.
Pese a que el modelo es bastante completo. Quedan algunas cosas fuera de contexto,
con lo cual se consideró necesario complementarlo para generar uno nuevo que
permitiera abordar el problema de las aulas virtuales interinstitucionales.
Se plantea a continuación un nuevo modelo que muestra lazos independientes de
relación unidireccional entre los diferentes entes. Adicionalmente se diferencia
claramente la relación Estudiante- Estudiante mostrando la relación interna que genera
cada estudiante con sí mismo y la relación independiente que se genera entre
diferentes estudiantes:
Estudiante
Estudiante
Estudiante
ESTUDIANTE ESTUDIANTE
Estudiante
Estudiante
Rel. E-E Ambiente Rel. E-E
Colaborativo
166
Relación Profesor – Contenido
En la relación Profesor a contenido es donde se genera la Publicación del material.
El profesor es responsable de crear los contenidos que serán utilizados por los
estudiantes. Es importante que el contenido no sea plano en ningún sentido y que
permita la interacción, se deben crear foros, Wikis y demás instrumentos que permitan
a los estudiantes agregar información que se genere como resultado de sus propias
investigaciones.
Relación Contenido – Profesor
En esta relación, la interactividad del curso genera nuevo contenido, el cual debe
ser aprovechado y canalizado por el profesor para dirigir el futuro del curso. Este
nuevo contenido es de alta importancia para el docente porque le permite estar en un
ambiente de aprendizaje continuo con los estudiantes
Interactividad
Relación Contenido – Estudiante
En esta relación, el estudiante sencillamente descarga los contenidos publicados
por el profesor y realiza las actividades propuestas.
Relación Estudiante – Contenido
La relación estudiante a contenido es la que permite al estudiante contribuir con
la construcción del mismo. Puede ser a través de foros, wikis, etc. El estudiante
desarrollara las actividades propuestas en el curso y los resultados relevantes que
encuentre, podrá publicarlos para que el profesor y los demás estudiantes puedan
acceder también a ellos.
Ambiente Colaborativo
Relación Estudiante – Estudiante
La relación estudiante a estudiante busca generar los espacios de colaboración,
donde se construya el conocimiento gracias al trabajo en equipo. Las actividades que
debe proponer el profesor deben estar acordes con los rolles que puede desempeñar
cada estudiante de acuerdo a sus aptitudes. Esta relación es de alta prioridad y exige el
buen uso de las Tics, eligiendo las adecuadas herramientas de teletrabajo.
Asesoría
Relación Profesor - Estudiante
Esta relación describe al profesor como un asesor, la cual es una figura más conocida
en la industria. El profesor deja la postura lejana del estudiante, para entrar a
asesorarlo en la construcción de su conocimiento. El profesor ya no será aquel
malvado que quiere ―rajar‖ al estudiante, sino aquel amigo que indica un mejor
camino hacia el logro de los objetivos
Relación Estudiante – Profesor
El estudiante se va dirigir al profesor como si fuera un asesor en su proyecto. Por
lo tanto hará las consultas adecuadas de modo que el profesor pueda guiarlo en un
tiempo adecuado. Como el estudiante primero tiene que tomar la lección, las dudas
que se pueden generar serán verdaderamente valiosas, tanto para la construcción del
conocimiento por parte del estudiante, como para la realimentación del proceso por
parte del profesor.
Las relaciones restantes hacen referencia a la participación de cada ente con sí
mismo:
167
Contenido- Contenido (Rel. C – C)
Estudiante - Estudiante (Rel. E - E)
Aula A Aula B
PROFESOR A PROFESOR B
Relaciones
Inmediatas
CONTENIDO A CONTENIDO B
Relaciones
que
requieren
estudio
ESTUDIANTE A ESTUDIANTE B
El modelo MIAVA se propone a partir el modelo MIAV, ya que cuenta con todo
lo necesario para modelar la interacción al interior de un aula virtual. Lo que se busca
con la creación del modelo MIAVA es obtener una interacción entre aulas virtuales
que tengan contenidos similares.
El modelo se basa en dos aulas virtuales del tipo MIAV, las cuales deben tener
un contenido temático muy similar.
Por lo tanto, se puede buscar una asociación entre las dos aulas de modo que se
puedan ejecutar los dos cursos paralelamente. No obstante, cada aula debe conservar
su independencia, ya que pueden ser aulas virtuales generadas por instituciones
diferentes.
En cada aula existe un profesor, se desarrolla un contenido y se tiene inscrito un
grupo de estudiantes. Con base en esto se plantearan las siguientes relaciones (Estas
relaciones son las correspondientes al modelo MIAVA, teniendo en cuanta que cada
aula presentara sus propias relaciones presentadas para el modelo MIAV):
168
pertenecen al mismo curso. Son estudiantes que están tomando cursos similares con
contenidos similares, pero con profesores diferentes. De esta forma, los estudiantes
pueden intercambiar información obtenida de fuentes diferentes la cual es expuesta
con otros puntos de vista. Esta interacción es de gran importancia para la formación
integral del estudiante, ya que le permite interactuar con estudiantes de otras
instituciones y construir un conocimiento con menos sesgos.
169
Relación Contenido B – Profesor A
El Contenido B puede ser realimentado por el profesor A, de acuerdo a las
restricciones de acceso que determine el profesor B
170
posible también implementar el modelo MIAVA dentro de la misma institución. No es
necesario entonces recurrir a un convenio interinstitucional para su implementación.
Solo requiere el acuerdo de profesores de la misma institución, cuyo contenido
temático sea muy similar.
Aunque el modelo MIAVA aquí planteado inicialmente solo aplica para dos
cursos en paralelo, debe ser claro que no hay problema en extenderlo a una cantidad
mayor. Las relaciones serán las mismas, solo que la cantidad de actores se
incrementara y definitivamente el entorno colaborativo estará cada vez mas
enriquecido. Se debe tener el cuidado respectivo en el respeto por la independencia de
los cursos, para evitar conflictos entre los individuos participantes.
6 Conclusiones
A partir del desarrollo de los modelos MIAV y MIAVA, será posible generar
171
desarrollos directamente sobre plataformas virtuales de código abierto tal como
Moodle. Así, queda abierta la posibilidad de realizar el código fuente relacionado con
los modelos para que pueda ser implementado próximamente en las diferentes
instituciones a nivel mundial.
El modelo MIAVA, puede permitir el trabajo colaborativo no solo a nivel de
aulas virtuales sino también a nivel de grupos de investigación, los cuales podrían
trabajar de forma colaborativa en proyectos conjuntos intercambiando información de
forma controlada.
Referencias
1. ANDERSON, T., & GARRISON, D. R., Learning in a networked world: New roles and
responsibilities. Atwood Publishing, 1998
2. CHRISTIAN STRACKE. Desarrollo de la calidad y estándares de la calidad para E-
Learning. Seminario internacional "Calidad en E-Learning", Bogotá, Col. University of
Duisburg-Essen, Germany.2007.
3. CLAUDIA MARIA ZEA. Uso de Medios y Tecnologías de Información y Comunicación
en Educación Superior Avances (2003-2006) y perspectivas (2007-2010). Ministerio de
Educación Nacional, República de Colombia. 2007.
4. MARITZA RONDON ANGEL. Resultados del estudio ―Modelos virtuales en las IES
colombianas‖. Viceministra de educacion superior (E), Ministerio de Educacion
Nacional, Republica de Colombia. 2007.
5. MARIO ARIAS Y GUSTAVO MATÍAS. La gestión virtual del aprendizaje
Organizativo. Revista del ministerio de trabajo y asuntos sociales. 2006.
6. JAVIER MARTINEZ ALDANONDO. e-learning y los 7 pecados capitales. 2008
7. JOSÉ RAMIRO GALEANO LONDOÑO. El diseño de guiones curriculares para la
educación virtual. Facultad de Educación de la Universidad de Antioquia Medellín –
Antioquía Colombia. VIII Congreso de Educación a Distancia CREAD
MERCOSUR/SUL 2004 - Córdoba – Argentina
8. RESOLUCION 2755 DE 2006. Por la cual se definen las características específicas de
calidad para la Oferta y desarrollo de los programas académicos en la metodología a
distancia. Ministerio de educación nacional 2006.
9. GUILLERMO CARDONA OSSA. Tendencias educativas para el siglo XXI Educación
Virtual, Online y @learning, elementos para la discusión
172
Complejidad de información en fuentes de datos RSS,
un nuevo enfoque: RSS2SOM
1 Introducción
173
que sirva como apoyo para obtener las noticias relevantes en un menor tiempo y con
mayor precisión.
La espacialización de los documentos implica una asociación tácita con la
geografía, puesto que se llevan objetos n dimensionales hacia representaciones
espaciales bidimensionales o mapas, ampliamente trabajados en las ciencias
geoespaciales.
174
documentos respuesta a la consulta son desplegados en forma lineal, como una lista de
títulos o de autores. Incluso cuando se consideran las relaciones entre documentos la
visualización usualmente simplifica todas las relaciones en un orden unidimensional,
lineal, presentado cronológicamente, alfabéticamente o de acuerdo a un peso
determinado.
Los mapas geográficos estándar son herramientas cognitivas muy efectivas para
organizar nuestro conocimiento espacial. Tiene la ventaja de aprovechar nuestro
agudo sentido del espacio y nuestra habilidad para diferenciar finamente formas e
imágenes.
El desafío es identificar y representar una geografía de la información, la cual es
diferente para cada persona[4]. Es la interacción a mediano y largo plazo con los
mapas lo que les da su significado, por tanto debería ser una interacción a mediano y
largo plazo con el espacio de información la que sirva como base a su geografía.
175
particularmente notable la primera ley de la geografía, que se resume en que todo está
relacionado con todo lo demás, pero las cosas más cercanas están más relacionadas
que las lejanas[5]. Es sorprendente que mientras que las metáforas de mapeo han sido
tan populares en visualización de información, décadas de investigación cartográfica
las han ignorado.
Los cartógrafos y geógrafos podrían ser criticados más que cualquier otro por
fallar en participar con la comunidad de visualización de información demostrando la
relevancia de su experiencia acumulada.
La tarea de elegir una técnica de espacialización es compleja por el hecho de que cada
método requiere procesos computacionales preparatorios para la técnica elegida con el
fin de afrontar sus peculiaridades. La técnica puede diferir en términos de las
propiedades deseables y de escalabilidad y robustez. Por ejemplo los mapas auto
organizados son aplicables a conjuntos de datos que tengan un gran número de
muestras y/o dimensiones, mientras que el escalado multidimensional (MDS) es poco
usado con tales tipos de datos.
Hacen falta herramientas para enfrentar con éxito el flujo actual de información. El
stress asociado a la información es una realidad y es normal por ejemplo invertir gran
176
parte del día en la lectura de correos electrónicos[7]. La búsqueda de información en
internet no es una tarea que consuma menos tiempo, los motores de búsqueda aunque
rápidos y globales continúan presentando sus resultados como listas a través de las
cuales el usuario debe navegar para descubrir los ítems relevantes entre la basura. Se
necesitan nuevos métodos para traer algo de orden al caos actual.
Una ventaja clara de usar un mismo mapa de documentos por un periodo de tiempo es
que a medida que el usuario se familiariza el mapa puede ser usado como una
herramienta para interpretar nueva información al asociarla a la estructura existente.
177
lista.
Indexar la colección basándose en la lista restante. se crea un vector para cada
documento donde cada componente del vector puede ser:
Un dígito binario, cada componente será 1 o 0 dependiendo de si el término
correspondiente aparece o no en el documento.
Un peso basado en la frecuencia (el número de veces que un término aparece en
un documento)
Un peso basado en la frecuencia y la frecuencia inversa (el inverso del número
de documentos en los cuales aparece el término)
El escoger determinado tipo de indexación puede resultar en una representación
de espacio de documentos completamente diferente. Los mapas basados en
diferentes tipos de indexación pueden también mostrar diferentes características
del espacio de documentos. Se presenta a continuación un listado de algunas de
las técnicas de indexación de documentos más renombradas.
El peso asociado con un término de índice indica la relevancia del término para
representar un cierto dominio y su habilidad para distinguir entre documentos. Los
pesos son generados de acuerdo a los siguientes principios:
Términos que ocurren en pocos documentos son más útiles que aquellos que
aparecen en un gran número de documentos.
A medida que la ocurrencia de un término en un documento se incrementa es
más probable que el término sea relevante para ese documento
Un término que ocurre el mismo número de veces en un documento corto y en
178
un documento extenso probablemente es más relevante para el documento corto.
Los términos y los pesos asociados a ellos son usados para clasificar los documentos
de acuerdo a su relevancia, logrando así la correcta categorización que facilite su
consulta.
179
4 RSS2SOM
5 Conclusiones
Referencias
1. Skupin, A., The world of geography: Visualizing a knowledge domain with cartographic
means. Proceedings of the National Academy of Sciences, 2004: p. 5274–5278.
2. Lin, X., Map Displays for Information Retrieval. JOURNAL OF THE AMERICAN
SOCIETY FOR INFORMATION SCIENCE., 1997: p. 40–54.
3. Shiffrin, R.M. and K. Borner, Mapping knowledge domains. Proceedings of the National
Academy of Sciences, 2004: p. 5184-5185.
4. Bauer, D., Personal Information Geographies. CHI, 2002: p. 528-539.
5. Skupin, A. and S.I. Fabrikant, Spatialization Methods: A Cartographic Research Agenda for
Non-geographic Information Visualization. Cartography and Geographic Information
Science, 2003. 30(2): p. 95-115.
6. Shah, C. (2002) Automatic organization of text documents in categories using self-
organizing map (SOM). Volume,
7. Lagus, K., et al. (1998) WEBSOM FOR TEXTUAL DATA MINING. Volume,
8. Barón, M.S. and S.V. Kathleen, An approach to semantic indexing and information retrieval.
Revista Facultad Ingeniería Universidad de Antioquia, 2009(48): p. 165-187.
180
Tecnologías de información y terminología asociadas al
área de desastres.
1 Introducción
181
términos asociados al área de desastres, lo que ha permitido pensar en la generación y
utilización de tecnologías de información que permitan mejorar aún más lo existente,
como las ontologías y las bases de datos de conocimiento. Existen al respecto
desarrollos de diferentes fuentes (gubernamentales, privadas e individuales) que han
trabajado en subáreas muy particulares, básicamente en sistemas de información.
En el presente documento, se hará una revisión de las tecnologías de información que
se han utilizado en el área de desastres y de los proyectos de desarrollo propuestos,
particularmente en el uso de ontologías.
182
2.1 Recolección de información
183
Requerimientos Técnicas de obtención de datos
Método de
evaluación Tiemp
Recursos Indicadores Ventajas Desventajas
o
enfermedades.
Rápido: útil
Observación cuando no
Costoso;
2 Remoto; directa, hay
gran error
aviones, Minut cámaras. transporte
objetivo;
helicópter os/ Equipos. Edificios por tierra;
mínimos
os, Horas destruidos, útil para
datos
satellite vías, diques, identificar
específicos.
inundaciones. el área
afectada.
Sin datos
Observación cuantitativos
directa, charlas ; sesgos
Rápido;
con líderes potenciales;
visible, no
3 locales y alta tasa de
Horas/ Transport requiere
Recorrido trabajadores de error; las
días e, mapas antecedente
a pie salud. Muertes, áreas más
s técnicos
personas sin afectadas
(en salud).
hogar, número pueden ser
y tipo de inalcanzable
enfermedades. s.
Datos
cuantitativo No siempre
Estudios s rápidos; son muestras
rápidos. puede aleatorias;
4 Estudios Poco
Muertes, prevenir trabajo
"rápidosau 2-3 personal
número malos intenso,
nqueimper días entrenado
hospitalizados, manejos; riesgo de
fectos" .
estado puede sobre
nutricional. brindar interpretació
datos para n.
vigilancia.
184
Por otro lado, muchas de las redes sociales y sistemas de información generados
nacen de la necesidad de masificar y compartir la información relacionada con
desastres, como DesInventar que en su sitio WEB manifiesta que “...la ausencia de
registros sistemáticos, homogéneos y comparables sobre la tipología de los desastres, como
efectos de la ocurrencia de eventos amenazantes en las condiciones de vulnerabilidad en cada
región, país, o ciudad, por un lado,..., han contribuido a hacer menos visibles los miles de
pequeños y medianos desastres que anualmente ocurren en los países de regiones como
América Latina y El Caribe, Asia y África...”[5]
185
investigación sobre epidemiología de desastres: Es un centro perteneciente a la
Universidad Católica de Lovaina en Bélgica, que se encarga de administrar la base
de datos internacional EM-DAT, ya mencionada anteriormente. Por otra parte,
desarrolló una base de datos específica para desastres en el territorio asiático, la
EM-SIANET – EmergencySouthEast Asia Network. [8]
3 Términos de desastres
186
existentes y la materialización de la necesidad de usar una terminología única para el
tratamiento de los desastres, en cualquiera de sus momentos.
Las diferentes organizaciones manejan una serie de términos desde los diferentes
puntos de vista de los actores y de las mismas organizaciones, que hasta ahora se están
formalizando, como conceptos propios de un desastre. Como lo dice Patricia Diskette
en su informe mundial sobre desastres: “la palabra desastre tiene diferentes definiciones y
para la palabra damnificado aún no hay un acuerdo” [2].
Sin embargo en algunos sectores ya existe alguna terminología técnica,
particularmente en el sector de la medicina para desastres, la cual ya se encuentra de
alguna manera estandarizada.
Consiste en una lista de términos que han sido analizados y recopilados de diferentes
fuentes con el fin de estandarizar y utilizar la misma definición para el tratamiento de
un desastre, realizada por el CRID – Centro Regional de Información sobre Desastres
América Latina y el Caribe a partir del año 1999. Esta iniciativa en primera instancia
ha sido desarrollada por expertos tanto en gestión y manejo de la información, como
por expertos en el área misma de desastres. A partir del último año, esta lista se ha
hecho pública y se ha dispuesto a través de una wiki para que otras personas
relacionadas con los términos de desastres aporten y actualicen el VCD en línea.
Allan Lavell, quien es el responsable de la creación y revisión del VCD, publica en
el prólogo lo siguiente: ―…El Vocabulario que aquí se presenta tiene el objetivo de
establecer o sugerir un conjunto de términos y definiciones en torno al problema del
riesgo y desastre, considerando tanto los aspectos físicos como sociales y que captan
la esencia de muchos de los nuevos (y viejos) términos que se han introducido en
nuestro léxico, o, cuando menos, en nuestros oídos, en particular, durante los últimos
10 años. Su contenido está basado en una revisión de múltiples fuentes, llegando a una
definición que pareciera ser conveniente y más y más común entre los profesionales
en esta rama del conocimiento. No por eso pretende ser exhaustivo o excluyente.
Como todo proceso y producto de la ciencia debe ser abierto a modificación y
mejoramiento en el futuro.‖[11]
Fue creado por BIREME – Biblioteca Regional de Medicina, que en su origen fue
conocido como el Centro Latinoamericano y del Caribe de Información en Ciencias
de la Salud, el cual es un centro especializado de la Organización Panamericana de la
Salud y la Organización Mundial de la Saludy trabaja particularmente este campo en
el Área de Información y Gestión del Conocimiento.
El DeCS pretende unificar el lenguaje utilizado en el campo de las ciencias de la
salud mediante un concepto llamado ―vocabulario estructurado‖, y que de acuerdo al
BIREME se define como “… colecciones de términos, organizados según una metodología
en la cual es posible especificar las relaciones entre conceptos con el propósito de facilitar el
acceso a la información. Los vocabularios son usados como una especie de filtro entre el
lenguaje utilizado por el autor y la terminología del área y también pueden ser considerados
como asistentes de investigación ayudando el usuario a refinar, expandir o enriquecer sus
187
investigaciones proporcionando resultados más objetivos.”[12]
La función básica del DeCS es la recuperación de documentos, artículos, y otra
literatura relacionada con el área de ciencias de la salud, mediante búsquedas en bases
de datos especializadas entre las cuales se encuentran: BVS – Biblioteca Virtual de la
Salud, LILACS y MEDLINE y en tres idiomas: portugués, inglés y español.
4 Conclusiones
188
Referencias
189
Servicios de Geolocalización, el enfoque de las Redes
Sociales
191
of trades, hotels, restaurants, gas stations, and other services in a zone it
specifies real time.
1 Introducción
2 La Llegada de la Geolocalización
Son variadas las definiciones para expresar lo que es en sí, el fenómeno de las Redes
Sociales, una de ellas es la dada por el diccionario de la Web 2.0 54, las Redes en cuya
54 Gobierno Sociedad Empresa 2.0. Web 2.0: Adaptación a las Nuevas Tecnologías.
Diccionario de definiciones para entender la Web 2.0.
http://gobiernosociedadempresa20.blogspot.com/2009/09/web-20-
192
estructura los nodos individuales son personas que mantienen relaciones, tales como
amistad intereses comunes o fines comerciales.
El concepto de Red Social, creado por la antropología inglesa para superar
análisis estructurales obsoletos, parte de un abstracto, esto es, se toma un punto de
partida de estudio y se establecen las distintas relaciones entre los individuos. Por
cada punto de partida se crea distintas redes y por supuesto distintos modelos de
relación, y que dentro de un mismo momento espacio-temporal, se pueden
redimensionar y redefinir esas Redes Sociales55
En un artículo de Larissa Adler Lomnitz para REDES (Revista hispana para el
análisis de redes sociales) las define como construcciones abstractas que el
investigador define de acuerdo al criterio que le interese; es decir, estas relaciones se
determinan por algún criterio subyacente, lo que permite identificar estructuras
sociales que generalmente no están formalmente definidas por la sociedad y que de
otra manera no serían identificables [1].
El concepto de Red Social ha abarcado siempre todos los ámbitos de la vida,
llegando a, agrupar diversas actividades que integran tecnología, interacción social y
la construcción de palabras, imágenes, videos y audio. ¿Por qué se han vuelto tan
importantes?, el uso dado por los usuarios de la Internet es cada vez mayor,
mostrándose como una de las actividad más populares en la red.
diccionario
55 Microsoft. Qué son y cómo funcionan las Redes Sociales I: Introducción. Microsoft SB
Portal https://www.microsoft.com/business/smb/es-
es/rrpp/redes_sociales_intro.mspx
57 ―Twitter Places: More Context For Your Tweets‖, publicado en su blog oficial el 14 de junio
de 2010. Disponible en http://blog.twitter.com/2010/06/twitter-places-more-
context-for-your.html
193
Tuenti (tuenti.com), insignia de las redes sociales para la juventud española,
creada en 2006 y asociada actualmente a Telefónica58, empresa también de origen
español, llevaba ya algún tiempo anunciando esta funcionalidad y trasladando la
experiencia completa de ―Tuenti Sitios‖ a la versión móvil de la página, el pasado 20
de mayo, presento su nueva herramienta de Geoposicionamiento 59, la cual permite a
los usuarios compartir ubicación con sus contactos de forma privada.
Facebook (Facebook.com), compañía fundada en febrero de 2004 por Mark
Zuckerberg, es sin duda la mayor red social con más de 500 millones de usuarios
alrededor del mundo60. Le llevo un tiempo trabajar en el desarrollo de este nuevo tipo
de servicios, hasta anunciar Places en Facebook61. Este nuevo elemento de su servicio
permite a los usuarios hacer público el lugar dónde se encuentran a través del sitio.
Inicialmente, Places sólo está disponible en los EEUU, asegurando que tiene intención
de ofrecer pronto el servicio en más países y plataformas.
Foursquare (foursquare.com), lanzado el 11 de marzo de 2009, ―Foursquare es
como Facebook o Twitter, pero con localización, somos una mezcla de localización,
herramienta social y entretenimiento‖, palabras de su fundador Dennis Crowley en
entrevista concedida al diario Español El País62. estudio realizado por IAB Spain
(www.iabspain.net/index.php) y Cool Insights (www.coolinsights.com), con datos de
usuarios españoles, sobre ―Geolocalización, movilidad y recomendación, a propósito
de Foursquare‖ [3], la muestra como una nueva red social a través de la cual,
mediante teléfonos dotados de conexión a Internet y GPS, los usuarios comparten con
sus amigos su ubicación geográfica.
Gowalla (gowalla.com), fundada en agosto de 2007, es una red social al estilo de
Foursquare, lanzada con anterioridad y que ahora busca consolidarse por medio de sus
nuevas versiones, anunciadas por su presidente en una entrevista con Om Malik63,
58 ―Telefónica compra el 90% de Tuenti por 70 millones‖, según información dada por Diario
Expansión, que adelantó la noticia con todos sus detalles, Telefónica tendrá también
presencia en el consejo, aunque no de forma mayoritaria. Disponible en
http://www.expansion.com/2010/08/03/empresas/tmt/1280869139.html
59 ―De las listas de amigos a los mapas sociales‖, la posibilidad de geolocalizar a los usuarios,
―la posibilidad de que los usuarios compartan su ubicación local con el resto de sus amigos",
comenta el cofundador de Tuenti Zaryn Dentzel en el blog oficial. publicado el 20 de mayo
de 2010. Disponible en http://blog.tuenti.com/de-las-listas-de-amigos-a-
los-mapas-sociales
60 ―500 Million Stories‖, por Mark Zuckerberg, publicado el día el miércoles 21 de julio de
2010. Disponible en http://blog.facebook.com/blog.php?post=409753352130
61 ―Who, What, When, and Now...Where‖, por Michael Eyal Sharon, responsable de Place en
Facebook, publicado el 18 de agosto de 2010 y disponible en el blog oficial de Facebook.
http://blog.facebook.com/blog.php?post=418175202130
63 GigaOM Video: Gowalla CEO Josh Williams on Foursquare, Yelp & the Future of Location,
su presidente comenta sobre las aplicaciones para BlackBerry y para Android que están por
194
aplicaciones que les podría dar un impulso importante frente a Foursquare.
Google Latitude (google.com/latitude), el servicio de Google para
Geoposicionamiento, viene integrado en la aplicación Google Maps para el móvil.
FourWhere (fourwhere.com), es una nueva aplicación creada por Sysomos
(www.sysomos.com) es una red que utiliza a Google Maps para mostrar los lugares
que han recomendado los usuarios de otras redes como Foursquare, Gowalla y Yelp 64.
Loopt (loopt.com), creada en enero de 2005, es una aplicación que acaba de
lanzar una nueva versión65 que permite a los usuarios actualizar automáticamente su
ubicación a medida que se mueven. Es una novedad frente a lo que ofrecen sus
rivales, como Foursquare y Gowalla, que requieren que el usuario registre
manualmente su ubicación al visitar los sitios.
Miso (gomiso.com), nueva red social creada por Bazaar Labs
(www.bazaarlabs.com), en los que los usuarios pueden recomendar sus series
televisivas favoritas. Miso es algo así como un Foursquare, no indica el lugar dónde se
encuentra el usuario, sino lo que hace es mostrar qué está viendo.
5 Tecnología Móvil
llegar, lo que les puede dar un impulso importante frente a Foursquare. Disponible en
http://gigaom.com/2010/01/22/gowalla-williams-video/
195
tiempo pasa con el usuario, y segundo, porque que la tendencia en la informática es el
acceso generalizado a la Red, en cualquier lugar independiente y en permanente
movilidad [6].
6 Integración de Servicios.
Para poder aplicar a las bondades que ofrece la Geolocalización, se hace necesario
contar con un dispositivo electrónico con funcionalidades de un teléfono móvil con
características similares a las de un ordenador personal y que tenga GPS, como puede
ser un iPhone, Nokia, Nexus One o una Blackberry, Palm, Android, WebOS,
YouTube, entre otros. Ésta nueva tendencia, sin duda alguna facilita la integración
entre servicios, que permitirá a los usuarios acceder y visualizar todas las
actualizaciones de algunos de sus sitios web y redes sociales más populares, como es
el caso de Facebook, ó como muestra Foursquare o Gowalla, una vez seleccionado un
lugar determinado para uno de nuestros tweets, es posible ver los check-ins
producidos en ese mismo sitio por parte de usuarios de Gowalla y Foursquare. Por
otro lado Gowalla puede añadir a tus amigos de forma rápida a partir de las listas de
amigos de otras redes sociales, como Twitter, Facebook, listas de contactos de Gmail
o de Windows Live o simplemente de forma tradicional buscando en la red.
7 Geolocalización y la privacidad
Compartir la ubicación personal a través de una red social, inicialmente parece una
buena idea, sin embargo, compartir este tipo de información con desconocidos, es
considerado por algunos como una invitación a invadir su privacidad, llegando a
convertirse incluso en un problema, ya que esa información puede estar disponible
para todo el mundo de forma abierta y continua.
La mayoría de redes sociales basadas en Geolocalización, como es el caso
Foursquare, BrightKite y Gowalla animan a sus usuarios a registrarse al llegar a un
sitio, con el fin de poder saber adonde están en un momento dado. Aunque estas
aplicaciones disponen de ciertos controles de privacidad que permiten entre otras
cosas, enviar actualizaciones de localización tan sólo a un grupo selecto de contactos,
muchas veces éstas actualizaciones son enviadas por toda la red.
En este sentido se hace importante que tanto las grandes compañías que ofrece
estos servicios como las que disponen de medios de integración social, trabajen en
aquellos aspectos que estén relacionados con la privacidad de cada uno de los
usuarios y su querencia por mantener ciertas barreras, que más allá de impedir develar
información veraz o tipo de identidad personal, sirvan para frenar una mayor
intrusión de su intimidad, en la que se considera su ubicación actual y real.
Aunque el tema de la privacidad interesa a muchos usuarios, a otros puede no
importadles demasiado, sobre todo las nuevas generaciones, aquellas que crecieron en
la era del Internet y que no muestran ningún reparo a la hora de dar información
personal, llegando en ocasiones a excederse sobre donde andan y lo que hacen a cada
instante. No pensando en términos de si está bien o está mal, sino la forma de llegar a
la creación de una nueva identidad digital.
196
8 Geolocalización sus pros y sus contras
10 Conclusiones
197
anhelada y aceptada Geolocalización, en muchos casos basados en patrones de
comportamiento mostrados por los mismo usuarios, como una forma de interactuar
entre ellos, en lo posible en tiempo real. Tanto las redes sociales como las empresas
que ofrecen los servicios de Geolocalización, tienen la gran particularidad de estar
íntimamente ligadas con la evolución y popularización de las tecnologías móviles,
caso especial con los llamados móviles inteligentes, provistos de terminales con
mayor capacidad, junto con la generalización del uso de cartografía online.
La constante evolución e incremento de estas Webs sociales, están cambiando, de
cierta manera nuestra forma de vivir, ahora nos pueden decir en donde están nuestros
amigos y a ellos donde estoy yo, gracias a la integración de las tecnologías, sabemos
donde nos encontramos y que camino tomar. Ya no solo importa el que, y el como,
sino el donde. Mas sin embargo, independientemente del fin que se busque con la
utilización de estas herramientas, y en la medida en que cada vez se crean mas y
mayores aplicaciones que van asociadas a información geográficas y ésta a su vez
relacionadas con mensajes provistos por nosotros mismos, nos llevan a pensar en
temas relacionados con la intimidad y privacidad de los usuarios, temas que seguirán
siendo objeto de discusión.
Las aplicaciones móviles basadas en Geolocalización han sido una tendencia
importante en lo que va del 2010. Esto en combinación con los servicios que ofrecen
la mayoría de redes sociales, hace pensar que existe una necesidad innegable por la
cual la gran mayoría de usuarios, se muestren en disposición de desvelar información
relacionada con su ubicación actual, llegando inclusive a suponer importantes
problemas de privacidad.
198
Referencias
1. Adler Lomnitz, Larissa. Redes Sociales y partidos políticos en Chile. Articulo para REDES-
Revista hispana para el análisis de redes sociales. Vol.3, #2, sept-nov. 2002. (disponible en:
http://revista-redes.rediris.es/html-vol3/vol3_2.htm)
2. Lucian E. Marin. (2010). Geolocalización: presente y futuro en redes sociales. [en línea] [on
line] http://amaruxs.blogspot.com/2010/02/geolocalizacion-presente-y-futuro-en.html,
[consultado 30 Junio, 2010].
3. IAB Spain research, Cool Insights. (2010). Geolocalización, movilidad y recomendación. A
propósito de Foursquare. Informe hottopic_foursquare. 13 de abril de 2010, [en línea] [on
line] http://www.iabspain.net/index.php
4, 5. Álvaro E. Sandoval. Google quiere ser líder en celulares. Redacción tecnología, edición
impresa, El Tiempo 13 de julio de 2010. [en línea] [on line]
http://www.eltiempo.com/enter/actualidad_a/google-quiere-ser-lider-en-
celulares_7801661-1, [consultado 13 de julio de 2010]
6. Fundación eroski. (2009). Geolocalización: asistente personalizado en el móvil, Actualidad y
ocio, nuevas tecnologías. Geolocalización en el móvil. [en línea] [on line]
http://revista.consumer.es/web/es/20091001/internet/75113.php, [consultado 30 Junio de
2010]
7. Diario Expansion. 2010. ¡Quiero ser el ‗alcalde‘ del bar de la esquina!. [en línea] [on line]
http://www.expansion.com/2010/08/19/empresas/tmt/1282250361.html. [consultado 26 de
agosto de 2010]
199
Modelo de Gestión del Conocimiento en Docencia
Universitaria: Caso Universidad Distrital
1 Introducción
Las personas, como componente del capital intelectual de las organizaciones están
pasando de ser un recurso intangible a constituirse en uno de sus más importantes
activos, en razón a lo anterior, las rígidas estructuras jerárquicas de forma piramidal
que muchas empresas han optado como modelo de gestión sufren una transformación
integral y mutan para constituirse en redes, comunidades o equipos basados en el
conocimiento de sus integrantes, movilidad y flexibilidad en la comunicación,
dinámica sistémica entre sus componentes, visión compartida y capacidad de
interpretar, adaptar y apropiar las exigencias del entorno interno y externo.
Por lo tanto, una de las formas más útiles para entender, estudiar y representar el
fenómeno de la Gestión del Conocimiento en cualquier tipo de organización, es a
través de un modelo, ya que ofrece una visión más o menos unificada, integral y
201
completa sobre lo que se quiere plantear y abstraer de la realidad de la Gestión del
Conocimiento [8], [9].
La literatura presenta diferentes modelos de Gestión del Conocimiento en los
cuales muestra los elementos, actores, interrelaciones y escenarios que componen su
arquitectura; de esta se encuentran tres dimensiones básicas: Recursos basados en el
conocimiento, actividades de la Gestión del Conocimiento que actúan sobre estos
recursos, e influencias de la Gestión del Conocimiento que facilitan y limitan la
manifestación de estas actividades; sin embargo el presente estudio integra dos
dimensiones por la naturaleza de la investigación: el Nodo Investigación y Nodo
Extensión, los cuales refieren a producción intelectual del cuerpo docente en el primer
caso y aplicaciones de orden tecnológico, industrial, social, ambiental, económico
entre otras en el segundo.
202
permitirían acceder a él.
El esquema en si representa los aspectos estáticos, es decir, la estructura de los
conocimientos que se podrían disponer, que comprende los tipos de agentes,
interrelaciones, etc. Una ocurrencia del esquema son los valores que toman los
elementos del esquema en un determinado momento. Estos valores irán variando a lo
largo del tiempo debido a la aplicación de los operadores de manipulación de
conocimientos a una ocurrencia del esquema.
La topología de una red es la forma en que esta se organiza y hay diferentes modos
o modelos de organización, pero en el presente modelo solo se tienen en cuenta
básicamente dos: Estrella y Anillo.
Estrella: Esta es una red centralizada, una red estrella es un modo de disponer los
nodos de una red, de tal forma que todos los accesos o transmisiones pasan por un
dispositivo central de control. Para efectos de representación del modelo propuesto,
solo se aplica esta topología para representar el nodo principal y esencial,
constituyendo lo que podríamos denominar como el núcleo del modelo.
Anillo: El tipo de red anillo es distribuida, y se da básicamente conectando cada nodo
de la red en un ciclo cerrado con cada nodo enlazado a los nodos contiguos a la
derecha y la izquierda. La ventaja de esta red es que se puede trabajar a grandes
velocidades, en caso de implementarse a través de un sistema de gestión de base de
conocimiento.
Recursos
Nodos
Acciones
Agentes facilitadores
Comportamiento
Indicadores
203
Proveen agrupaciones de estrategia y de sus factores objetivos de una
conocimiento con críticos de éxito, discriminara institución, en pos de
enlaces físicos y virtuales dentro de los elementos su misión.
entre diversos nodos que intangibles propuestos por el
conforman la red de modelo, cuales son relevantes Características: La
conocimientos. y valiosos. definición de
indicadores debe
Facilitadores: hacerse en cada caso
Nodos Principales: Facilitadores externos: particular para cumplir
Conocimiento Entorno social su objetivo. Pueden ser:
Cualitativos, cuando
Académico Cultura del refieren a la existencia
conocimiento o al cumplimiento de
determinadas
Organizaciona
Estrategia cualidades,
l características o
Autoevaluación procesos; casi siempre
Tecnológico se responden con un sí
Facilitadores internos: o un no y los
Investigación Acreditación cuantitativos, se
expresan en números,
Institucional
Extensión los cuales son valores
absolutos o son
Estructura
resultados de cálculos
organizacional proporcionales entre
variables. Pueden ser
Contemporanización estáticos, cuando
TIC’s describen un momento
en el tiempo, como
Captación de especies de fotografías
conocimiento instantáneas, o
dinámicos cuando
Facilitadores: Nodo miden
Académico comportamientos y
Calidad académica tendencias entre un
tiempo y otro. También
Enseñanza- se pueden distinguirse
Aprendizaje otras clasificaciones,
tales como:
Productividad Indicadores de
Investigativa estructuras:
Cuando
Calidad de reflejan la
programas información
académicos cuantitativa
de la
Consultoría organización y
interinstitucional los recursos
con que ésta
Facilitadores: Nodo
Organización cuenta
Desempeño
Indicadores de
organizacional y
procesos:
competencias
Miden el tipo
Modernización y de servicio
mejoramiento ofrecido en
204
continúo relación con
patrones de
Facilitadores: Nodo referencia
Tecnológico
Despliegue y Indicadores de
articulación de impacto o
tecnologías resultado:
Miden la
Fortificación e
incidencia del
innovación técnica
programa en
la población
total o en la
seleccionada
como grupo
objetivo
Nodo Nodo
Investigación Tecnológico
Conocimiento
Entorno Entorno
Económico Tecnológico
Nodo
Nodo Extensión
Organizacional
Entorno
Gubernamental
205
Fig 3. Modelo de Gestión del Conocimiento en Docencia Universitaria: Estructura
general. Fuente: Los autores
Procesos Desarrollo
... ...
académicos docente
Calidad de los Calidad
programas académicos Docente
Indicadores Indicadores
Proyectos Indicadores Apoyo Intranet -
Acreditación Docencia
curriculares docente Internet
Calidad
Académica
Indicadores Plataforma Fortalecimiento e Canales y
Centros de
... virtual innovación técnica Redes
información
Indicadores
Redes de Investigación
Investigación Docente Sistemas de Comunicaciones ...
Nodo Académico Información TIC’s
Calidad
Semilleros Nodo Nodo Gestión de
Investigativa ...
Indicadores Investigación Tecnológico tecnologías
Indicadores
Conocimiento
Indicadores
Grupos ... Campus Salas de
Virtual Computo
Entorno Entorno
Económico Tecnológico
Nodo
Indicadores Nodo Extensión Indicadores
Organizacional
Centro de Gestión Relaciones
Universidad -
Estudios de administrativa Institucionales
Empresa
Competitividad
Gestión Efectividad organizacional:
...
Humana Desempeño, competencias,
Extensión Consultoría habilidades
Centros de
universitaria Institucional Consultoría Indicadores
Indicadores Desarrollo
Institucional
Publicaciones ... Bienestar Modernización y
...
Universitario mejoramiento continuo
Indicadores
Nodos
206
fundamental. Analógicamente se puede asociar a un repositorio de
conocimiento66, que facilita su efectividad en diferentes áreas de
conocimiento, en entornos diferentes y con perfiles de usuario diferentes.
Explica de manera funcional la forma como se genera y difunde el
conocimiento entre los miembros de la organización y sus relacionados.
Nodo Académico: Hace referencia a las actividades propias del área
académica; la producción del saber-hacer-ser, la formación de profesionales,
la universalización de la cultura. Articula la calidad de la docencia y la
calidad de los programas buscando una formación más integral y holística.
Autoevaluación Aprendizaje y
curricular capacitación
Procesos Desarrollo
... ...
académicos docente
Calidad
Calidad de los Docente
programas académicos
Indicadores Indicadores
Proyectos Apoyo
Acreditación Docencia
curriculares docente
Calidad
Académica
Indicadores
Centros de
...
información
Nodo Académico
66
Conjunto de datos/información que representan experiencias, problemas y
soluciones relacionadas entre sí. Incluyen programas para buscar y recuperar
información.
207
construyendo un ambiente que se funde con la producción misma del conocimiento: la
organización como ambiente cognitivo. Dentro de este nodo se muestran los sub-
nodos que apoyan la gestión del conocimiento en la organización (ver figura 6).
Nodo
Organizacional
Gestión Relaciones
administrativa Institucionales
Bienestar Modernización y
...
Universitario mejoramiento continuo
Indicadores
Intranet -
Internet
Nodo Gestión de
...
Tecnológico tecnologías
Indicadores
Campus Salas de
Virtual Computo
208
mayor comprensión y profundización del saber-hacer-ser, permite la
ampliación del mismo y su proyección hacia condiciones concretas del país.
La investigación aplicada recibirá especial atención dada las condiciones
particulares del entorno social-científico-económico de la Universidad sin
perder de vista la investigación formativa de sus miembros organizacionales.
Dentro de este nodo se puede a su vez, esquematizar otros sub-nodos que
apoyan la gestión del conocimiento en el contexto de Investigación como lo
son grupos y semilleros (ver figura 8).
Redes de Investigación
Investigación Docente
Calidad
Semilleros Nodo
Investigativa
Indicadores Investigación
Grupos ...
Nodo Extensión
Centro de
Universidad -
Estudios de
Empresa
Competitividad
Publicaciones ...
Agentes facilitadores
Las organizaciones obtienen unos resultados a los que se llega a través del
comportamiento de sus agentes facilitadores, es decir, las actuaciones de su personal y
el funcionamiento de sus procesos [1]. En las Universidades, los agentes facilitadores,
son los elementos que van a permitir impulsar las acciones de la política de la
organización universitaria, la gestión o cumplimiento de dichas acciones se evalúa de
acuerdo al comportamiento de una serie de indicadores que facilitarán la
identificación, desarrollo y retención del conocimiento, y que en definitiva permitirán
mantener o cumplir la misión de la organización.
Los agentes facilitadores se asocian a un nodo determinado con el fin de
proporcionar un área delimitada de conocimiento y en ellos se puede aglutinar los
distintos indicadores que facilitaran la decisión sobre las propuestas para la
consecución de la estrategia. Teniendo en cuenta la incidencia directa en la
organización, se pueden clasificar los agentes facilitadores en:
209
Facilitadores externos o interinstitucionales: Están relacionados con su
entorno social, cultural e institucional, proporcionando los elementos para la
regulación o gestión de actividades en el sector educativo, y suministrando
los indicadores que facilitan la rendición de cuentas de los componentes de la
educación superior, ante la sociedad. Éstos, a su vez, permiten la
comparación con otras entidades homólogas del país y del exterior.
Facilitadores internos o de gestión interna de la Institución: Son propios de
cada institución, y han de servirle a ésta para definir sus políticas y acciones;
además, de ser la base para el seguimiento y control de los planes de
desarrollo de cada una de las universidades. Cada uno de estos agentes
facilitadores contienen una serie de indicadores asociados a ellos.
Indicadores
210
Estos criterios son considerados como una totalidad. No hay entre ellos jerarquía
alguna ni se establece predilección de uno sobre otro; ellos se complementan y
potencian entre sí en cuanto a principios que sirven de base al juicio sobre la calidad:
Universalidad, Integridad, Equidad, Idoneidad, Responsabilidad, Coherencia,
Transparencia, Pertinencia, Eficacia y Eficiencia. Los anteriores criterios, son una
expresión de la postura ética del Consejo Nacional de Acreditación frente al tema de la
acreditación en Colombia y, en una perspectiva más amplia, en relación con el
cumplimiento de la función social de la educación superior y con el logro de altos
niveles de calidad por parte de instituciones y programas académicos de ese nivel [5].
4 Conclusiones
Referencias
1. Benavides Velasco, C. y Quintana García, C., Gestión del Conocimiento y Calidad Total,
Ed. Díaz de Santos, Madrid, 2003.
2. Bueno, E., ―Proyecto Intelect‖, en Boletín del Club Intelect, Madrid. 1998.
3. Camisón, C., Palacios, D. y Devece, C., 1999. ―Nova Club de Gestión del Conocimiento y la
Innovación de la Comunidad Valenciana‖, en Universitat Jaume I de Castellón, 1999.
[Consulta: 7.05.03] <http://www.gestiondelconocimiento.com/modelo_valencia.htm
4. Castells, M., La era de la información. Economía, cultura y sociedad, Alianza Editorial,
Madrid. 1998, I, 471.
5. CNA, Consejo Nacional de Acreditación de Colombia, ―Lineamientos para la Acreditación
de Programas‖, Bogotá. Agosto de 2003.
6. Donini, A. O. y De Donini, M. C., ―La gestión universitaria en el siglo XXI: Desafíos de la
sociedad del conocimiento a las políticas académicas y científicas‖, en Documentos de
Trabajo Nº 107, Universidad de Belgrano, Argentina. Julio 2003.
7. Guillaumín Tostado, A., ―Complejidad, transdisciplina y redes: hacia la construcción
colectiva de una nueva Universidad‖, en Revista online de la Universidad Bolivariana,
Volumen 1. 2001.
8. Joyanes Aguilar, L., ―Un paso hacia los Modelos de Gestión del Conocimiento desde un
Enfoque de Procesos‖, en Libro de Actas del CISIC 2002: I Congreso Internacional de
Sociedad de la Información, McGraw-Hill, Madrid. 2002.
9. Medina, Víctor H., Modelo Organizacional y Tecnológico para la Gestión del
Conocimiento en la Universidad: Aplicación en la Universidad Distrital - Colombia. Tesis
Doctoral. Universidad Pontificia de Salamanca. Madrid. 2004.
211
Evolución de los códigos de barras a redes wireless
NGN ― RFID‖, computación ágil, inteligente y móvil.
1 Introduccion
Las redes de área personal PAN RFID (En ingles: Radio Frequency Identification) es
una de las tecnologías que hoy en día se están probando por medio de prototipos para
nuevas y prometedoras aplicaciones en muchos campos de investigación y desarrollo
de aplicaciones. Nació por la necesidad de identificar aviones en la segunda guerra
mundial por los británicos, existen referencias de 1960 donde se afirma su aparición en
la industria armamentista americana, pero por sus elevados costos no se había
popularizado en otras áreas del comercio. [1].
Ahora encontramos que el nivel de producción y adquisición se esta incrementando
al punto de que en Colombia empieza a posicionarse en el mercado en importantes
empresas de mercadeo.
Hoy en día los RFID están siendo implementados en múltiples organizaciones,
simulando actividades a través de nuevos dispositivos inalámbricos con gran potencial
213
de comunicación; como lo fue desarrollado en dos de las compañías más exitosas de
Colombia. [2]
La aceptación de los RFID como tecnología innovadora de actividades y procesos,
esta evolucionando positivamente, ya que cuenta con sistemas sofisticados que
funcionan desde identificación de animales (Ganado vacuno), personas, equipos hasta
la seguridad y control de acceso en organizaciones. ―La tecnología RFID tiene el
potencial de brindarnos una ventaja competitiva real, ayudar a mejorar el
cumplimiento de los pedidos e incrementar la satisfacción del cliente”. [3].
Con la cultura de globalización y libre comercio en los productos y servicios, es
importante destacar la necesidad de que nuestras PYMES (Pequeñas y medianas
empresas) conozcan este tipo de información para conectar sinergicamente la
tecnología con el talento humano a través de la identificación por radiofrecuencia, para
mejorar su calidad y así mismo nivel de competitividad. En plena revolución del
conocimiento y de tecnología, es indispensable fomentar el proceso de actualización
o adquisición de nuevos sistemas para la prestación de servicios por parte de las
organizaciones a través de dispositivos que permitan el mejoramiento continuo en la
organización, atacando los problemas que generan la incertidumbre y el riesgo
informático. Como se ve reflejado en la siguiente distribución del presupuesto
promedio de las empresas nacionales. [4].
TABLA 1
Ventajas Desventajas
Automatiza eliminando el error humano la A diferencia del código de barras,
identificación, conteo, rastreo, RFID puede ser rastreado a distancia
clasificación y ruteo de cualquier objeto. después de salir del supermercado.
214
ingreso de datos (mientras el código
Elimina errores y por consecuencia el de barras supera el 99,9 por ciento de
desperdicio de recursos. confiabilidad, algunas
etiquetas de radiofrecuencia caen
incluso por debajo del 90 por ciento)
TABLA 2
DIFERENCIAS ENTRE RFID Y CÓDIGO DE BARRAS
Lectores RFID:
Característica RFID CÓDIGO DE BARRAS
Los trasponders o Tag son unos dispositivos compuestos por una microchip y una
antena, utilizados para la transmisión de datos en RFID. Se pueden encontrar en varias
formas y tamaños como (etiquetas, manillas, tarjetas) las cuales son implantadas en el
objeto o persona que se va a identificar.
TABLA 3
Diferencias entre las clases de los Transponders
Identificación
Tag de pasiva y Tag con Tag asistidas por Tag de batería
identificación memoria (usable batería pasivas activas (tags
Pasivo (usable en un rango de 3 trasmitir portadora)
en un rango de metros)
3 metros)
Transmisión Activa
Mas
Backscatter Backscatter funcionalidad en (Permite Tag-
(Habla de (Habla de primero el chip – Hablar- Primero
primero el el interrogador) memoria, modos de operación)
interrogador) sensores, etc
Backscatter
(Habla de
Muy bajo costo Seguridad primero el 100 metros de rango
interrogador)
Muy bajo costo Costo Moderado Alto Costo
Cuando se inicia comunicación con el lector el Tag por medio de la antena envía una
serie de datos del objeto identificado, como (Temperatura, parámetros, número de
identificación), los cuales entran a una base de datos específica que depende de la
aplicación. Una característica importante es que cada uno de los Tag tiene un único
número de serie, de fábrica que es inalterable y distinto a los demás, comúnmente
llamados como Lectura de Número Único (Read only number). El rango de banda de
frecuencia en el que trabaja varía entre de 60 kHz a 5.8 GHz, existen dos tipos de
bandas, la de baja frecuencia (LF) que está entre 125 y 134 KHz y la de alta
frecuencia HF 13.56 MHz. En la RFID los Tag han sido clasificados por la EPC
(―Electronic Code Product‖), dependiendo su forma de funcionamiento en cuatro
clases:
Clase 0, 1 y 2: Estos tipos de Tag pasivas no poseen una batería propia, entonces lo
que realizan es la obtención de la energía de RF que envía al lector y la extraen.
Clase 3: Este tipo de tag Asistido por Batería Pasivo, son Tag que ofrecen un mayor
rango y grado de fiabilidad que la Clase 0, 1 y 2 de los tag pasivos.
Clase 4: A diferencia de los Tags pasivos, los activos tienen la propiedad de que
cualquiera de los dos componentes pueden iniciar la comunicación ya sea el lector o el
Tag, la etiquetas activas tienen una radio onboard, lo que es indicador de un rango
mucho mayor que el de las pasivas.[9].
216
2.3 Software:
3 Conclusiones
Los sistemas de identificación por radio frecuencia básicos están compuestos por un
chip que contiene información del producto que se quiere identificar , además se
necesita de un lector ( Con antena) que permita capturar todos y cada uno de los
objetos utilizados.
Actualmente la tecnología de identificación por radiofrecuencia es una herramienta
muy importante para el control, identificación y seguimiento elementos, animales,
personas etc. RFID ya no es una tecnología futurista, es una tecnología que ya esta
siendo implementada por múltiples sectores empresariales del país.
Los códigos de barras y la tecnología RFID están llamados a funcionar en sistemas
hibridos que permitan potencializar cada una de sus capacidades y características
técnicas con el macro objetivo de la optimización tanto de la identificación como la
gestión de datos dentro de un contexto sistémico de una organización.
Referencias
1. Bhattacharya, Shaoni;. "Electronic tags for eggs, sperm and embryos" en New
Scientist.com, 2 de abril de 2005, http://es.wikipedia.org/wiki/RFID
2. Carla Lambertini , Noel SA completó con éxito el piloto de tecnología RFID utilizando
soluciones Oracle
La fábrica de galletas colombiana encuentra dulces recompensas en el piloto de RFID,
anticipándose a las exigencias de los clientes, 13-FEB -
2006,http://www.oracle.com/global/lad/corporate/press/2006_feb/noel_completo_rfid.htm
l
3. Pedro Alfonso Blanco, Gerente de Logística de Noel S.A, Estudio de RFID en Noel,
2006,http://www.oracle.com/global/lad/corporate/press/206_feb/noel_completo_rfid.html
4. www.fundacioncorona.org.co/descargas/PDF_publicaciones/Salud/Salud_Doc8.pdf
5. www.iworld.com.mx/iw_SpecialReport_read.asp?iwid=4413&back=2&HistoryParam=R
6. www.gslcr.org
7. www.quiminet.com.mx/ar2/ar_%259FU%258D%251D%253A%25FD%25CD%25DC.ht
m
8. Dargan, Gaurav; Johnson,Brian; Panchalingam, Mukunthan; Stratis, Chris, The Use of
Radio Frequency Identification as a Replacement for Traditional Barcoding
9. Tags activos vs. tags pasivos: Comparación técnica, http://www.rfid-spain.com/
10. http://www.ericel.com/
217
Cloud Computing en redes sociales de telefonía móvil
¿En dónde está el límite entre las relaciones sociales
tradicionales y virtuales?
1
DEA Universidad Pontificia de Salamanca - Madrid,
2
Universidad Pontificia de Salamanca - Madrid,
3
DEA Universidad Pontificia de Salamanca - Madrid,
4
DEA Universidad Pontificia de Salamanca - Madrid,
aromanv@yahoo.com, 2luis.joyanes@upsam.net,
1
3
a_ramos_sa@yahoo.com, 4sandra.velazcof@gmail.com
1 Introducción
Desde que se iniciaron las redes sociales alrededor del año 2001, Internet no ha vuelto
ser la misma. Pasó de ser una posible opción de información y negocios a ser un centro
clave en la agrupación social mundial. Cada día aparecen nuevas y mejores
aplicaciones y servicios enfocados a una mayor y mejor integración de las redes
sociales con sus respectivos usuarios. Un factor clave y decisivo en este auge lo ha
proporcionado la telefonía móvil. Gracias a los terminales móviles, más
específicamente a los smartphones67, la conectividad a las redes sale de la casa, del PC
de escritorio, a la libertad y movilidad del teléfono móvil personal.
No obstante, y a pesar los grandes avances en telefonía móvil, aun existen claras
limitaciones, en aspectos como la autonomía, la potencia de procesamiento y la
capacidad de almacenamiento.
Si bien es cierto que los actuales smartphones son comparables en potencia
respecto a PC de escritorio de gama baja, aun es necesario recorrer cierto camino para
lograr tener un ordenador potente y completo en la palma de la mano. Mientras eso
67
http://en.wikipedia.org/wiki/Smartphone
219
ocurre, las deficiencias actuales pueden ser subsanadas con el apoyo de servicios de
terceros [1]. Esto puede ser posible hoy día gracias en gran medida al relativo
abaratamiento, con restricciones, en los planes de datos de las redes de internet móvil,
aunque aún hay opiniones encontradas [2], y las subsecuentes mejoras en velocidad
de acceso a la red y servicios68, aunque aun necesita algo más de apertura [3].
En el presente artículo se presentara una breve descripción de los avances en
telefonía móvil, el estado actual de las redes sociales, los servicios más importantes
que ofrecen estas y sus continuas mejoras en integración, las posibilidades que ofrece
las redes móviles, como los servicios de Cloud Computing69 colaboran en gran medida
a estas mejoras y un análisis de cómo el teléfono móvil se ha convertido en un
elemento que mas que comunicar es un elemento clave de la cultura digital y el
progresivo desvanecimiento de las barreras físicas hacia la integración de una sociedad
virtual.
2 La telefonía móvil
Aun hoy día existen deferentes opiniones sobre lo que es una red social
[10][11][12][13], no obstante podemos definir que una red social es ―la unificación de
68
http://es.wikipedia.org/wiki/Telefon%C3%ADa_m%C3%B3vil_3G
69
http://en.wikipedia.org/wiki/Cloud_computing
70
http://en.wikipedia.org/wiki/Mobile_phone
71
http://www.xataka.com/moviles/tendencias-2010-telefonia-movil
72
http://www.symbian.org/
73
http://developer.apple.com/devcenter/ios/index.action
74
http://www.android.com/
220
diversos grupos o entes individuales, entre las cuales ocurre un intercambio de
información, intereses y problemas que permiten en su conjunto mejorar la calidad de
vida de los individuos que conforman dicha red‖.
Gracias a las redes sociales, internet se ha convertido en el elemento que permite
recortar las distancias entre sus usuarios. Permite la interacción en tiempo real entre
diferentes personas, conocidas o no, y ha logrado que el mundo sea cada día un sitio
más pequeño y alcanzable.
Redes sociales bien establecidas como Facebook75, My Space76, Twitter77,
LinkedIn78, Flickr79, Youtube80, Picasa81, solo por citar algunas, han establecido redes
y grupos sociales que comparten desde cosas muy especificas hasta información
general e intima de cada usuario.
Al margen de las diferentes posiciones respecto a la privacidad de la información
personal [14][15][16], las redes sociales han tenido un gran empuje gracias a la
proliferación de aplicaciones emblemáticas de dichos sitios en los smartphone y a las
facilidades y mejoras en estructura móvil celular, red de datos y calidad de servicio,
aunado a un incremento en potencia y prestaciones de los dispositivos móviles [17].
Este último aspecto ha sido decisivo. Los actuales smartphone poseen como mínimo
cámara de fotos y GPS. Estos aditivos han permitido que la información que circula en
las redes sociales se haya enriquecido exponencialmente ya que no solo es texto, es
imagen, sonido y la posibilidad de poder conocer en tiempo real lo que ocurre o
acontece en cualquier parte del planeta, siempre y cuando haya cobertura de red móvil
[18].
La congregación de toda esta avalancha de información ha multiplicado como
nunca antes los requerimientos de espacio y ancho de banda para satisfacer estas
necesidades de compartir [19]. El potencial de esta información es tan alto que hoy día
se investiga que modelos de minería de datos son los más idóneos para obtener
beneficios de estos datos [20][21].
Aun no está claro cuál será el modelo comercial ideal [22]. El actual esquema de
obtener beneficios por publicidad esta algo gastado y quien lo domina con maestría es
Google [23]. No obstante, dilemas morales y legales aparte, el uso de la información
individual de cada usuario de las redes sociales permitiría abrir nuevos horizontes en
el comercio electrónico, estudiando y analizando tendencias grupales, incidencias de
eventos, y preferencias de grupos.
Las redes sociales se alimentan principalmente de los datos que aporten sus usuarios
[24]. Si bien su uso directo desde sus respectivos portales en el navegador es muy
cómodo, el verdadero poder de estas redes se libera en los teléfonos móviles. Existen
diferentes aplicaciones móviles que permiten realizar esta tarea de intercambio de
información entre grupos sociales muy fácilmente. Cosas como publicar fotos, videos,
la posición actual vía GPS y streaming82 de audio y/o video, etc, es solo cuestión de
seleccionar el archivo y subirlo a la red. Un ejemplo de esto ocurrió el día 13 de Junio
de 2009 en Irán83 84 85, en donde el gobierno local de ese país prácticamente clausuro
el acceso a la web para evitar que se filtrara a la opinión pública información sobre los
75
http://www.facebook.com/
76
http://www.myspace.com/
77
http://twitter.com/
78
http://www.linkedin.com
79
http://www.flickr.com/
80
http://www.youtube.com
81
http://picasaweb.google.com
82
http://es.wikipedia.org/wiki/Streaming
83
http://en.wikipedia.org/wiki/2009%E2%80%932010_Iranian_election_protests
84
http://futureoftheinternet.org/could-iran-shut-down-twitter
85
http://www.foxnews.com/story/0,2933,526403,00.html
221
eventos que allí ocurrían86. Esto quizá ayude a apoyar la afirmación del fundador de
Twitter, Jack Dorsey: "Twitter no es una red social sino una herramienta de
comunicación"87.
Las redes sociales en conjunto con estas extensiones software en los teléfonos
móviles, dan la oportunidad al usuario común a ser protagonista de los eventos que
ocurren en su entorno. Suerte de reportero accidental, el uso de estas herramientas, han
permitido la creación del microblogging88 89, cosa que incluso las grandes
corporaciones de noticias y prensa internacional han tenido que reconocer lo práctico
y eficiente que puede ser para dar información a la comunidad internacional al
momento90.
Al margen de estos usos, las redes sociales también son útiles para sus usuarios en
su vida diaria, ya que proporcionan una alternativa para reunirse, compartir,
informarse, conocer, y hacer nuevas amistades, todo de forma virtual.
86
http://www.lanacion.com.ar/nota.asp?nota_id=1141323
87
http://www.elpais.com/articulo/internet/Twitter/red/social/herramienta/comunicacion/elpepute
c/20090325elpepunet_2/Tes
88
http://en.wikipedia.org/wiki/Microblogging
89
http://www.enriquedans.com/2009/07/ecosistema-microblogging-y-mi-uso-del-mismo.html
90
http://www.diariodeibiza.es/opinion/2010/09/09/periodismo-microblogging/431776.html
91
http://en.wikipedia.org/wiki/Wireless_Application_Protocol
92
http://en.wikipedia.org/wiki/Gprs
93
http://en.wikipedia.org/wiki/Enhanced_Data_Rates_for_GSM_Evolution
94
http://en.wikipedia.org/wiki/3g
95
http://www.nimbuzz.com/es
96
http://www.fring.com
97
http://windowslive.com/desktop/messenger
98
http://en.wikipedia.org/wiki/Cdma
99
http://en.wikipedia.org/wiki/Gsm
100
http://hubpages.com/hub/Difference_between_CDMA_EVDO_GSM_and_EDGE_Mobile_P
hones
222
no eliminar, a las redes clásicas cableadas [31][32][33].
101
http://en.wikipedia.org/wiki/Grid_computing
102
http://en.wikipedia.org/wiki/Virtualization
103
http://en.wikipedia.org/wiki/Software_as_a_service
104
http://en.wikipedia.org/wiki/Platform_as_a_service
105
http://en.wikipedia.org/wiki/Utility_computing
106
http://www.cloudcomputingla.com/2010/cloud-computing/tipos-de-computacion-en-nube-
publica-privada-o-hibrida
107
http://en.wikipedia.org/wiki/Data_center
108
http://techcrunch.com/2010/01/21/facebook-data-center/
109
http://www.maestrosdelweb.com/editorial/herramientas-para-los-adictos-a-twitter/
110
http://en.wikipedia.org/wiki/Mashup_%28web_application_hybrid%29
111
http://www.abiresearch.com/press/
1484-Mobile+Cloud+Computing+Subscribers+to+Total+Nearly+One+Billion+by+2014
223
más popular Dropbox112, que está adaptado a las plataformas móviles más comerciales.
Esto proporciona cierta garantía en el aspecto de la disponibilidad de estos datos en
caso de pérdida o cambio del terminal telefónico. Si bien esto lleva a considerar otros
factores que implican aspectos éticos, de seguridad y privacidad de la información 113,
el uso de estos servicios de exteriorización de datos es un ejemplo más de las
posibilidades de Cloud Computing.
También cabe la posibilidad a futuro de usar servicios externos en la nube para
complementar otros aspectos. Muchos de ellos ya están disponibles, como el
almacenamiento de fotos, video y música (Facebook), bitácoras, microblogging y
ubicación (Twitter) y envió de streaming de audio/video en vivo (Qik114, Ustream115),
pero ninguno de ellos está realmente integrado. Otros aspectos que están por verse es
el uso de aplicaciones de proceso masivo, renderizado 3D en tiempo real, televisión
on-line, y realidad aumentada116 117. Para estos casos, el uso de poder de
procesamiento externo es clave, y allí la Cloud Computing jugara un papel crucial.
7 La sociedad móvil
Los cambios introducidos en las redes de telefonía móvil en los últimos años, han
impulsado el despegue y establecimiento de las redes sociales. La naturaleza gregaria
de la humanidad siempre ha buscado de alguna forma u otra establecer contactos con
los semejantes. Según David Weinberger118, co-autor del libro The Cluetrain
Manaifesto119 expresa que ―el comportamiento social sortea la predictibilidad‖. Las
redes sociales funcionan porque las personas buscan conectar con otras hablando,
construyendo y compartiendo [39].
En la vida cotidiana existen un sin número de momentos, de pocos minutos
(haciendo cola, en el bus, en el metro, etc.), en los que se aprovecha para echar mano
del teléfono y conectar por unos instantes a las redes o sitios de interés. Como reza la
vieja frase de marketing americano, el teléfono móvil puede ser utilizado Anywhere,
Anytime, Everywhere.
Evidentemente, esto no está exento de problemas. Es necesario dar algunos pasos
para homogenizar el uso de los servicios móviles en las redes sociales, entre los cuales
se pueden considerar:
112
https://www.dropbox.com
113
http://www.readwriteweb.es/tecnologias/cloud-computing-choca-legislacion-europea/
114
http://qik.com/
115
http://www.ustream.tv/
116
http://en.wikipedia.org/wiki/Augmented_reality
117
http://mashable.com/2009/08/19/augmented-reality-apps/
118
http://cyber.law.harvard.edu/people/dweinberger
119
http://www.cluetrain.com/book/
120
http://mensual.prensa.com/mensual/contenido/2007/08/04/hoy/negocios/1069597.html
224
San Francisco121 ―Los dispositivos móviles evolucionarán como controles remotos
para expandir servicios basados en la web en tiempo real, incluyendo servicios
basados en localización, creando oportunidades, dándole poder a los consumidores de
forma disruptiva y transformadora‖ [41].
Bajo este contexto, para definir lo que es una red social virtual, es necesario
preestablecer algunos conceptos:
De esta forma podríamos definir que una red social virtual es un conjunto de
personas, entidades o grupos sociales que con un mismo objetivo o propósito, se unen
para coincidir, apoyándose en el uso de tecnologías que permitan establecer los lazos
de esta relación.
En este sentido, Niki Panteli124 plantea unos niveles de jerarquía que denomina
niveles de investigación de virtualidad, el cual puede verse en la Fig.1.
121
http://www.web2summit.com/web2009/public/sv/q/102
122
http://virtualsociety.sbs.ox.ac.uk/text/people/woolgar.htm
123
http://informationr.net/ir/reviews/revs112.html
124
http://www.bath.ac.uk/management/faculty/niki_panteli.html
225
Fig. 1. Niveles de investigación de virtualidad [43].
9 Conclusiones
El actual concepto de relaciones sociales está siendo revisado. Debido al auge de las
aplicaciones Web 2.0 enfocadas a las redes sociales, las limitaciones físicas ya no son
un impedimento para mantener el contacto con familiares, amigos y compañeros de
125
http://es.wikipedia.org/wiki/Kinect
226
trabajo. La facilidad que ofrecen servicios como Facebook y Twitter, solo por citar los
más relevantes en cuanto a interactividad, rompe con el estándar clásico, impulsando
la creación de grupos sociales virtuales y su integración al modo de vida del ciudadano
actual.
La meta de lograr un sistema de comunicaciones móvil, fiable y seguro, que
potencie las redes sociales virtuales ya está al alcance. Las mejoras en aplicaciones
que aprovechen las bondades de Cloud Computing para el almacenamiento seguro de
la información y la posibilidad de potencia de procesamiento para tareas pesadas, que
actualmente los smartphone no pueden realizar en forma conveniente, están
plenamente disponibles. El aprovechamiento optimo de esta tecnología pasa por
mejorar las prestaciones de los smartphones en potencia hardware, duración de la
batería, sistema operativo y en la adaptación de las aplicaciones móviles, tanto en uso
de la red móvil como en interfaz de usuario.
Las redes sociales son actualmente un punto de referencia en la vida cotidiana para
los usuarios que disfrutan de sus prestaciones. La posibilidad de mantener el contacto
en forma continúa gracias al uso del smartphone ha logrado que limitantes como
distancia, tiempo y disponibilidad hayan pasado a un segundo plano, virtualizando las
relaciones y concentrando todo lo necesario para estar comunicado por medio de un
teléfono móvil.
Referencias
1. Sarah Perez, ―Why Cloud Computing is the Future of Mobile,‖ Read Write Web,
04-Ago-2009. [Online]. Available:
http://www.readwriteweb.com/archives/why_cloud_computing_is_the_future_of
_mobile.php. [Accessed: 16-Sep-2010].
2. Ramón Muñoz, ―¿Tarifa plana en la Red? Ahora ondulada,‖ El Pais.com, 16-
Sep-2010. [Online]. Available:
http://www.elpais.com/articulo/sociedad/Tarifa/plana/Red/Ahora/ondulada/elpepi
soc/20100916elpepisoc_1/Tes. [Accessed: 16-Sep-2010].
3. ―Is mobile Internet really such a good thing?,‖ Joi Ito, 23-May-2008. [Online].
Available: http://joi.ito.com/weblog/2008/05/23/is-mobile-inter.html. [Accessed:
16-Sep-2010].
4. ―8 Mobile Technologies to Watch in 2009, 2010,‖ Read Write Web, 29-Ene-
2009. [Online]. Available:
http://www.readwriteweb.com/archives/eight_mobile_technologies_to_watch.php
. [Accessed: 16-Sep-2010].
5. Guillermo Melis, ―Tecnología 4G, la nueva evolución de la telefonía celular,‖
Tendencias 21, 11-May-2010. [Online]. Available:
http://www.tendencias21.net/Tecnologia-4G-la-nueva-evolucion-de-la-telefonia-
celular_a4423.html. [Accessed: 16-Sep-2010].
6. Andreas Constantinou, ―The Mechanics Behind the Mobile User Interface,‖
Vision Mobile, 26-May-2009. [Online]. Available:
http://www.visionmobile.com/blog/2009/05/the-mechanics-behind-the-mobile-
user-interface/. [Accessed: 16-Sep-2010].
7. Vanessa Marsh, ―Se duplica la implantación de la banda ancha en Europa,‖
Tendencias 21, 03-Jun-2010. [Online]. Available:
http://www.tendencias21.net/Se-duplica-la-implantacion-de-la-banda-ancha-en-
Europa_a4517.html. [Accessed: 16-Sep-2010].
8. Enrique Dans, ―La PDA es cosa del pasado,‖ El Blog de Enrique Dans, 11-Abr-
2007. [Online]. Available: http://www.enriquedans.com/2007/04/la-pda-es-cosa-
del-pasado.html. [Accessed: 16-Sep-2010].
9. ―Smartphones benefit from 'apptastic' programs,‖ Vancouver Sun, 16-Sep-2010.
[Online]. Available:
http://www.canada.com/vancouversun/news/business/story.html?id=da028b84-
27fc-4551-80ad-
70d238dfba0d&k=51182&utm_source=feedburner&utm_medium=feed&utm_ca
227
mpaign=Feed%3A+canwest%2FF261+%28Vancouver+Sun+-+BusinessBC%29.
[Accessed: 16-Sep-2010].
10. Carlos Lozares, ―La teoria de redes sociales,‖ Revista de sociología, págs. 103-
126, 1995.
11. Craig Calhoun, Dictionary of the social sciences in politics and social sciences.
UK: Oxford University Press, Inc., 2002.
12. Barker, Robert L., The social work dictionary, 4º ed. Washington, DC: NASW
Press, 1999.
13. Barry Wellman, Janet Salaff, Dimitrina Dimitrova, Laura Garton, Milena Gulia,
y Caroline Haythornthwaite, ―Computer Networks as Social Networks:
Collaborative Work, Telework, and Virtual Community,‖ Annual Reviews Inc,
4139 El Camino Way, PO Box 10139, Palo Alto, CA 94303-0139, vol. 22, págs.
213-238, Ago. 1996.
14. Ralph Gross y Alessandro Acquisti, ―Information Revelation and Privacy in
Online Social
15. Networks,‖ in Proceedings of the 2005 ACM workshop on Privacy in the
electronic society, págs. 71-80, 2005.
16. B. Zhou y J. Pei, ―Preserving Privacy in Social Networks Against Neighborhood
Attacks,‖ presented at the Data Engineering, 2008. ICDE 2008. IEEE 24th
International Conference on, Cancun, págs. 506-515, 2008.
17. Lior J. Strahilevitz, ―A Social Networks Theory of Privacy,‖ American Law &
Economics Association Annual Meetings, 2005.
18. Antonio Luis Flores Galea, ―Evolución de las redes de telefonía móvil,‖ Sep-
2009.
19. ―¿Serán las redes sociales basadas en la localización el próximo gran
fenómeno?,‖ Universia Knowledge Wharton, 05-May-2010. [Online]. Available:
http://www.wharton.universia.net/index.cfm?fa=viewArticle&ID=1880.
[Accessed: 05-Sep-2010].
20. Ines Leopoldo, ―El nacimiento de la medianet, la red IP del futuro,‖ Techin.es,
26-Dic-2009. [Online]. Available: http://www.techin.es/?p=669. [Accessed: 03-
Sep-2010].
21. David Jensen y Jennifer Neville, ―Data Mining in Social Networks,‖ 2003.
22. Jon M. Kleinberg, ―Challenges in mining social network data: processes, privacy,
and paradoxes,‖ in International Conference on Knowledge Discovery and Data
Mining, págs. 4-5, 2007.
23. Peter Leitner y Thomas Grechenig, ―Scalable Social Software Services: Towards
a Shopping Community Model Based on Analyses of Established Web Service
Components and Functions,‖ in Hawaii International Conference on System
Sciences, págs. 1-10, 2009.
24. Bernard Girard, El modelo Google: una revolución administrativa. Norma, 2007.
25. Emily Steel y Jessica E. Vascellaro, ―Facebook, MySpace Confront Privacy
Loophole,‖ The Wall Street Journal, 21-May-2010.
26. Luis Castejón Martín, ―La globalización de las telecomunicaciones: competencia,
inversion y brecha digital,‖ 30-Sep-2005.
27. Daniel Seva y Marcelo Olguin, ―El mercado de telefonia celular en America
Latina,‖ Universidad de Palermo, Abr-2004.
28. Juan David Correa, ―A invertir en infraestructura de telecomunicaciones para el
país, invita presidente de Telefónica Colombia,‖ Portafolio.com.co, 25-Jul-2008.
[Online]. Available:
http://www.portafolio.com.co/negocios/lecciones_emp_porta/ARTICULO-WEB-
NOTA_INTERIOR_PORTA-4397867.html. [Accessed: 12-Sep-2010].
29. Alexandre Hohagen, ―El alto costo de internet dilata el creciente desarrollo de
América Latina,‖ America Economia, 15-Jul-2010. [Online]. Available:
http://www.americaeconomia.com/analisis-opinion/el-alto-costo-de-internet-
dilata-el-creciente-desarrollo-de-america-latina. [Accessed: 10-Sep-2010].
30. Sandra Parets, ―Redes Celulares 2G y 3G: Su impacto actual en las soluciones
móviles empresariales… y en las futuras estrategias móviles,‖ Boreal
Technologies, 24-Ago-2009. [Online]. Available:
http://borealtech.wordpress.com/2009/08/24/627/. [Accessed: 11-Sep-2010].
228
31. M. Jiménez y S. Millán, ―El fenómeno Twitter engancha a las compañías,‖
CincoDias.com, 06-Feb-2009. [Online]. Available:
http://www.cincodias.com/articulo/empresas/fenomeno-Twitter-engancha-
companias/20090206cdscdiemp_28/cdsemp/. [Accessed: 09-Sep-2010].
32. Ernesto E Quiroz M., Carelia G. Gaxiola P., Jesús N. Leal L., y Isidro Vicente
H., ―Asuntos abiertos en la provisión de calidad de servicio de ip en
33. redes inalámbricas 3G,‖ 2004.
34. Juan R. Coca, ―Llegan las redes de cuarta generación,‖ Tendencias 21, 21-Abr-
2009. [Online]. Available: http://www.tendencias21.net/Llegan-las-redes-de-
cuarta-generacion_a3190.html. [Accessed: 10-Sep-2010].
35. Erica Naone, ―El 4G deja de ser sólo para los teléfonos,‖ Technology Review,
19-Abr-2010. [Online]. Available:
http://www.technologyreview.com/es/read_article.aspx?id=1170. [Accessed: 10-
Sep-2010].
36. Luis Joyanes Aguilar, ―La Computación en Nube (Cloud Computing):
37. El nuevo paradigma tecnológico para empresas y
38. organizaciones en la Sociedad del Conocimiento,‖ icade. Revista cuatrimestral de
las Facultades de Derecho y Ciencias Económicas y Empresariales, nº. 76, Abr.
2009.
39. Michael Armbrust et al., ―Above the Clouds: A Berkeley View of Cloud
40. Computing,‖ UC Berkeley, 10-Feb-2009.
41. Luis M. Vaquero, Luis Rodero-Merino, Juan Caceres, y Maik Lindner, ―A Break
in the Clouds: Towards a Cloud Definition,‖ ACM SIGCOMM Computer
Communication Review, vol. 39, nº. 1, págs. 50-55, Ene. 2009.
42. Steve Hamm, ―How Cloud Computing Will Change Business,‖ Business Week,
04-Jun-2009. [Online]. Available:
http://www.businessweek.com/magazine/content/09_24/b4135042942270.htm.
[Accessed: 05-Sep-2010].
43. Larry Barrett, ―CIOs Embrace Cloud to Manage Smartphones,‖ CIO Update, 04-
Ago-2010. [Online]. Available:
http://www.cioupdate.com/features/article.php/3896816/CIOs-Embrace-Cloud-
to-Manage-Smartphones.htm. [Accessed: 10-Sep-2010].
44. Christopher Locke, Rick Levine, Doc Searls, y David Weinberger, The Cluetrain
Manifesto: The End of Business as Usual. Basic Books, 2001.
45. Pablo Oliveira, ―Las redes sociales se pasan al móvil,‖ Publico.es, 17-Jul-2008.
[Online]. Available:
http://www.publico.es/135289/redes/sociales/pasan/movil/david/weinberger/buon
giorno/blinko. [Accessed: 16-Sep-2010].
46. Dolors Reig, ―La próxima revolución será en 2011, la próxima web es de las
redes sociales móviles,‖ El Caparazon, 22-Oct-2009. [Online]. Available:
http://www.dreig.eu/caparazon/2009/10/22/redes-sociales-moviles-web2-0-
summit-2009/. [Accessed: 16-Sep-2010].
47. Steve Woolgar, ¿Sociedad virtual?: tecnología, "cibérbole", realidad. Uoc, 2005.
48. Niki Panteli, Virtual Social Networks: Mediated, Massive and Multiplayer Sites.
Palgrave Macmillan, 2009.
229
Ontología de la composición geométrica 3D para la web
con el estándar X3D.
1 Introducción
231
Wide Web que van desde grandes taxonomías para clasificar sitios web hasta
disciplinas que desarrollan ontologías para dominios específicos que se puedan utilizar
para anotar y compartir información [23].
Una de estas disciplinas es la computación gráfica, la cual desde 1994 con
Labyrinth presentado por Mark Pesce en Ginebra Suiza en la primera conferencia
internacional sobre la World Wide Web busca desarrollarle una tercera dimensión al
lenguaje de marcas de hipertexto (HTML) [3]. Con el apoyo del consorcio W3C,
Labyrinth evoluciono a lo que comercialmente se conoció como VRML (Virtual
Reality Modelling Language), el cual como lenguaje basa sus componentes en Open
Inventor del Sillicon Graphics que a su vez es una librería para gráficos en 3D
basados en OpenGL [20]. VRML se encuentra estandarizado por la norma ISO 14772
que define su funcionalidad y la base de codificación de texto, especificando la
construcción de un conjunto de objetos primarios como triángulos, prismas o mallas y
los mecanismos de composición, encapsulamiento y extensión, pero no especifica la
interacción con dispositivos físicos de visualización. Una escena gráfica construida
con VRML contiene nodos que describen objetos y sus propiedades, contiene
geometrías agrupadas jerárquicamente para proporcionar un medio visual que
represente los objetos y los nodos que participan en la conexión de los objetos de
acuerdo a los puntos de referencia [16].
XML (Extensible Markup Language) surgió en 1996 incorporando un subconjunto
del estándar SGML (Standard Generalized Markup Language) diseñado para permitir
el intercambio de información entre distintas plataformas, soportes físicos, lógicos y
diferentes sistemas de almacenamiento y presentación, con independencia de su grado
de complejidad [24].
Al tomar la representación de mundos y objetos 3D para la web lograda con el
lenguaje VRML y llevarlo a una especificación ordenada y rigurosa para su lectura
como XML, se obtiene la especificación X3D (Extensible 3D) que permite
implementación y desarrollo de entornos 3D con diferentes lenguajes de programación
en función script como por ejemplo Java que al utilizar las librerías de OpenGL crea
su framework Java 3D el cual adecuado a la especificación X3D genera Xj3D [15].
La jerarquía VRML/X3D utilizada para describir la composición geométrica no se
adapta bien a la descripción semántica, ya que fue concebida para el modelado de
realidad virtual y no para la descripción de alto nivel de una escena. La mayoría de las
investigaciones relacionadas con semántica de la notación de los entornos 3D se ha
centrado en el alto nivel de descripción de los objetos disponibles en la escena y/o la
descripción de alto nivel semántico de los objetos dada por la composición de los
objetos (por ejemplo, el nivel más alto ―semántica objeto habitación‖ se describe como
la suma de una serie de muros que son más bajos de la categoría semántica de
objetos). Si bien esa anotación es importante, carece de identificación explicita de las
particiones del espacio que se percibe como una unidad morfológica y se asignan a
usos específicos. Tales unidades morfológicas y funcionales son un elemento
fundamental para permitir a los usuarios construir un mapa mental del medio
ambiente, los usuarios de nivel inferior adjuntan objetos semánticos a esas particiones
y dicha asociación concede una manera preferencial de recordar los objetos [22].
La mayoría de ambientes 3D se caracterizan por que sus objetos son construidos
por elementos geométricos de bajo nivel como mallas poligonales o superficies
NURBS [2] y los autores realizan la asociación semántica compartiendo la percepción
de los visitantes hacia los objetos que componen el ambiente, infortunadamente
aunque los usuarios identifican las relaciones y asociaciones semánticas de objetos 3D,
no pueden deducir descripciones de alto nivel de información almacenada en 3D [1].
Las herramientas de moldeamiento 3D en su mayoría fueron concebidas para
permitir una secuencia sencilla de renders que permitan visualizar el modelo,
proporcionando medios limitados para dar una estructura a sus objetos 3D en relación
con su semántica. Además, actualmente las prácticas de modelado no estimulan la
connotación semántica de los objetos 3D, algunos todavía especifican limitadamente
oportunidades de notaciones como el manejo de capas, o el etiquetado de objetos, que
no es constantemente utilizado para el almacenamiento de una manera estándar de las
estructuras de alto nivel y lo presentan a otras personas como un resultado adicional
del trabajo de modelado.
232
La falta de un estándar de alto nivel para la descripción semántica de los elementos
de estos ambientes representa un inconveniente fundamental para el uso avanzado de
descripción de mundos 3D que requieren el conocimiento semántico de estos objetos.
Un rango de posibilidades de uso de ese conocimiento sería:
Los motores de búsqueda web, que procesan solicitudes formuladas en lenguaje
natural refiriéndose a características de alto nivel (ejemplo, encontrar los edificios que
tienen en su interior un patio rodeado de columnas.).
Extracción de objetos semánticos desde grandes archivos para facilitar el examen y
creación automática de bibliotecas de alto nivel que puedan ser utilizadas para crear
diferentes ambientes 3D.
La construcción de agentes de manufactura que por medio del reconocimiento de
las propiedades semánticas de los objetos puedan ensamblar nuevas estructuras
facilitando la construcción de entornos virtuales y potencializando su uso.
La descripción en alto nivel no solo es útil en los entornos virtuales 3D, sino que
incluye todo lo relacionado con la realidad mixta. (Por ejemplo una descripción de alto
nivel de un modelo virtual de un entorno real de mapas puede ayudar a la navegación
en una escena real o mixta al sumar los componentes reales y virtuales.) [22].
Para automatizar el ensamble de objetos 3D de diversa procedencia con el fin de
construir entornos de mayor nivel, es necesario contar con una ontología que defina las
características y relaciones semánticas del objeto de acuerdo a sus dimensiones,
propiedades físicas, identificación con el entorno y composición geométrica,
adecuándose a la especificación X3D, soportando la arquitectura de VRML y demás
estándares de facto propuestos por el W3C para la construcción de entornos virtuales.
Tim Berners-Lee ha denominado la web Semántica a aquella en las que la
búsqueda de contenidos se encuentre caracterizada y descrita de tal menara que pueda
diferenciar los distintos significados de las palabras, deducir e identificar existencia de
relaciones entre palabras sinónimas dependiendo del contenido temático, de manera
que los resultados de las búsquedas arrojen páginas útiles de acuerdo a la necesidad
de información solicitada aunque no se encuentre explicita las palabras introducidas en
la consulta, o que compare datos e información procedente de diversas fuentes y llegue
al punto de emitir juicios sobre la fiabilidad de los datos presentados en las diversas
páginas [4].
Para desarrollar de manera coherente el etiquetado de los contenidos web es
necesario la creación de ontologías sobre un dominio o área de conocimiento
especifico. Por consiguiente, las ontologías infieren directamente en la web semántica,
facilitando la definición formal de las entidades y conceptos presentes en el dominio
especificado, la jerarquía que lo sustenta y las relaciones que los unen entre sí.
Garantizando una representación formal, legible por las máquinas, basado en un
lenguaje común, que puede ser compartido y utilizado automáticamente por cualquier
sistema.
Al tomar como dominio los entornos virtuales de inmersión para la web, se puede
hacer la analogía de las páginas web, con los componentes de Objetos 3D, lo cual
sugiere que de igual manera se puede realizar una composición semántica a partir del
desarrollo de una ontología.
La construcción de Objetos 3D para la web con estructuración semántica, permitirá
su almacenamiento y reutilización para la construcción de entornos de inmersión
virtual complejos y de alto nivel [22].
La estructuración semántica de los objetos 3D para la web y de manera general,
requiere de una caracterización de sus propiedades, jerarquización de sus
componentes y una descripción formal de las relaciones de está jerarquía.
La tecnología 3D basa su construcción y desarrollo en una serie de primitivas
geométricas comunes a los lenguajes de programación que soportan este tipo de
tecnologías [13], por lo tanto este podría ser un punto de partida en pro de la
construcción de una semántica de la composición geométrica de entornos virtuales de
inmersión orientados a la web.
A partir de las consideraciones previas, la hipótesis de partida fue:
Se puede dar una estructuración semántica a la composición geométrica de
entornos virtuales de inmersión para la web por medio del desarrollo de una ontología
que integre y generalice la implementación de las primitivas geométricas de
233
construcción tridimensional de los distintos lenguajes orientados al desarrollo de la
web3D tomando como base la arquitectura propuesta por el estándar X3D.
234
humanas, los cuales pueden ser creadas con herramientas de modelación mediante
captura de movimiento de datos [17].
Un mundo X3D se define conceptualmente como una secuencia de estados
organizados como un archivo. El primer tema en el archivo es la declaración de la
cabecera. El segundo tema en el archivo es la declaración del perfil. El perfil
declarado puede ser seguido de uno o más estados componente. El resto del archivo se
construye de los demás elementos que se definen en la norma ISO 19775 como son el
componente núcleo, el componente de tiempo, el componente de render, el
componente de geometría 3D, el componente de geometría 2D, el componente de
textura, el componente de sensores de tecla, el componente de ambiente, el
componente de navegación, el componente de Humanoid animation y el componente
de Script entre otros.
Cualquier otro contenido X3D cargado en la escena en línea a través de nodos o
escenas utiliza createX3DFromStream o createX3DFromUrl, que serán declarados de
acuerdo al conjunto de funcionalidades requeridas en el perfil, lo que implica que un
componente no se puede declarar explícitamente o implícitos en el contenido del perfil
ya que se parte de las funcionalidades requeridas [17].
El recorrido y reconocimiento a través del browser que hace de la escena gráfica un
usuario en X3D es similar al que se hace en VRML por medio de eventos y sensores
entre los objetos geométricos y nodos de la escena. X3D adhiere la interfaz de acceso
a la escena conocido como SAI (Scene Access Interface) El SAI es una interfaz común
que puede ser utilizada ya sea para manipular el browser y la escena por medio de una
aplicación externa o dentro de la escena a través de módulos tipo Script. Sin embargo,
no es posible que el código escrito para una aplicación externa pueda ser utilizado
inmediatamente como un script debido a las limitaciones que puede tener dicho código
externo y las diferencias frente a la interfaz de programación unificada que ofrece SAI
[18].
Toda implementación compatible con X3D debe tener como mínimo los siguientes
componentes básicos:
Tipos de campos X3D heredados del tipo abstracto X3DField que van a tener como
nombres SFXXXX que solo podrán contener un único valor indicado por el nombre
del campo.
La base abstracta de nodos tipo X3DNode y X3DPrototypeInstance.
Interfaces de uso común como X3DBindableNode y X3DUrlObject.
Tipos de servicios públicos tales como X3DRoute y X3DScene que sólo están
disponibles para interfaces de aplicaciones programadas para secuencias de comandos
y de acceso al exterior.
Los componentes básicos podrán apoyarse en una variedad de niveles, que permiten
una serie de implementaciones compatibles con la arquitectura X3D teniendo en
cuenta los modelos de objetos y de eventos [17].
Varios nodos X3D tales como TextureBackground, Fog, NavigationInfo y Viewpoint
son nodos bindable que heredan del nodo abstracto X3DBindableNode. Estos nodos
tienen el comportamiento particular de que sólo uno de cada tipo puede afectar la
experiencia del usuario en cualquier instante en el tiempo. El browser se mantendrá en
un estado independiente en una pila separada tipo nodo bindable teniendo en cuenta
que cada uno incluirá un campo set_bind inputOnly y un campo isBound outputOnly.
El campo set_bind inputOnly se utilizara para mover un nodo hacia y después de la
parte superior de su pila respectiva por medio de la asignación de un valor TRUE pero
si se le envía un valor FALSE lo elimina de la pila, el evento isBound de salida se da
cuando un nodo:
235
En la norma ISO 19775 se define una interfaz abstracta X3DMetadataObject que
identifica como un nodo contiene los metadatos que especifican los valores de
diversos tipos de datos. Los metadatos son información que se asocia con los objetos
del mundo X3D, pero no es parte directa de la representación del mundo. La norma
específica los tipos de datos para los metadatos los cuales pueden ser de tres tipos
String, floats de una sola precisión y de doble precisión y enteros. Cada metadato tiene
dos datos tipo String adicionales que describen:
El estándar de metadatos.
El identificador para el metadato.
2 Metodología
236
prototipo, el proceso consta de los siguientes pasos esenciales:
237
elementos datos. Los nodos en un escenario gráfico son las clases de objetos. Los
arcos representan dos tipos de relaciones entre ejemplares de objetos.
La relación más común es padre-hijo. Un nodo dinámico puede tener cualquier
número de hijos, pero sólo un padre. Un nodo estático sólo puede tener un padre y no
puede tener hijos. La otra relación es una referencia. Una referencia asocia un objeto
semanticObjeto con un nodo del escenario gráfico. Los objetos primitiva Objeto
definen la geometría y los atributos de apariencia usados para visualizar los objetos.
Un escenario gráfico está construido de objetos nodos con relaciones padre-hijo
formando una estructura de árbol. En una estructura de árbol, un nodo es la raíz. Se
puede acceder a otros nodos siguiendo los arcos desde el raíz. Los nodos de un árbol
no forman bucles. Un escenario gráfico está formado desde los árboles con raíces en
los objetos coordenada. Los semanticObjeto y las referencias a arcos no forman parte
del escenario gráfico.
Sólo existe un camino desde la raíz de un árbol a cada una de los nodos estáticos;
por lo tanto, sólo hay un camino desde la raíz hasta el escenario gráfico de cada nodo
estático. El camino desde la raíz de un escenario gráfico hasta nodo estático
especificado es el camino al escenario gráfico del nodo estático. Como un camino de
un escenario gráfico trata exactamente con un solo nodo estático, hay un camino de
escenario gráfico para cada nodo estático en el escenario.
Todo camino de escenario gráfico en un escenario gráfico especifica
completamente la información de estado del nodo estático. Esta información incluye,
la localización, la orientación y el tamaño en referencia del objeto. Consecuentemente,
los atributos visuales de cada objeto dependen sólo de su camino de escenario gráfico.
El pipeline de visualización se aprovecha de este hecho y visualiza los nodos estáticos
en el orden más eficiente.
Las representaciones gráficas de un escenario gráfico pueden servir como
herramienta de diseño o documentación para las construcciones 3D. Los escenarios
gráficos se dibujan usando símbolos gráficos estándar como se ilustra en la Figura 3.
Para diseñar un Entorno se dibuja un escenario gráfico usando un conjunto de
símbolos estándar. Después de completar el diseño, este escenario gráfico es la
especificación para el programa. Después de completar el programa, el mismo
escenario gráfico es una representación concisa del programa.
238
sinónimos. La tabla 1. Muestra parte del glosario de términos de la ontología de
composición geométrica. Estos términos fueron extraídos de las primitivas gráficas
consideradas en esta investigación.
---------------------
coordenadas de define un punto (0,0,0) vector de ejes x.y,
referencia en el espacio z
vector de ejes x.y,
eje de referencia --------------------- vector de posición z
distancia entre dos matriz con 3
línea --------------------- puntos columnas
árbol de
Objeto estático ---------------------
Estructura geométrica construcción
tridimensional
matriz con 2
cónicas --------------------- función cuadrática columnas
matriz con 2
spline --------------------- función polinómica columnas
matriz con 2
polígono --------------------- figura cerrada columnas
matriz con 3
poliedro --------------------- Polígono espacial columnas
Objeto árbol de
---------------------
Dinámico Estructura geométrica construcción
tridimensional
funciones de matices
objetos blobby --------------------- probabilidad multilineales
función polinómica matriz con 3
splines de Bézier --------------------- espacial columnas
matriz multilineal
Cualquier cosa en el
Objeto --------------------- u árbol de
espacio
construcción
matriz de
Entorno ---------------------
Objeto de contenedor de movimiento
entornos gráficos
Escenario Entorno limitado por árbol de
interior --------------------- paredes construcción
Escenario Entorno limitado por árbol de
exterior --------------------- paisaje construcción
239
2.2 Taxonomía de Conceptos
Una vez que la taxonomía de conceptos y los diagramas de relaciones binarias ad hoc
han sido generados, se debe especificar cuáles son las propiedades que describen cada
concepto de la taxonomía, así como las relaciones identificadas en el diagrama
anterior y las instancias de cada uno de los conceptos. El diccionario de conceptos
contiene todos los conceptos del dominio, sus relaciones, sus instancias, y sus atributos
de clase y de instancia. Las relaciones especificadas para cada concepto son aquéllas
en las que el concepto es el origen de la misma. Por ejemplo, el concepto punto es el
origen de dos relaciones ad hoc: se compone de y su baricentro se localiza en. Las
relaciones y los atributos de instancia y de clase son locales a los conceptos, lo que
significa que sus nombres pueden ser repetidos en diversos conceptos. La tabla 2
muestra una sección parte del diccionario de conceptos de la ontología de composición
geométrica.
240
Fig 5. Diagramas de relaciones binarias ad hoc.
ATRIBUTOS ATRIBUTOS DE
CONCEPTO INSTANCIAS DE CLASE INSTANCIA RELACIONES
escala
ubicación
cubo caras
poliedro tetraedro vértices compone a
octaedro aristas
dodecaedro
icosaedro
coordenada x localiza a
punto coordenada y centra a
coordenada z es rotado por
se traslada a
Posición centro
círculo posición foco
cónica compone a
elipse radio
directriz
parábola directriz
spline compone a
hipérbola posición foco
escala
triangulo ubicación
cuadrilátero caras
polígono compone a
pentágono vértices
hexágono aristas
241
hoc de la ontología de conceptualización geométrica que contiene la definición de las
relaciones compuesta por y compone a.
De igual manera como se han descrito los atributos de instancia se deben describir
los atributos de clase. Para cada atributo de clase, la ontología debe tener: nombre del
atributo, nombre del concepto donde el atributo se define, tipo de valor, cardinalidad y
valor(es). Por ejemplo, los atributos de clase coordenada x, coordenada y y
coordenada z definirían el concepto de punto, así como se presenta en la tabla 5.
242
hoc utilizadas en el axioma, así como las variables utilizadas. La tabla 6 muestra un
axioma formal de la ontología de ontología de composición geométrica, que establece
que ―un objeto estático se compone de poliedros, objetos blobby y superficies‖. Las
columnas que corresponden a conceptos y relaciones ad hoc referidas que contienen
los conceptos y relaciones utilizados en la expresión formal del axioma. Asimismo, las
variables utilizadas son ?X para objeto, ?Y para poliedro ?Z para blobby y ?w para
superficies.
objeto
Existe
Un objeto estatico se estatico ?X
(poliedro(?X),blobby(?Y),sup
Composición de compondra de poliedro forma parte de ?Y
erficie(?Z))y
objeto estático poliedros, objetos objeto compuesto por ?W
todo(objeto(?W)si y solo si
blobby y superficies blobby ?Z
?W=?X+?Y+?Z)
superficie
Una vez que el modelo conceptual de la ontología ha sido creado, se pueden definir
las instancias que aparecen en el diccionario de conceptos. Para cada instancia se
define: su nombre, el nombre del concepto al que pertenece y los valores de sus
atributos de instancia, si se conocen. La tabla 7 presenta algunas instancias de la tabla
de instancias de la ontología de de composición geométrica: tetraedro, hexaedro y
dodecaedro. Todas ellas son instancias del concepto poliedro, tal y como se definió en
el diccionario de conceptos, y tienen valores definidos para algunos de los atributos
caras, polígono que lo forma, aristas y vértices. Estas instancias podrían tener más de
un valor para los atributos cuya cardinalidad máxima es mayor que uno.
Una clase dentro de una ontología es una descripción formal de una entidad del
universo que se quiere representar. Constituye la pieza básica de estructuración del
conocimiento. Teniendo en cuenta la taxonomía desarrollada, las clases fundamental
de un entorno virtual de inmersión es la clase objeto, la figura 6 presenta la
codificación en RDF de la clase Objeto:
243
Fig 6. Definición en RDF de la Clase Objeto
Las propiedades son las características que permite describir más detalladamente la
clase y sus instancias. Establece que la clase o concepto posee una propiedad que se
concretará mediante un valor. Los valores de las propiedades o atributos pueden ser
tipos básicos como cadenas de caracteres o números, pero también pueden ser otras
clases o instancias. Teniendo en cuenta el diagramas de relación binaria, la propiedad
de: ―define localización de” se codifica en RDF de acurdo a como lo presenta la figura
8.
244
3 Conclusiones
Referencias
1. ALPCAN T., BAUCKHAGE C., KOTSOVINOS E.; ―Towards 3D Internet: Why, What
and How?‖; Proceedings of the Cyberworlds, 2007. CW`07.International Conference on,
Hannover, October, 2007, IEEE, pp. 95-99, ISBN: 978-0-7695-3005-5
2. ANGEL E.; ―Interactive Computer Graphics: A top-Down Approach Using OpenGL‖;
Addison Wesley, University of New Mexico, 2008, pp. 125-634, ISBN 978-03-2153-5863
3. BENMRAD M., ―First International conference on the World-Wide Web‖; ACM SIGWEB
Newsletter, Volume 3, Issue 2, New York, September, 1994, ACM, pp. 14-15, ISSN: 1931-
1745
4. BERNERS-LEE T., HENDLER J., LASSILA O.; ―The Semantic Web‖; Scientific
American Magazine, abril, 2001. http://www.scientificamerican.com/article.cfm?id=the-
semantic-web&print=true [Consulta 15/06/2009] [Última Actualización Desconocida]
5. BRADBERRY J.; ―Computer graphics environments‖; Sams Publishing, Carmel, 1993, pp.
54-326, ISBN 0672303051
6. CHAUDHRI V., FARQUHAR A., FIKES R., KARP P., RICE J.; ―Open Knowledge Base
Connectivity 2.0.3‖.; Atificial Intelligence Center, SRI International; Knowledge Systems
Laboratory; Stanford University; April 9, 1998; http://www.ai.sri.com/~okbc/okbc-2-0-
3.pdf http://www.scientificamerican.com/article.cfm?id=the-semantic-web&print=true
[Consulta 11/08/2009] [Última Actualización Desconocida]
7. CONTRERAS J., MARTÍNEZ J; ―Tutorial ontologias‖; Universidad Complutense de
madrid, 2008, http://www.sedic.es/gt_normalizacion_tutorial_ontologias.pdf [Consulta
10/07/2009] [Última Actualización Desconocida]
245
8. CORCHO O., FERNANDEZ M, GOMEZ A., LOPEZ A.; ―Construcción de ontologías
legales con la metodología METHONTOLOGY y la herramienta WebODE‖; Facultad de
Informática. Universidad Politécnica de Madrid, 2004,
http://fuencarral.dia.fi.upm.es:8080/114/1/CL08_NonPublishedYet.pdf [Consulta
10/08/2009] [Última Actualización Desconocida]
9. ESCRIBANO M., ―Programación de Gráficos 3D”, Addison Wesley, Madrid, 1994, pp.
56-87, ISBN: 9788478971565
10. FARQUHAR A., FIKES R, RICE J.; ―The ontolingua server: a tool for collaborative
ontology construtction‖; Knowledge Systems Laboratory, Stanford University, 1997,
http://www.eda.org/rassp/documents/atl/KSL_96a.pdf [Consulta 08/08/2009] [Última
Actualización Desconocida]
11. FOLEY J., ―Computer graphics: principles and practice”, Addison Wesley, Boston,
Massachusetts, 1990, pp. 123-756, ISBN: 0201121107
12. GOMÉZ A.; ―Evaluation of ontologies‖; Proceedings of International Journal of Intelligent
Systems: Validation Issues in Databases, Knowledge-Based Systems, and Ontologies ,
Columbia, Maryland, February, 2001, Wiley Company, pp. 391-409, ISSN: 1740-8873
13. HEARN D., BAKER P.; ―Computer Graphics with OpenGL‖; Prentice Hall, Bloomington,
2005, pp. 84-546, ISBN 978-84-205-3980-5
14. HILERA J., OTÓN S., MARTÍNEZ J.; “Realidad Virtual en Internet con VRML”;
Universidad de Alcalá, 2000, pp. 71-181, ISBN: 84-8138-413-5.
15. HUDSON A.. ―An introduction to the Xj3D toolkit”. Proceedings of the eighth international
conference on 3D Web technology, Saint Malo, France ACM. pp. 190. ISBN: 1-58113-644-
7
16. ISO/IEC 14772-1:1997. ―The Virtual Reality Modeling Language (VRML)‖ Functional
specification and UTF-8 encoding. Web3D Consortium International Electrotechnical
Commmission. Cambridge, Massachusetts.
http://www.web3d.org/x3d/specifications/vrml/ISO-IEC-14772-RML97/ [Consulta
15/05/2009] [Última Actualización Desconocida]
17. ISO/IEC 14772-2:2004. ―The Virtual Reality Modeling Language (VRML) External
authoring interface (EAI)‖. International Web3D Consortium Electrotechnical
Commmission. Cambridge,
Massachusetts.http://www.web3d.org/x3d/specifications/vrml/ISO-IEC-14772-
VRML97/#ISO_IEC_14772Part2 [Consulta 25/06/2009] [Última Actualización
Desconocida]
18. ISO/IEC 19775-2:2004. “Extensible 3D (X3D) — Part 2: Scene access interface (SAI)”.
International Web3D Consortium Electrotechnical Commmission. Cambridge,
Massachusetts. http://www.web3d.org/x3d/specifications/ISO-IEC-19775-
X3DAbstractSpecification_+_Amendment1_to_Part1/Part02/SAI.html [Consulta
25/06/2009] [Última Actualización Desconocida]
19. ISO/IEC 19777-2 :2005. Extensible 3D X3D Language Part 2: Java. International Web3D
Consortium Electrotechnical Commmission. Cambridge, Massachusetts.
http://www.web3d.org/x3d/specifications/ISO-IEC-19774-HumanoidAnimation/ [Consulta
2/04/2009] [Última Actualización Desconocida]
20. JIMÉNEZ E., PEREZ M., MARTÍNEZ E.; ―Escenarios Virtuales Web3D: Simulación con
VRML, Java3D y X3D‖ Libro de actas de XVII Congreso Internacional INGEGRAF,
Sevilla, Junio, 2005, INGEGRAF, ISBN: 84-923253-3-X
21. KALYANPUR A., PARSIA B., SIRIN E., HENDLER J.; ―Hypermedia Inspired Ontology
Engineering Environment: Swoop‖; Department of Computer Science, University of
Maryland, MIND LAB, Baltimore, July, 2004: http://www.mindswap.org/papers/SWOOP-
Poster.pdf [Consulta 21/07/2009] [Última Actualización Desconocida]
22. PITTARELLO F., FAVERI A.; ―Semantic description of 3D environments: a proposal
based on web standards‖; Proceedings of the eleventh international conference on 3D web
Technology, Columbia, Maryland, April, 2006,ACM, pp. 85-95, ISBN: 1-59593-336-0
23. RUSSELL S., NORVING P.; “Artificial Intelligence: A Modern Approach”; Prentice Hall,
Los Angeles C.A., 2003, pp. 271-411, ISBN: 0-13-790395-2
24. SKONNARD A.; “The XML Files: A Quick Guide to XML Schema” MSDN Magazine
http://msdn.microsoft.com/en-us/magazine/cc302086.aspx [Consulta 15/04/2009] [Última
Actualización 04/2002]
246
Implementación de Plataformas Virtuales basadas
en Cloud Computing
Luis Eduardo Cano 1, Dr. Luis Joyanes 1, Dr. José Nelson Pérez 2
1
Facultad de Informática, Universidad Pontificia de Salamanca (UPSAM)
28040, Madrid, España
2
Grupo de Investigación GICOGE, Universidad Distrital Francisco José de Caldas
(UDFJC)
1425, Bogotá, Colombia
{luiseduardocano, joyanes, jnperezc}@gmail.com
Abstract: This paper shows how you can work with operative systems
aimed at cloud computing through virtualization, especially when there
is no physical technological infrastructure. And the use of computer
tools that can provide service of Cloud Computing to an operating
system, aimed to free software or open source.
1 Introducción
Hace unos años era popular un modelo tecnológico llamado Redes de Valor Agregado
(Value-Added Networks - VAN), el cual consistía en una forma en que los vendedores
rentaban circuitos entre las ciudades combinándolos con una red de conmutación de
paquetes, los cuales estaban basados en el volumen de mensajes o la cantidad de
tiempo de uso, y eran vendidos a los usuarios [13]. Cuando los vendedores
identificaron algunas de las necesidades de los usuarios, les ofrecieron servicios
adicionales como el correo electrónico (Electronic Mail – E-Mail), el intercambio de
datos electrónicos (Electronic Data Interchange – EDI), la teleconferencia,
videoconferencia y otras características de seguridad, siendo popular en el caso
colombiano Telegan (Telecomunicaciones Ganaderas S.A) del antiguo Banco
Ganadero, y que con el paso de los años y el surgimiento de Internet y las nuevas
formas de comunicaciones móviles han hecho desaparecer dicho esquema de
comunicación y de renta.
Hoy en día, escuchamos términos nuevos como Software como un Servicio
(Software as a Service - SaaS), Infraestructura como un Servicio (Infrastructure as a
Service - IaaS), Plataforma como un Servicio (Plataform as a Service - PaaS), salidos
de la necesidad de las empresas de acceder a sus soluciones con una mayor velocidad
y desempeño pagando únicamente el servicio que necesitan. Dando origen al concepto
de ―computación en la nube‖ (Cloud Computing), y que en resumen consiste en un
modelo de prestación de servicios tecnológicos.
Pensar en un modelo como estos permite tener acceso a la información de una
247
manera descentralizada de forma permanente y que esté disponible e independiente de
la tecnología que se utilice, en donde el proveedor de dicho servicio sea el encargado
de la obsolescencia de dicha tecnología. Sin embargo, implementar una infraestructura
es costosa y lo que se conoce es muy poco pese a que existen empresas que están
ofreciendo productos basados en Cloud Computing como Movistar, Microsoft,
Google, entre otros. E incursionar en un campo como éstos para conocer, investigar e
implementar su estructura y funcionamiento no es del todo fácil, porque los equipos
deben contar con una serie de características técnicas tanto de hardware como de
software.
Para comprender un poco mejor en qué consiste el Cloud Computing, vamos a
utilizar la definición dada por NIST [8] (Véase Fig. 1).
El Cloud Computing es un modelo que permite el acceso bajo demanda a unos
recursos compartidos de cómputo, (por ej. redes, servidores, almacenamiento,
aplicaciones y servicios) que pueden ser rápidamente tomados y liberados con una
mínima administración e interacción del prestador de servicios. Ofreciendo
características esenciales como tener: Amplio acceso a la red, elasticidad y rapidez,
servicio supervisado y autoservicio a la carta. [8]
Dentro de los modelos de los servicios que ofrece el Cloud Computing, están el de
ofrecer el software como un servicio (SaaS), la plataforma como un servicio (PaaS) y
la Infraestructura como un servicio (IaaS), cada uno con un comportamiento,
características funcionales y servicios diferentes. Además, el Cloud Computing cuenta
con unos modelos de despliegue como son el acceso público, privado, híbrido y el de
comunidad. (Véase Fig. 1)
2 Material y Métodos
248
cualquier tipo de pruebas en implementación y/o en seguridad informática, ya sea por
parte de los sysadmin, webmaster, dba, secadmin, programmer u otro profesional
especializado interesado en el tema.
3 Resultados
3.1 Virtualización
249
Fig. 3. Soluciones que se pueden implementar en una virtualización. Fuente Los
Autores.
eyeOS: Este es quizás uno de los ejemplos más conocidos en Cloud Computing,
consistente en un escritorio virtual multiplataforma, libre y gratuito, aunque, dentro de
su apreciación general consiste en un sistema operativo en línea contando con una
serie de herramientas ofimáticas propias. Es de licencia AGPL, el cual está
desarrollado en PHP5, soportando el motor de base de datos de MySQL y que puede
ser ejecutado en el servidor Web de Apache, además necesita que se tenga un cliente
de correo llamado IMAP y un gestor de base de datos llamado SQLite.[3] (Véase
Fig.5)
El usuario puede almacenar documentos, crear presentaciones, y utilizar un montón
250
de servicios, los cuales quedan almacenados dentro de una carpeta de usuarios llamada
Documents. Por ejemplo para el usuario root, esta sería la carpeta en donde se
almacenarían sus datos users/rt4/root/files/Documents.
Fig.5. Panel de Control de eyeOS en donde se observa aplicaciones con que cuenta
como calendario, juegos,procesos, ofimática, reproductores de multimedia, FTP, etc.
Fuente eyeOS[3]
Amazon EC2: Amazon Elastic Compute Cloud (Amazon EC2) es un servicio Web
que proporciona una capacidad de cómputo variable [1]. Cuenta con una serie de
imágenes de máquina preconfiguradas (AMIs) y que para los sistemas operativos
libres como GNU/Libre el servicio es gratis pero para otros sistemas operativos como
Windows se debe pagar, (Véase Fig. 7)
De Amazon EC2, se resalta que ha servido de modelo para otros proyectos en Cloud
Computing, y que pese a sus costos, muchas empresas han optado por adquirir sus
servicios. Para éste entorno, no existe una manera de instalarlo en un entorno virtual o
servidor propio porque ellos no suministran los instaladores. Lo que entregan es un
cliente de herramientas desarrolladas en Java para que se puedan conectar al servidor
de Amazon EC2; librerías suministradas por ejemplo como: activación-1.1.jar, ec2-
api-tools.jar, ec2-java-client.jar, commons-httpclient.jar entre otros.
251
Fig.7. Consola de Amazon para visualizar AMIs. Permite la instalación de diferentes
sistemas operativos y se puede especificar si el acceso es de tipo público, privado,
híbrido ó comunidad. Fuente Amazon EC2[1].
Dentro de los hallazgos encontrados dentro del entorno de Amazon EC2 (Véase Fig.
8), no se puede analizar por ningún lado como es el desempeño y rendimiento de los
AMIs, ni tampoco se puede implementar en escenarios virtuales, siendo una
desventaja. Lo único que se puede realizar es identificación de banners, enumeración
de objetivos y pen test para probar la seguridad ofrecida por el AMI.
252
Fig. 9. Entorno Visual Gráfico de Eucalyptus-Cloud. Fuente Eucalyptus [4]
253
En temas de seguridad, utilizar herramientas como back track, samurái test ó
metasploit para analizar el servicio de Cloud Computing en el escenario virtualizado.
Instalar diferentes motores de bases de datos como Oracle, Postgres, MySQL, y otros
para analizar el comportamiento funcional
Utilizar software de análisis, monitoreo y desempeño en redes.
Instalar aplicaciones de producción para analizar comportamientos, almacenamiento y
rendimiento
4 Discusión
Si bien es cierto que muchos servicios y usos del Cloud Computing son ofrecidos por
empresas y/o instituciones al usuario de la red, la disposición y funcionalidad de las
aplicaciones y sus usos comunicativos se pueden configurar e implementar en
escenarios virtuales, permitiendo a cualquier persona interesa en el tema profundizar
en dicha tecnología.
Para el aprendizaje y la enseñanza, estos escenarios son bastantes prácticos para
que se asimilen bien los conceptos teóricos, pero es bueno aclarar, que el Cloud
Computing está creciendo y evolucionando constantemente, y las empresas y/o
instituciones que ofrezcan estos servicios deben realizar inversiones tecnológicas
enormes para poder garantizar las ventajas ofrecidas por el Cloud Computing.
5 Conclusiones
6 Agradecimientos
Al Dr. José Nelson Pérez por sus aportes y gestión administrativa realizada en la
Universidad Distrital Francisco José de Caldas de Bogotá, Colombia, porque gracias a
él se cuenta con el Laboratorio del Centro de Computación de Alto Desempeño
254
orientado al Cloud Computing.
Al Dr. Luís Joyanes Aguilar, por sus aportes y conocimientos en estos temas de
interés e innovación que día a día van a apareciendo, y que no podemos ser ajenos a
los mismos.
Referencias
1. AMS - AMAZON WEB SERVICES (2010) . Amazon Elastic Compute Cloud (Amazon
EC2) <http://aws.amazon.com/ec2/>
2. CSA–CLOUD SECURITY ALLIANCE (2009). Security Guidance Critical Areas of
Focus in Cloud Computing V 2.1 < http://www.cloudsecurityalliance.org/>
3. EYEOS (2010). Escritorio Virtual Multiplataforma basado en el Cloud Computing <
http://eyeos.org/>
4. EUCALYPTUS (2010). Eucalyptus Cloud < http://www.eucalyptus.com/>
5. MICROSOFT (2007) VirtualPC
<http://www.microsoft.com/downloads/details.aspx?displaylang=es&FamilyID=04d2640
2-3199-48a3-afa2-2dc0b40a73b6>
6. MICROSOFT (2010). Windows Azure, plataforma de nube de
Microsoft.<http://msdn.microsoft.com/es-es/windowsazure/default.aspx>
7. MICROSOFT VIRTUAL LABS (2010) Building Windows Azure Services with PHP <
http://download.microsoftvirtuallabs.com/download/8/a/7/8a71365b-4c80-4e60-8185-
8f12f59bf1d4/BuildingWindowsAzureServiceswithPHP.pdf>
8. NIST - National Institute of Standards and Technology (2009) Effectively and Securely
Using the Cloud Computing Paradigm < http://www.csrc.nist.gov/groups/SNS/cloud-
computing/index.html>
9. ORACLE (2010), Oracle Grid Computing
<http://www.oracle.com/us/technologies/grid/index.htm?origref=http://www.oracle.com/u
s/technologies/virtualization/oraclevm/061976.html>
10. ORACLE (2010), Oracle VM VirtualBox
<http://www.oracle.com/us/technologies/virtualization/oraclevm/061976.html>
11. PROXMOX (2010) . Proxmox Virtual Environment http://pve.proxmox.com
12. SQLITE (2010) Sistema de Gestión de Base de Datos Relacionales
<http://www.sqlite.org>
13. TRIANA, Eduardo; GARCIA, Ricardo; PASTRANA, Carlos; CANO, Luis E. (1996)
Redes de Valor Agregado. Criterio. UAC, Vol. 24 (p.197-239)
14. VMWARE (2010) Cloud Computing Services with VMware Virtualization.
http://www.vmware.com/solutions/cloud-computing/
255
Cálculo del Esfuerzo en el Desarrollo de Proyectos
Software a Partir de Puntos de Función
1
Universidad Pedagógica y Tecnológica de Colombia, Facultad de Ingeniería, Km
2 Carretera Central del Norte, Tunja, Boyacá, Colombia
jorge.otalora@uptc.edu.co, mauro.callejas@uptc.edu.co, alarconaldana@yahoo.com
Abstract. This article presents the results of the initial phase of the
project ―Design a meta-model for calculating the effort of software
development projects‖. This discusses methods for calculating the most
significant software development effort, especially on the technique of
function points. From an experiment in which contrast values obtained
vs theoretical values of effective development approach, is verified that
offers the theoretical calculation of the actual value.
1 Introducción
257
2 Consideraciones preliminares sobre estimación de esfuerzo.
Para lograr realizar la estimación de esfuerzo, se han creado diferentes técnicas, tales
como puntos de función, Cocomo II, Delphi, entre otras, las cuales emplean métodos
diversos para calcular el esfuerzo utilizado durante el desarrollo de un proyecto de
software. Algunas de estas técnicas se enuncian a continuación.
Puntos de función. Allan Albrecht, de IBM, en 1979 definió la técnica de puntos
de función, que realiza la estimación de esfuerzo basada en los requisitos del sistema,
teniendo en cuenta las funciones de usuario que este ejecuta o ejecutará (entradas,
salidas, consultas, ficheros, Interfaces). Esta técnica de estimación se puede realizar
independientemente del lenguaje o herramienta empleada durante el desarrollo. [4],
[5], [6].
Este tipo de estimación se centra principalmente en lo que el usuario puede ver,
restando importancia a la parte interior de la aplicación.
Algunas de las características que identifican el enfoque de puntos de función y que
ayudan a superar los inconvenientes que se presentaban al emplear la técnica de líneas
de código son:
Es independiente de los lenguajes de programación, de las herramientas e incluso de
las metodologías aplicadas para el desarrollo del proyecto
Permite realizar estimaciones de esfuerzo en etapas tempranas del desarrollo, debido a
que emplea para las mismas, las especificaciones de requisitos y/o de diseño que se
tendrán en cuenta para llevar a cabo el proyecto. Además a las diferentes
modificaciones que puedan surgir en los requisitos, se les puede aplicar fácilmente
una nueva estimación, gracias a la estrecha relación que existe entre éstos y los puntos
de función.
Facilita a las personas no técnicas que intervienen en el proyecto, el entendimiento
de las medidas que se efectúan con los puntos de función, gracias a que dichas
medidas se realizan basadas en una visión externa del usuario del sistema.
Esta técnica se emplea básicamente en etapas iníciales, cuando los requisitos
funcionales no están completamente establecidos y se desea realizar estimaciones de
esfuerzo del proyecto.
Cálculo de los puntos de función. Para realizar el cálculo de los puntos de función
se llevan a cabo los pasos enunciados a continuación [7].
Se establecen los contadores, luego de realizar un análisis del dominio de la
información.
Se evalúa la complejidad de cada uno de los contadores establecidos previamente y
se asigna un peso a cada uno.
Se identifican todos los factores externos que puedan influir sobre el sistema tales
como reutilización, concurrencia, sistema operativo entre otros.
Se realiza el cálculo de los puntos de función teniendo en cuenta la siguiente ecuación:
Se realiza el cálculo de los puntos de función teniendo en cuenta la siguiente ecuación:
Puntos de Función = ∑ . (1)
Donde C = (0.65 + 0.01 x N) (Multiplicador de complejidad).
258
El modelo COCOMO fue evolucionando posteriormente, adaptándose a las nuevas
técnicas de desarrollo de software. De esta manera surge COCOMO II, modelo
orientado a lograr la estimación de costo, tiempo y esfuerzo de los ciclos de vida para
el desarrollo de software, empleados en la década de los 90 e inicios del 2000.
El modelo COCOMO II está dividido en tres niveles básicos de aplicación, que se
pueden emplear a medida que se desarrolla el proyecto y brindan la posibilidad de
realizar estimaciones cada vez más detalladas.
Los niveles que incluye el modelo COCOMO son: [7], [10]:
Nivel inicial de prototipado: este nivel se emplea en proyectos de software que
utilizan el prototipado y la reutilización. Realiza las estimaciones mediante la
aplicación de puntos de objeto y una sencilla formula que permite obtener el cálculo
del esfuerzo.
(2)
PM = ( NOP x (1 - %reuso / 100 ) ) / PROD.
Nivel inicial de diseño: Las estimaciones en este nivel se realizan una vez se han
establecido los requisitos, utilizando puntos de función trasformados en líneas de
código.
Este nivel emplea fórmulas estándar para realizar las estimaciones.
(3)
PM = A x TamañoB x M + PMm.
259
que ha sido generado de manera automática. ATPROD se refiere
al nivel de productividad teniendo en cuenta el tipo de producción
en código.
Tabla 3. Ventajas y desventajas del modelo Delphi de banda ancha, fuente los
autores.
VENTAJAS DESVENTAJAS
Permite consolidar un criterio con Para lograr el consenso deseado, es
objetividad y confiabilidad. indispensable realizar mínimo dos
Las decisiones son acertadas cuando vueltas, razón por la cual su
aplicación se acogen al criterio expresado aplicación se puede tornar tediosa y
por un grupo de expertos. necesita de tiempo y dedicación.
Se evalúan diferentes alternativas al El costo es superior a otros métodos, por
momento de tomar la decisión final. requerir la participación de los expertos,
Al ser un proceso que se realiza de manera además del gasto de hojas, impresoras,
anónima, se brinda libertad para que los teléfono, correo, entre otros.
expertos sean creativos en sus apreciaciones Se deben aplicar diversos métodos de
y se evita la generación de conflictos entre análisis que permitan obtener un
los mismos. consenso adecuado, así como diversas
Los expertos al participar de manera pruebas estadísticas que ayuden a
voluntaria, se involucran con la solución evaluar el grado de confiabilidad del
del problema, logrando una exitosa proceso [14].
260
implantación de la misma [11]
3 Método
261
función.
Revisar el código desarrollado y verificar el número de puntos de función
obtenidos realmente.
Constatar los valores teóricos con los valores reales obtenidos.
Determinar un promedio de la diferencia de puntos de función entre los
módulos adyacentes.
Obtener un límite superior e inferior de los puntos de función admisibles con
el fin de evitar dispersión.
Retirar los módulos que estén por fuera de los límites establecidos.
Realizar la comparación estadística de los resultados obtenidos.
Con los datos obtenidos comparar la eficacia del modelo teórico con el fin de
determinar su nivel de confiabilidad para ser o no tomado como base en la siguiente
etapa de la investigación tendiente a obtener un meta-modelo del cálculo del esfuerzo
en proyectos de desarrollo de software.
4 Resultados
Debido a que existen diversas técnicas para realizar la estimación de esfuerzo, fue
necesario llevar a cabo una recopilación teórica, en la que se pudiera establecer las
características principales de cada una, el método empleado para calcular el esfuerzo y
la efectividad de las mismas.
Luego de elaborar la conceptualización de la información, se realizó un cuadro
comparativo de algunas de las técnicas de estimación de esfuerzo, a fin de elegir la
más apropiada para aplicarla durante el desarrollo del proyecto. El resultado de dicho
proceso se puede apreciar en la tabla 4.
262
profundizar en la técnica basada en puntos de función, que será tomada como base
para el diseño del meta-modelo sobre el cálculo del esfuerzo en el desarrollo de
software.
La Métrica de Puntos de Función [19]. Los puntos de función se consideran como
una métrica de tipo funcional, porque evalúa el esfuerzo en función de las prestaciones
que el software proporciona o puede llegar a proporcionar a los usuarios.
La aplicación de esta métrica comienza con la identificación de los componentes
del sistema, o de las transacciones y conjunto de datos lógicos del negocio. A cada
componente se asignan los puntos de función correspondientes, de acuerdo a su
complejidad. La sumatoria del total de puntos es el resultado de los puntos de función
sin ajustar. El ajuste que se realice, debe corresponder con las características del
sistema que se está evaluando.
A continuación se describen en detalle cada uno de los pasos que permiten
determinar la complejidad de un sistema mediante los puntos de función del mismo:
Determinar el tipo de conteo: se define si se evalúa un software que se
encuentra en funcionamiento, en desarrollo o si es un sistema en fase de
mantenimiento. Con esta identificación es posible establecer el objetivo del
conteo.
Identificar los alcances de la medición y los límites de la aplicación: permite
encasillar los objetivos de la misma, para dar respuesta a un problema del
negocio. Los límites establecidos pueden contener más de una aplicación.
Contar las funciones de datos: las funciones se cuentan clasificándolas en
archivos lógicos internos (ILF) y archivos de interfaz externo (EIF). Los
primeros corresponden a los datos que almacenan información mantenida
durante alguna transacción. Los archivos de interfaz externos, son los
relacionados y referenciados que no se mantienen por la transacción durante
el conteo. Con el conteo se asigna además un rango de complejidad para cada
componente, acorde al número de datos.
Contar las funciones transaccionales: con este conteo es posible identificar la
capacidad del sistema para realizar operaciones. Las transacciones se pueden
clasificar en entradas externas (EI) que mantienen archivos lógicos internos,
salidas externas (EO) que muestran información a los usuarios a través de
procesos lógicos, y consultas externas (EQ) que presentan información al
usuario obtenida de uno o varios grupos de datos. Los rangos de clasificación
en este conteo dependen del número de datos usados en el proceso y los
archivos que tiene referenciados.
Determinar los puntos de función no ajustados: con la clasificación efectuada
se genera la tabla donde se totalizan los componentes de acuerdo a su
complejidad.
Determinar el valor del factor de ajuste que se obtiene al sumar 0.65 al total
de los grados de influencia de las características del sistema, y multiplicando
el resultado por 0.01.
Se deben tener en cuenta las siguientes características del sistema:
comunicaciones de datos, datos o procesamiento distribuidos, objetivos de
263
rendimiento, configuración utilizada masivamente, tasa de transacción,
entrada de datos on-line, eficiencia para el usuario, actualización on-line,
procesamiento complejo, reutilización, facilidad de instalación y conversión,
facilidad de operación, puestos múltiples, facilidad de cambio
Determinar los puntos función ajustados: consiste en multiplicar los valores
de los puntos función sin ajustar, por el factor de ajuste hallado.
Una vez conocidas las características base de los métodos para medición del esfuerzo,
se realiza un experimento adaptando la técnica que cuenta con mayor número de ítems
comunes respecto a las demás, ampliando la cobertura de la funcionalidad deseada.
El experimento que se describe a continuación fue realizado dentro de la empresa
Ingenius-Group, a partir del desarrollo de software para una entidad administradora de
fondos de inversión. Los nombres de los desarrolladores de cada módulo se omiten,
así como el nombre de la entidad administradora, obedeciendo a políticas de la
empresa desarrolladora.
Inicialmente se realizó un cálculo teórico, basado en los requisitos del sistema, los
cuales permitieron obtener estimaciones preliminares del esfuerzo, que fueron
contrastadas posteriormente con los valores reales, obtenidos luego de culminar el
desarrollo del proyecto.
Los módulos del sistema que se tuvieron en cuenta para realizar la estimación de
esfuerzo, fueron los siguientes: Datos básicos del fondo, Participantes, Términos y
Condiciones, Beneficiarios, Registrar Clientes, Cuentas Bancarias, Asignar recursos,
Datos básicos operación, Clientes Ejecutores, Tareas pendientes, Asignar roles,
Roles de consulta, Aportes Fondo, Contrato Fondo, Comprobantes contable, Pagos a
fondos, Registrar transacciones, Distribución categorías, Moneda extranjera.
El cálculo teórico se llevó a cabo, mediante la aplicación de la formula de
estimación de esfuerzo, propuesta en el modelo de puntos de función. Para ello se
utilizó la herramienta ofimática Microsoft Excel, que permitió automatizar el proceso
y aplicarlo adecuadamente a cada uno de los módulos del sistema.
El módulo de Aportes al Fondo (Ver fig. 1), hace parte del desarrollo del sistema y
está integrado por los siguientes componentes:
264
. Entradas Salidas Peticiones Archivos Interfaces
Participante Nombre del Buscar Aporte
fondo
Banco Banco
CUP
Número de Centro Costo
Cuenta Siglas
Cuenta
Centro de Estado
Costo Participante
Estado
Monto del Aporte
aporte
CUP del
Fecha Aporte participante
Observacione Fecha de
s Registro
CUP del
banco
Moneda
265
Facilidad de instalación 1,00
Facilidad de operación 1,00
Puntos múltiples 0,00
Facilidad de cambio 0,00
FAC=0,65+0,01*Fi 0,91 Dominio*factor122,00
266
LCI (1S) 18,67 Límite de Control Inferior (1S)
Prom mR 8,44 Promedio de la diferencia de LOC/PF de los módulos del sistema
LCS (mR) 27,59 Límite de Control Superior para mR calculado con la expresión
3.268* rM Promedio
LCI (mR) 0 Límite de Control Inferior para mR es igual a 0
Meta La meta superior es definida por el gerente del proyecto
Superior
Meta Inferior La meta inferior es definida por el gerente del proyecto
Probabilidad de alcanzar la meta 0.95
Fig. 2. Comparación Puntos de función teóricos versus reales. Fuente: los autores
4.3 Discusión
Basado en los resultados obtenidos se encuentra que la técnica de cálculo del esfuerzo
a partir de los puntos de función, tiene una efectividad del 95%. Es viable entonces
utilizar éste método como base para el diseño del meta-modelo que se ha propuesto en
la presente investigación.
En el módulo de Contrato fondo se encuentra una diferencia significativa, que se
revisó, y se determinó que obedece a un error en la asignación del factor de
complejidad, esto es preocupante y motivo de una nueva revisión con el fin de
determinar una metodología y nuevas métricas que permitan mejorar la confiabilidad
de ese cálculo.
El desarrollo de los módulos se realizó en lenguaje C#, con un equipo de 5
programadores, a quienes se les realizó una actividad inicial para verificar el
rendimiento de cada uno y obtener un promedio de su capacidad de escribir KLoc
(Mil Líneas de código) por Puntos de función, se obtuvo un promedio de 26.15.
Se debe revisar si éste valor es aceptable en otros lenguajes de programación, para
lo que se sugiere realizar la pruebas iníciales y comparar los resultados.
El cálculo de los puntos de función según los muestra la figura 2, es muy
aproximado, se puede observar diferencias no significativas lo que resulta un factor
267
decisivo a la hora de seleccionar este método como base para la conceptualización del
metamodelo.
En la figura 3, se muestra una comparación entre el tamaño real y el tamaño
teórico en líneas de código del módulo desarrollado, aunque la diferencia es pequeña,
se podría mejorar la precisión de la medida. Esta está supeditada a factores como son
el lenguaje de programación seleccionado, la plataforma, el framework de desarrollo,
lo que presupone una calibración a partir de pruebas piloto o de estadísticas basadas
en proyectos anteriores. En este momento el modelo de puntos de función no provee
los mecanismos necesarios para poder controlar este tipo de variables y deja abierta la
posibilidad para que sea desarrollado por quien implemente el modelo.
A pesar de la diferencia de tamaños de los módulos que se estudiaron y de la
cantidad de puntos de función en cada uno, se observa un comportamiento normal,
observándose tan solo el 8.44% de loc/pf de diferencia entre los componentes del
modulo.
También es posible verificar con los datos obtenidos que se necesitan 26.15 loc/pf
en el lenguaje de programación c#, lo que sugiere un punto de referencia al desarrollar
con otro lenguaje de similares características.
5 Conclusiones
Referencias
268
(2000).
13. Jones C., Estimación de Costos y Administración de Proyectos de Software. Mc Graw Hill,
México (2008).
14. Chakrabarti A., Wideband Delphi, Estimation Technique.
http://www.slideshare.net/aniruddha.chakrabarti/wideband-delphi-estimation, (2010).
Accedido el 2 de Septiembre de 2010.
15. Stellman A., Greene J., Applied Software Project Management Estimation,
http://www.stellman-greene.com/images/stories/LectureNotes/03%20estimation.pdf,
(2010), Accedido el 2 de Septiembre de 2010.
16. Carroll E. R. Estimating Software Based on Use Case Points; San Diego,CA, EEUU.
(2005).
17. Peralta M., Estimación De Esfuerzo Basada en Caso de Uso.
http://pisuerga.inf.ubu.es/rcobos/anis/estimacion-del-esfuerzo-basada-en-casos-de-usos.pdf,
(2004). Accedido el 2 de Septiembre de 2010.
18. Megapolis.net. Excel para estimación por casos de uso.
http://www.navegapolis.net/content/view/563/87/, (2009). Accedido el 10 de 05 de 2009.
19. Durán Rubio, S. E. Boletín de Política Informática Núm.6, 2003. Puntos por función. Una
métrica estándar para establecer el tamaño del software:
http://www.inegi.gob.mx/inegi/contenidos/espanol/prensa/Contenidos/Articulos/tecnologia/
puntosxfuncion.pdf, (2003). Accedido el 28 de Mayo de 2009.
20. Trejo, N. B. (s.f.). Estimación de Esfuerzo con Casos de Uso. Rio Gallegos, Argentina.
(2009).
269
Descripción del software para la configuración de un
tranceiver.
Jesús Augusto Guzmán L,a , Carlos Alberto González.b, Elvis Eduardo Gaona
García, a
a
Grupo de Investigación GITUD
b
Estudiante Ingenieria Electronica Universidad Distrital
jaguzman@udistrital.edu.co
1 Introducción
2 Funcionamiento general
La entrada y salida de datos del tranceiver se hace mediante una interface serial
SCI, cuyos niveles de voltajes están entre 0V para 1 lógico y 3.3V para 0 lógico. En
esta misma interface serial también llegan los comandos que permiten cambiar los
parámetros del tranceiver.
271
Fig 2. Modulo tranceiver.
272
Tabla 1. Registro ADF7021-N.
El primer paso para entrar en modo receptor es encender el VCO externo, y esperar
aproximadamente 0.7ms para que se estabilice la señal. Luego se debe configurar los
relojes que fijan la velocidad de transmisión y recepción. Se realiza la configuración
del filtro IF, para garantizar que la frecuencia central del filtro sea lo más cercana a los
100kHz, se puede realizar una calibración fina que toma alrededor de 8.2mS o una
calibración más rápida pero menos precisa que toma unos 200uS, pero que solo
proporciona una precisión de ±2.5KHz.
Al encender el PLL se cierra el lazo, encendiendo el comparador de fase y el
divisor de frecuencia. Y por último el encender el control automático de frecuencia,
hecho esto el tranceiver estará listo para recibir los datos provenientes del canal de
comunicaciones.
act configuración ...
VCO on
Esperar 0.7
ms
Escribir Reg
3 Tx/Rx
CLOCKS
Cal Filtro IF
Encender
PLL Esperar
40uS
Encender
demoduladores
Encender
AFC
Recibir
Datos
273
2.3 Modo transmisor.
Para llevar el tranceiver a modo transmisor se debe encender el VCO interno y esperar
aproximadamente 0.7mS para estabilizar la señal, luego se establece la frecuencia a la
que se quiere transmitir.
El siguiente paso es encender el amplificador de potencia y enviar los datos, para
salir del modo transmisor se debe apagar el amplificador y llamar la rutina de modo
receptor.
Escribir REG1
Esperar 0.7 mS
Establecer
Frecuencia
Encender
Amplificador
Apagar
Amplificador
274
act código microcontrolador
Inicializar Ram
Habilitar
Tranceiv er
Verificar
Regulador
[Regulador No Listo]
Estado del
Regulador
[Regulador Listo]
Modo Rx
[PII no Enganchado]
PII Engancho
[PII Enganchado]
Config. SPI
Slav e
A
[Datos cargados
Datos en
SPI? Env air por
SCI
en SPI]
B
[Datos Cargados en SCI]
Datos en
SCI?
Si llegan datos por el puerto SCI y el primer byte corresponde a 0x7E la cual es la
bandera de sincronización utilizada en AX.25, significa que se está recibiendo un dato
que debe ser enviado por RF, se debe entrar en modo transmisor y enviar los datos que
van llegando, esto continua hasta que se recibe otra vez la bandera 0x7E. Que es el
final de un paquete AX25 y el tranceiver vuelve otra vez al modo receptor.
275
act codigo microcontrolador
Bandera '7eh' C
[Activada]
Guardar
Bandera 'P' Registros en A
[Activada] Env iar 'OK'
RAM
Guardar
Bandera ´T´ Registro en
[Activada] Env iar 'OK' A
RAM
Bandera 'X'
A Reset
Env air 'OK'
Bandera 'R' [Activada]
Si los datos que llegan por SCI el primer byte corresponde a una de las banderas
que identifican o encabezan cada comando de configuración, el microcontrolador hará
efectivo ese comando ya sea recibiendo y/o almacenando en flash los registros o
realizando la lecturas de los sensores.
Modo TX
Dato en
[Datos no SCI
cargados
en SCI]
Bandera '7eh'
[Bandera en '7eh']
Modo Rx
276
2.5 Configuración desde el software.
277
2.6 Comunicación programador.
En el caso del comando ‗R‘, el tranceiver devolverá dos bytes en el cual van
codificados la medición de los sensores del ADF7021-N.
Queda ahora acoplar el tranceiver con el modulo beacon del tranceiver y el modulo de
la capa de enlace AX25 que permitirá la comunicación con los radios de la estación
terrena.
Referencias
278
IS.B.N. 0-471-877837-5
9. Hop Calculation in Digital Radio Systems, Siemens Telecomunicazione SPA, Italy. Rp.
10/03 issue2, december 1987.
10. Design of Device & Systems, William H. Middernoff, Marcel Deker,Inc. ISBN 08247-7391
11. Telecommunication Transmission HandBook, 2ed. Edition, Roger L. Freeman, John Wiley
& Sons. ISBN 0471-08029-2
12. Brieß, K., Montenegro, S., et al., ―Demonstration of Small Satellite Technologies by the
BIRD mission‖, Proceedings of the 16th Annual AIAA/USU Conference on Small
Satellites, Logan, Utah, USA, Aug. 2002
13. Barza, R., Aoki, Y., Schilling, K., ―UWE-1, A Student Built Pico-Satellite‖, Proceedings of
the 6th International Workshop on Research and Education in Mechatronics, Annecy,
France, June 30-July 1, 2005,
14. CubeSat Design Specifications Document,Calpoly and Stanford University, , Revision VIII,
2003, accessed on 06.12.2005
15. <http.//cubesat.calpoly.edu/documents/cubesat_spec.pdf>
16. Nakaya, K., et al., ―Tokyo Tech CubeSat: CUTE-1 – Design & Development of
17. GMSK Modulation for Digital Mobile Radio Telephony, IEEE Transactions on
18. Communications, vol COM-29, No. 7. pp. 1044-1050, July 1981. Murota, K. and Hirade,
K.,
19. Digital Communication Systems, Prentice-Hall, Englewood Cliffs,
20. NJ, 1987. Pebbles, P. Jr.,
21. Digital Communications: Fundamentals and Applications, Prentice-Hall, Englewood Cliffs,
NJ,
22. 1988. Sklar, B.,
23. Narrow-Band Transceiver IC ADF7021-N, Analog Devices, 2008.
24. Rf Circuit Design, Newnes, Bowick Chris, 1996.
25. Rf Design Guide: Systems, Circuits, And Equations, Artech House, Vizmuller Peter, 1995.
279
Conocimiento para toso: La inclusión social hacia la
competitividad educativa mediante un modelo de
gobernabilidad basado en conocimientos para la
educación superior en Colombia por ciclos propedeuticos
281
Palabras claves: Modelo matemática, ciclos propedéutico, matrices
de coherencia curricular, gobernabilidad academica, sostenibilidad
financiera, gestión del conocimiento, deserción.
1 Referentes internacionales.
282
En consecuencia los planes de estudio de Ingeniería a todo nivel en el Siglo
XXI deben incorporar nuevos campos:
283
nuevo y a la innovación, frente a la realidad que complementada con una
fundamentación teórica, tanto del problema de investigación como de la
metodología, permita formular de manera organizada, coherente y contextualizada
un proyecto de investigación.
•La divulgación y presencia en eventos académicos de talla mundial, que
promuevan el intercambio y el trabajo colaborativo
•Las posibilidades de Innovación deben reconocerse en las T/T y tener la misma
ponderación frente a las entidades de financiamiento.
El problema es que los países pobres y de desarrollo medio no somos actores en
esta revolución del conocimiento científico y tecnológico. Hay una división entre
quienes generan el saber y los productos que de él se derivan, y quienes simplemente
lo utilizan. Esta relación está mediada por relaciones y tratados comerciales con
respaldada por derechos de autor. Esto resulta en una moderna forma de creación de
dependencia impuesta por entidades corporativas que controlan los procesos de
investigación y desarrollo, lo que en los hechos produce un mundo que paga el saber
y un mundo que se beneficia económicamente de ello.
El paradigma científico imperante desde hace menos un siglo, fomenta la
especialización disciplinar, fenómeno que ha traído consigo el divorcio entre teoría
y practica, entre la investigación y la docencia, entre ciencias de la naturaleza y
ciencias humanas, entre el saber racionalista y el saber tradicional.
La responsabilidad social es otro elemento que incrementan las demandas
sociales: las IES como garantes del derecho constitucional a la educación de alta
calidad, el medio ambiente, los compromisos con la sociedad civil, la industria y el
país que exige mejores lugares en competitividad. En este sentido los avances de
Colombia son muy discretos en últimos 30 años.
Lo anterior unido al auge de los TLC de Colombia con numerosos países,
exigen a las IES la visibilidad internacional, el bilingüismo, infraestructura mejorada
en forma más que proporcional para la movilidad estudiantil, docente y de
investigadores mediante procesos sostenibles apoyados por convenios con
instituciones extranjeras de alta calidad, la re-estructuración de los planes de
desarrollo, con las funciones sustantivas de la educación superior (docencia,
investigación y proyección social) y las propias de su quehacer como IES
(Tecnologías, Bienestar, Planeación -incluyendo procesos de autoevaluación y
calidad-, Promoción institucional).
La normatividad vigente obliga también a esfuerzos adicionales a las instituciones
como lo es la adecuación de dichas normas, nuevas plataformas y demás
exigencias que implican mayores gastos pero que no se ve apoyada por nuevos
estímulos, i. e las exigencias cada vez más protuberantes que no se traduce en la
posibilidad de una veeduría o tercera parte ni se ofrecen mayores flexibilidades del
proceso, donde van a primar más los mecanismos ingenieriles de la calidad
industrial que no necesariamente están alineados con la calidad de los sectores
sociales.
Por el contrario son demandas desproporcionadas que indudablemente afectan la
gobernabilidad y sostenibilidad académica y financiera.
En los últimos años como ya se mencionó, el país ha hecho esfuerzos en lograr
TLC con varios países de igual o mayor desenvolvimiento que el nuestro, en los cuales
se destacan la movilidad laboral, docente, investigativa y de profesionales que exigen
imperativamente programas y planes de estudio de ingeniería altamente
competitivos en el mundo globalizado y por consiguiente siguiendo estándares
internacionales. Las políticas públicas se afianzan en las estrategias estatales de
cobertura, alta calidad y eficiencia, cuyo objetivo es transformar el sistema
educativo en magnitud y pertinencia para garantizar la competitividad del país
pero paradójicamente se aumentan las estadísticas de deserción, repitencia y en
especial de exclusión.
284
3 AUTONOMIA Y GOBIERNO
4 LA GOBERNABILIDAD
Es un concepto que va más allá de lo administrativo que está asociada con las
condiciones de la capacidad institucional para ofrecer los bienes y servicios
educativos, la facilidad de la toma de decisiones, la gestión del nuevo capital
intelectual y relacionados para responder a las necesidad del Estado, las empresas y se
la sociedad en general. Se ve afectada por la sobrecarga de las [1] demandas y
exigencias sociales y también por factores como la confianza, la participación y la
concertación, que desconoce las Salas de CONACES.
La gestión institucional y sostenibilidad están fuertemente asociadas. Y así
como no se trata de un asunto exclusivamente de educadores, más allá que allí
radica lo sustantivo de la institución- la sostenibilidad tampoco es un asunto
estrictamente financiero, aunque lo financiero es un componente estratégico de la
solidez de las instituciones educativas.
Un modelo de gestión institucional es la estructuración consistente, coherente,
concertada, comprometida, participativa y asumida por el conjunto de sistemas y
actores, acerca de las formas de pensar, de decidir, de actuar y de aprender que
muestra una institución en las diferentes dimensiones de su estrategia. Y desde allí se
puede ir construyendo el camino hacia una mayor sostenibilidad. El abuso de la
concertación (que no es consenso) que posibilita la Ley 1188 se ha minimizado. Se
afirma en numerosos documentos del MEN por ejemplo: que se ha reunido con las
asociaciones profesionales, pero ello no ha garantizado en forma alguna que se
haya tenido en cuenta sus opiniones por lo cual no aparecen en la normatividad
aunque si como invitadas de piedra. La inclusión social, la superación de la
exclusión laboral y la reducción del desempleo entre los jóvenes se ve en la
práctica contrarrestada porque hay muchas ambigüedades en la posición del MEN
285
frente al grave problema de los ciclos propedéuticos. No se evidencia cómo el
fortalecimiento de la educación técnica y tecnológica favorecerá también la
movilidad de los estudiantes entre los ciclos de formación y en los distintos
niveles del sector productivo. Tampoco se evidencia el ofrecimiento elementos
fundamentales para conseguir exitosamente la introducción y establecimiento de
una educación técnica profesional y tecnológica de calidad internacional dado que
en la práctica está ocurriendo es todo lo contrario:
Se promueve el adelgazamiento de las TP lo cual va en contra de cualquier
paradigma de calidad yse envía el mensaje que estos ciclos son para estudiantes
cercanos a la discapacidad mental, donde palabras como ingeniería, cálculo, física
y en general las ciencias básicas, están prohibidas!!!.
La democratización de la educación y el acceso al conocimiento ha sido un
propósito del MEN pero el manejo documental de las instituciones en relación con
los procesos de acreditación, ha dejado mucho que desear por los protuberantes
errores y desorden informacional a la hora de CONACES, tomar decisiones y no
son pocos los casos que se han dado: se toman decisiones con información
equivocada. Lo anterior sugiere sin lugar a dudas, que la modernización al interior del
MEN y la falta de arquitecturas de datos afecta gravemente la gobernabilidad de las
IES.
Los cambios dramáticos en la sociedad del conocimiento tal como lo ha reconocido
la Cumbre Mundial de la Sociedad de la Información, exigen que la formación
de un TP vaya más allá de lograr unas competencias específicas: lo fundamental
es que este TP debe prepararse para sobrevivir con éxito los mencionados
cambios por lo cual debe enfrentar el shock de nuevos conocimientos y
responsabilidades en un país que quiere ser más competitivo y en una sociedad global
más exigente. Lo contrario evidenciará es que muchos de nuestros graduados irán a
otros países a desempeñarse en ocupaciones inferiores.
5 CICLOS PROPEDEUTICOS
286
universitaria. Este valor agregado no lo admite CONACES, por el contrario reduce
la preponderancia de las T/T al adelgazarlas a la mínima expresión y las reduce a
carreras Técnicas Laborales.
Lo que queremos es que se permita que nuestros programas compitan en la
sociedad global, con planes internacionalizados y con recomendaciones / estándares de
talla mundial: No se está pidiendo que se ablanden los estándares de calidad, sino por
el contrario que se permita a las IES la innovación y la creatividad en el diseño de
estos currículos y mejorar el rigor académico hacia la alta calidad.
287
Fig 1 Conocimientos para todos.
288
Reducir la alta complejidad de la armonización y articulación de los ciclos
propedéuticos que enfrentan las universidades colombianas que acometen estos
proyectos, mediante instrumentos analíticos matemáticos y computacionales. Además:
• Contribuir a la democratización del conocimiento dada la decisión del Gobierno de
involucrarse en la Sociedad de la Información con la reciente Ley de las TIC 1341 de
2009
• Articular esfuerzos dentro de la política del Gobierno de Colombia que busca
incrementar la oferta educativa para un mayor acceso de conglomerados sociales de
menores ingresos en la vía del cumplimiento de la Constitución Nacional del
Derecho a la Educación por ende a la información y la Democratización del
Conocimiento.
• Mejorar el alcance prospectivo como una herramienta para la construcción de
futuro en las instituciones de Educación.
289
relaciones lógico-cognitivas entre las partes de la arquitectura de un sistema
educativo. Es tanto un instrumento de análisis como una estructura de la
matemática lineal que comunica, (toda acción comunicativa es pedagógica),
viabilizando el análisis y justificación de un plan de estudios y dándole sentido
como un todo organizado y complejo que entrelaza la coherencia y consistencia nterna
y la externa apoyado por la lógica fuzzy.
La misión conceptual del modelo:
• Gestionar conocimientos posibilitando el análisis morfológico un plan de estudios en
Educación Superior.
• Depurar y eliminar inconsistencias y viabilizar la optimización del currículo
• Cuantificar la producción de la universidad en términos del desarrollo del
conocimiento en el estudiante (cultivo de competencias) por ciclo propedéutico
• Cuantificar la contribución cognitiva de cada asignatura por ciclo propedéutico
• Remodelar las áreas de Expertise en cada ciclo y el Know how. Asimismo su
priorización y clasificación.
• Cuantificar la gobernabilidad frente los requerimientos de una nueva competencia en
términos de conocimiento, profesores y recursos universitarios o el mismo cambio del
estado del arte.
• Posibilitar el desarrollo de un currículo libre de errores y ambigüedades
• A partir de la Matriz de Coherencia Curricular desfuzzyficada, construir y
elaborar las extensibilidades propuesta por la matriz de insumo-producto de
procesos como base del análisis estructural y de optimización (el estilo de W
Leontief).
•Posibilitar el análisis de sostenibilidad financiera con el apoyo de las matrices de
Leontief y la Teoría de la Firma aplicadas a una institución educativa frente a las
presiones de las variables macroeconómicas y a las crisis locales y mundiales, cada
vez más frecuentes como es el caso del precario sistema de financiamiento de la
Educación Superior en Colombia.
290
• La gestión académica se cohesiona con el PEI cuando la diferencia entre lo realizado
frente a lo deseado es cero esto es: coherencia curricular.
El PEI es la expresión de la propia comprensión filosófica del quehacer
educativo y actúa como definición de su identidad, en ejercicio de la autonomía
universitaria, reconocida por la Constitución y la Ley.
Y = AX
(1)
291
abierto de insumo-producto en el cual los coeficientes técnicos están expresados
mediante números fuzzy.
Hay algunos supuestos básicos: Un proceso o unidad de conocimiento puede
alimentar una o más competencias. Por otra parte se establece la linealidad entre
las competencias y el conocimiento. Además la constancia de los coeficientes
técnicos de la Matriz A en el mediano plazo. A diferencia del Modelo de Leontief
en que la unidad de medida es el peso $, en el nuestro la unidad de medida es el
Crédito Académico que está debidamente normatizado.
Nuestro modelo propuesto permite un mejor aprovechamiento de la
información académica disponible. Del modelo de Leontief asociamos los
sectores industriales con unidades académicas que en forma agrupada podría
representarse así:
292
∆Y =∆ X
(2)
293
de uno de ellos en particular.
Las actividades económicas se agrupan en n sectores o ramas,
donde X (vector de producción), Y(vector de demanda final) Rn representan os
vectores de valores brutos de la producción y demanda final, respectivamente. La
matriz de coeficientes técnicos se denota por A = [𝒂𝒊,𝒋], son las transacciones entre
las industrias i y la industria j por unidad de producción de j.
Con la anterior matriz (denominada de coeficientes técnicos en economía
interindustrial, que inicialmente denominó W. LEONTIEF, se pueden realizar análisis
de optimización institucional, con la adición de funciones objetivo, restricciones de
capacidad, costos unitarios por créditos, población estudiantil-objetivo, limitaciones
de recursos universitarios y muchos otros relacionados. En varios trabajos previos
hicimos este análisis para la economía colombiana y el sector salud.[24].
Se supone que la producción X se distribuye una parte para el consumo intermedio
y el resto para el consumo final. Considerando exógenamente el vector de demanda
final, la solución se obtiene despejando el vector de valores brutos de la producción:
Y = (𝑰 − 𝑨)−𝟏X , (5)
∆Y = (𝑰 − 𝑨)−𝟏∆X (6)
Las principales causas que producen la alteración de los coeficientes en el tiempo son:
El cambio tecnológico en la producción académica e.g al introducir las TICs
y la Virtualización.
El cambio en el estado del arte
El incremento de los beneficios surgidos de las economías de escala
e.g. la generación de contenidos para la autoformación.
Incrementos substanciales en la productividad cognitivo del estudiante por
el uso de tutores virtuales inteligentes como iCOACH
Los cambios en los precios relativos (dado que los coeficientes de
Leontief surgen de una valoración monetaria).
Los cambios en los patrones de intercambio (adquisición de libros y
textos por contenidos generados por los docentes-autores, etc.)
La Demanda Final a nivel institucional está representada por todas las
actividades de Proyección Social, Servicios de Extensión y Consultoría, la
Investigación. Los cambios en su composición pueden originarse por los
requerimientos de la legislación de la Educación Superior que imparte el
Gobierno Nacional.
Necesidades de satisfacer los estándares nacionales e internacionales de los
Planes de Estudio.
294
Cambios en la producción científica y de conocimiento nuevo.
Demanda de consultoría por parte de la empresa y el gobierno
Generación de conocimiento nuevo como resultado de procesos de
investigación e innovación
295
8 COMPETENCIAS POR CICLOS EXPERTISE Y KNOW
HOW
296
8.1 BALANCE Y EVALUACION DE LA EXPERIENCIA DE LA
INNOVACION SOCIAL DE LEONTIEF
297
Latinoamericanos. Lo anterior implica la necesidad identificar y establecer vinculos
y alianzas estratégicas para producir conocimiento y la comercialización de los
productos.
• Desarrollar Software PROFESIONAL y con estandares internacionales para
consolidar el analisis matricial de la coherencia curricular, de manera generalizada y
amistosa que implica el manejo de Planes de Estudio para cada ciclo propedéutico, la
gestión de competencias y la concreción de expertise y know how para cada programa
académico.
• El Software deberá posibilitar el manejo de la arquitectura del conocimiento
curricular
• Construir en versión profesional iCOACH como software de calidad en base a
las especificaciones funcionales logradas hasta la presente. El propósito es monitorear
el progreso individual de cada estudiante asi como el registro periódico y acumulativo
de sus competencias adquiridas. Los prototipos construídos nos han posibilitado
identificar la necesidad de desarrllar Herramienyas para el profesor con un Editor
gráfico y herramientas para el estudiante modelando individualment y cuantificando
su progreso de sus competencias.
• Construir un repositorio sólido, Base de Conocimientos para verificación de
conceptos y aprendizajes competentes por cada asignatura del Plan de Estudios
con la participación de esperto en cada area temática de los planes de estudios.
Incluye herramientas del Profesor (con editor matemático gráfico) y para el
estudiante.
• Completar el modelo de Simulacion completo de los ciclos propedéuticos con
articulacion con la educación media y básica hasta la profesional. Como
herramienta para validar alternativas del modelo con sus extensibilidades y como
instrumento para analzar los costos de los creditos académicos.
• Consolidar la producción de herramientas para la generación de contenidos
multimediales y de
ralida virtual y capacitar docentes- autores en el espacio de las TICs.
• Derivar información con sus métricas sobre el aprendizaje Institucional ya que en el
espacio de la Matriz de coherencia curricular lo que se acumula no son pupitres sino
CONOCIMIENTO.
• Consolidar el análisis de Gobernabilidad académica y de Sostenibilidad financiera
• Análisis Psicométrico de Pruebas para robustecer los estudios de deserción
• Administración de Pruebas y Mejoramiento continuo institucional
8.4 CONCLUSIONES
298
5. Los Pares Internacionales al evaluar nuestros trabajos, han reconocido
que es escasa la literatura mundial a este propósito educativo y nuestro
sistema matemático de coherencia curricular para el análisis propedéutico ha
sido destacado como una innovación social y pionero en la arena
internacional.
6. Estamos buscando financiación para nuestro esfuerzo que está en progreso,
para completar la implementación de la inteligencia artificial y
computacional del progreso individual del estudiante técnico y tecnológico:
iCOACH.
7. Finalmente queremos que una vez está nuestro modelo verificado,
probado, validado y aceptado, queremos ponerlo al servicio de la comunidad
académica del país.
8. Se ha modelado una institución universitaria: la FESSANJOSE, basado en el
modelo de Leontief basado en procesos de unidades académicas para
representar la academia y la administración.
Referencias
299
Book ISBN 978-84-96737-
70-9. CD ROM IEEE CATALOG CFP10 EDU-CDR ISBN 978-1-4244-6569-9.
10. Jesus Arriaga et al: Engineering in Latin America: A view at the Higher Education
level: Special Session; in IEEE
EDUCON 2010 Conferencia Mundial de Educación Madrid España Abril 2010. Conference
Book ISBN 978-84-96737-
70-9. CD ROM IEEE CATALOG CFP10 EDU-CDR ISBN 978-1-4244-6569-9.
11. Miguel Rodriguez-Artacho et al: Enhancing Authoring, Modelling and collaboration in
E-Learning environments:
UNED research outline in the context of e-Madrid excellence network; IEEE EDUCON 2010
Conferencia Mundial de
Educación Madrid España Abril 2010. Conference Book ISBN 978-84-96737-70-9. CD ROM
IEEE CATALOG CFP10 EDU-
CDR ISBN 978-1-4244-6569-9.
12. Israel Gutierrerz et al: Assessing assessment Formats: The current picture: Special
Session; IEEE EDUCON 2010
Conferencia Mundial de Educación Madrid España Abril 2010. Conference Book ISBN 978-
84-96737-70-9. CD ROM
IEEE CATALOG CFP10 EDU-CDR ISBN 978-1-4244-6569-9-
13. Raquel M Crespo et al: Aligning Assessment with Learning Outcomes in Outcome-
based Education; IEEE EDUCON
2010 Conferencia Mundial de Educación Madrid España Abril 2010. Conference Book ISBN
978-84-96737-70-9. CD
ROM IEEE CATALOG CFP10 EDU-CDR ISBN 978-1-4244-6569-9.
14. Abelardo Pardo et al: Current Issues with Assessment Formats and Interoprability; IEEE
EDUCON 2010 Conferencia
Mundial de Educación Madrid España Abril 2010. Conference Book ISBN 978-84-96737-70-9.
CD ROM IEEE CATALOG
CFP10 EDU-CDR ISBN 978-1-4244-6569-9.
15. José Machado et al: The Role of Superior Education Institutions on Post-Secondary (Non
Superior) Education; IEEE
EDUCON 2010 Conferencia Mundial de Educación Madrid España Abril 2010. Conference
Book ISBN 978-84-96737-
70-9. CD ROM IEEE CATALOG CFP10 EDU-CDR ISBN 978-1-4244-6569-9.
16. Timothy A. Salthouse: EXPERTISE AS THE CIRCUMVENTION OF HUMAN
PROCESSING LIMITATIONS; in Toward a
General Theory of Expertise Prospects and Limits. Edited by K. Anders Ericsson and Jacqui
Smith - Published 1991.
17. Dietrich Dörner and Julia Schölkopf: CONTROLLING COMPLEX SYSTEM; OR,
EXPERTISE AS " GRANDMOTHER S KNOW
- HOW" in Toward a General Theory of Expertise Prospects and Limits. Edited by K. Anders
Ericsson and Jacqui Smith
- Published 1991.
18. Pérez Gama Alfonso: "MODELOS COMPUTACIONALES PARA EL DESARROLLO
DE LA INTELIGENCIA: HACIA UNA
INGENIERÍA DE SOFTWARE EDUCATIVO". II Congreso IberoAmericano de
Informática en la Educación LISBOA
PORTUGAL Octubre 1994; Auspicio de RIBIE y Fundación Corona. También presentado en el
II Congreso Nacional de
Informática Educativa en CALI, Abril 1994. Presentado en varios FOROS de RIBIE.
19. Edgar Ortegón, Alfonso Pérez Gama y Gina Ballera "Aplicaciones de la
Programación Lineal en la Planeación del
Sector Salud" Revista de Planeación y Desarrollo Volumen V No. 3 ISSN 0034-8686 (Depto
Nacional de Planeación)
Septiembre 1973; Publicado también por la AID Sector Analysis Series: "Linear
Programming Uses for Health
Planning"; Bureau for LatinAmerica Agency for International Development # 17 USAID
WASHINGTON January 1974
USA.
20. Alfonso Pérez Gama: "Uso de Modelos Multisectoriales de Programación Lineal en
Ciencias Sociales"; Revista TEMAS
ADMINISTRATIVOS - 1978 U. EAFIT # 33 Medellín.
21. Leontief, Wassly, (1975): Análisis económico Input-output. Barcelona: Ariel
22. Dewhurst, John H., Ll. Geoffrey, J.D. Hewings y Rodney C. Jensen (1991),
Regional Input-Output Modelling. New
Development and Interpretations, Avebury U.K.
300
23. Buckley J.J. (1992). Solving fuzzy equations in economics and finance Fuzzy Sets and
Systems 48. North -Holland , pp.
289-296 15th International Conference on Input Output Techniques. Renmin University of
China Beijing 2005
24. Vit lbin , Michele De Nic l , nt ni Messeni Petruzzelli , Devrim Yazan, DIMeG
Integrating Enterprise Input-
Output Modelling with GIS Technology for Supply Chain Analysis ; Politecnico di Bari, Viale
Japigia 182, 70126 Bari,
Italy.
25. PEREZ GAMA ALFONSO, Ing. GUILLERMO HOYOS GOMEZ, Ing. ALEXIS
MENA MENA SYSTEMS ENGINEERING
CURRICULA DESIGN BASED ON ARCHITECTURES UNDER COLOMBIA
PROPAEDEUTICAL CYCLES IEEE/CERMA:
WORKSHOP ON INNOVATION. September 22 -25 2009 in Cuernavaca, Morelos México;
Memorias Publicadas ISBN:
978-0-7695-3799-8
26. PEREZ GAMA ALFONSO, Ing. GUILLERMO HOYOS GÓMEZ, Ing. LEYINI
PARRA ESPITIA, Ing. MIGUEL R. ORTEGÓN G,
Ing. Roowan A. Hernandez, Ps. Giovanni Rozo Pardo; Ing. BYRON ALFONSO PEREZ
GUTIÉRREZ.EDUCATION
SOFTWARE ARCHITECTURE: FACING STUDENT DESERTION IN COLOMBIA
HIGHER EDUCATION WITH AN INTELLIGENT
KNOWLEDGE BASED COACHING SYSTEM: in Kuwait First e-Conference2009 November
2009; Gulf Education Society
IEEE/ACM
http://bio.science.kuniv.edu.kw/circulars/2009/11-Nov/15-11-
2009/Kuwait%20Conference%20on%20first%20e%20system%20service.pdf
Una nueva versión con un nuevo prototipo de iCOACH se presentará en IEEE ANDESCON,
Bogotá Septiembre 2010
27. PEREZ G M LFONSO, Byr n PEREZ G ANALYTICAL MODEL OF
PROPAEDEUTIC CYCLES FOR HIGHER EDUCATION
IN COLOMBIA ; 40 Reunión ISTEC (Octubre 27/28- 2009) Ibero-American Conference
on Trends in Engineering
Education and Collaboration, University of New Mexico Albuquerque, NM - USA. Memorias
ISBN 978-0-9842912-1-2
28. ALFONSO PEREZ GAMA Ing. BYRON ALFONSO PÉREZ GUTIÉRREZ MODELO
ANALÍTICO DE LOS CICLOS
PROPEDÉUTICOS PARA LA EDUCACIÓN SUPERIOR EN COLOMBIA; 40 Reunión
ISTEC (Octubre 27/28- 2009) Ibero-
American Conference on Trends in Engineering Education and Collaboration, University
of New Mexico
Albuquerque, NM - USA. Memorias ISBN 978-0-9842912-1-2
29. ALFONSO PEREZ GAMA, Ing. GUILLERMO HOYOS GOMEZ, Ing. ALEXIS
MENA MENA; BYRON ALFONSO PÉREZ
GUTIÉRREZ;A KNOWLEDGE BASED ANALYTICAL MODEL OF PROPAEDEUTIC
CYCLES FOR HIGHER EDUCATION IN
COLOMBIA; The IEEE /ACM INTERNATIONAL CONFERENCE ON ENGINEERING
EDUCATION - Ing ALFONSO PEREZ
GAMA, Ing. GUILLERMO HOYOS GOMEZ, Ing. ALEXIS MENA MENA; ICEED 2009,
Kuala Lumpur, Malaysia. IEEE Catalog
Number: CFP0968H ISBN: 978-1-4244-4844-9 Library of Congress: 2009905648
30. ALFONSO PEREZ GAMA, Ing. GUILLERMO HOYOS GOMEZ, Ing. ALEXIS
MENA MENA; . BYRON ALFONSO PÉREZ
GUTIÉRREZ;A KNOWLEDGE BASED ANALYTICAL MODEL OF PROPAEDEUTIC
CYCLES: LINKING MEDIA EDUCATION TO
HIGHER EDUCATION IN COLOMBIA; IEEE EDUCON 2010 Annual Global
Engineering Education Conference; Madrid
España Abril 2010. Conference Book ISBN 978-84-96737-70-9. CD ROM IEEE CATALOG
CFP10 EDU-CDR ISBN 978-1-
4244-6569-9
31. Alexis MENA MENA; UNA EXPERIENCIA SIGNIFICATIVA DE IMPLEMENTACIÓN
DE LA EDUCACIÓN VIRTUAL; Congreso
Internacional VIRTUALEDUCA 2009 Buenos Aires, Argentina.
http://www.virtualeduca.info/index.php?option=com_content&view=category&layout=blog&id
=58&Itemid=93
32. ALFONSO PEREZ GAMA, Ing. GUILLERMO HOYOS GOMEZ, Ing. ALEXIS
301
MENA MENA, Ing. BYRON ALFONSO PÉREZ
GUTIÉRREZ; MODELO LINEAL DE COHERENCIA CURRICULAR PARA
INGENIERÍA ELECTRÓNICA; IEEE ANDESCON,
Bogotá Septiembre 2010.
33. ALFONSO PEREZ GAMA; Ing. GUILLERMO HOYOS GOMEZ; Ing. BYRON
ALFONSO PÉREZ GUTIÉRREZ CURRICULUM
COHERENCE MODEL KNOWLEDGE-BASED FOR ELECTRONIC ENGINEERING , IEEE
Andescon 2010 Bogotá Colombia.
34. ALFONSO PEREZ GAMA; Ing. GUILLERMO HOYOS GOMEZ; Ing. BYRON
ALFONSO PÉREZ GUTIÉRREZ;
CONOCIMIENTO PARA TODOS: LA INCLUSION SOCIAL HACIA LA ALTA
COMPETITIVIDAD EDUCATIVA MEDIANTE UN
MODELO DE GOBERNABILIDAD BASADO EN CONOCIMIENTOS PARA LA
EDUCACION SUPERIOR EN COLOMBIA POR
CICLOS PROPEDEUTICOS SISOFT 2010 Simposio Internacional de Ingeniería de Software
y Sistemas de Información
en la Sociedad del Conocimiento- Bogotá Colombia.
35. ALFONSO PEREZ GAMA; Ing. GUILLERMO HOYOS GOMEZ; NANCY Yaneth
RIVERA-GUERRERO Ing. BYRON ALFONSO
PÉREZ GUTIÉRREZ CURRICULUM COHERENCE MODEL KNOWLEDGE-BASED
FOR INDUSTRIAL ENGINEERING SISOFT
2010 Simposio Internacional de Ingeniería de Software y Sistemas de Información en la
Sociedad del Conocimiento-
Bogotá Colombia. Septiembre 2010
302
Modelo de Inteligencia de Negocio utilizando Datos
Textuales No Estructurados
1 INTRODUCCIÓN
A medida que pasa el tiempo las organizaciones se van llenando cada vez de más y
más información que no suelen almacenar en sus base de datos relacionales,
que documenta sus procesos del negocio, de contratos con sus empleados, de contratos
con sus clientes o de contratos con sus proveedores, información valiosa en
correos electrónicos que hace parte del día a día del trabajo en la organización.
A medida que pasa el tiempo se van saturando de más información no
estructurada que la organización sabe que está ahí, pero que no la suele utilizar
para apoyar la toma de decisiones. Por ello que el 80% de información en las
303
organizaciones suele no ser estructurada. En esto radica el punto central de este
documento el cual está orientado a mostrar una propuesta de Inteligencia de Negocio
para Datos Textuales no Estructurados basándose en la definición de un modelo
que utiliza como núcleo una ETL Ontológica para poder unificar los datos
textuales no estructurados con los estructurados y de esta forma centralizar toda
la información en un mismo lugar y bajo un mismo formato para posteriormente
poder acceder a ella, generar conocimiento y apoyar la toma de decisiones.
2 LA PROBLEMATICA VISUALIZADA
3 CONCEPTOS NECESARIOS
304
desde diferentes fuentes de datos, para posteriormente almacenarlos en un gran
almacén de datos o Data WareHouse, el cual a su vez alimenta los DSS (DSS por sus
siglas en inglés Decision Support System) o sistemas de apoyo a las decisiones,
a través de los cuales se podrá monitorear el estado de la organización, hacer
predicciones y tomar decisiones teniendo una fuente de información fiable.
Una solución de inteligencia de negocio convencional se vería como en la Fig. 1,
donde existe una serie diversa de fuentes de datos que pasan por una ETL, se procesan
y almacenan en un Data WareHouse que posteriormente se pueden visualizar en
cuadros de mandos y en DSSs que permitirán apoyar la toma de decisiones.
Teniendo claro el concepto de lo que es una solución de inteligencia de negocio y
los diferentes elementos que la componen podremos pasar a los conceptos
adicionales que incluiremos en el modelo que posteriormente es definido.
Los datos textuales no estructurados son una gran parte de los datos no
estructurados y a ella pertenecen toda clase de documentos en formato texto
que no poseen una estructura determinada tales como: los correos
electrónicos,documentos de contratos, documentos donde se especifican los procesos
del negocio, historias clínicas, presentaciones de productos, etc. Para determinar
los tipos de datos textuales no estructurados que suelen utilizarse en las
organizaciones dependiendo de las funciones en la misma, podemos citar la
clasificación que IMON & NESAVICH [4] nos proporcionan en la Tabla I.
En dicha tabla se pude observar los diferentes tipos de datos textuales no
estructurados que se pueden obtener en una organización dependiendo del área
y las funciones que desempeñan las personas de dicha área de la organización.
Adicional a esto, los señores IMON & NESAVICH también clasifican los
datos textuales no estructurados por sus características, determinando una serie
de aspectos que permiten identificarlos y agruparlos. Esto nos da una base de
partida solida para este modelo, debido a que ya existe una forma clara de
identificar y clasificar los datos textuales no estructurados en una organización.
305
3.2 ETL - Extract, Transorm and Load
3.3 Ontología
La palabra ontología se deriva del griego ontos que significa estudio del ser, y logos
que significa palabra. Filosóficamente, la ontología es la ciencia de qué es, es
una explicación sistemática de la existencia, de los tipos de estructuras,
categorías de objetos, propiedades, eventos, procesos y relaciones en cada área de la
realidad [7].
Según STUDER, BENJAMINS & FENSEL [8], una ontología es una
especificación explicita y formal de una conceptualización compartida. Una
conceptualización es una vista simplificada y simplificada del mundo que
queremos representar para un propósito específico, definiendo un vocabulario o
conjunto de palabras controladas. Explicita significa que el tipo de conceptos
utilizados sean ostensiblemente definidos, por lo que si también describen otros
conceptos del mismo tipo, se definan detalladamente. Formal se refiere a que la
ontología debe ser legible por la máquina, es decir que esté en formato digital, para lo
cual se definen mediante OWL (del inglés Ontology Web Language) o RDF (del
inglés Resource Description Framework). Al referirse a compartida hace alusión a
la noción de que la ontología no es restringida solo para un individuo, sino que es
aceptada por un grupo de personas. Partiendo de esta definición entramos en el
mundo de la web semántica, que utiliza las ontologías como herramienta utópica para
que las máquinas se comuniquen entre sí.
306
3.4 Web Semántica
4 EL MODELO PROPUESTO
307
4.1 Modelo de Inteligencia de Negocio que incluye los Datos Textuales No
Estructurados.
308
Fase 2: Definición de las Ontologías:
Haciendo uso del mismo concepto de NIINIMÄKI & NIEMI, se genera un
mapa ontológico mediante RDF para definir los conceptos y términos que se utilizan
en cada uno de los tipos de documentos de la organización. De esta forma, para los
documentos que incluyen procesos del negocio es necesario definir una
ontología que define los ara los documentos de contratos de los procesos del
negocio. Para los documentos de contratos términos y conceptos de los procesos
del negocio. Phabrá que definir una ontología donde se definen los términos y
conceptos que se manejan en estos documentos, y así para cada tipo de
documento definidos en las diferentes áreas de la organización.
Fase 3: Extracción de los Datos Textuales No Estructurados usando una ETL
Ontológica:
Una vez definidos los conceptos se procede a la extracción de los datos por medio
de la ETL Ontológica, la cual recibe como entrada los documentos. Que contienen los
datos textuales no estructurados y los RDF donde se definen los términos y conceptos
que contienen dichos documentos que se van a procesar. Como salida de este proceso
de obtienen datos estructurados que se unirán con los datos estructurados generados
por el ciclo habitual de las aplicaciones de BI. Estos datos estructurados alimentarán el
Almacén de datos, de los cuales se obtiene la información que los usuarios finales
visualizan en sus sistemas de apoyo a las decisiones (DSS). Para realizar está unión
seprosigue a la siguiente fase.
• Fase 4: Unión de los Datos Estructurados con los Datos Textuales No
Estructurados en el mismo Repositorio:
En esta fase se debe identificar muy bien los datos que se obtienen como salida de
la ETL Ontológica y de la ETL convencional para poder fusiónalos en un
mismo
repositorio. Esta unión de datos se centrara en un almacén de datos principal donde se
concentrará toda la información de la organización y sobre la cual recaerán
todas las consultas que en las diferentes áreas de la organización se realizan
por medio de los diferentes sistemas que lo instan.
Es recomendable que este proceso de automatización se realice con
personal que conozca muy bien cada una de las áreas de la organización debido a que
el proceso de definición de las ontologías es un punto crítico que debe realizarse con
sumo cuidado y detalle.
5 CONCLUSIONES
Referencias
[1] BERNERS-LEE, T., HENDLER, J., & LASSILA, O. (2001). The Semantic Web.
Scientific American , 1-36.
[2] BROWN, C. (17 de Junio de 2008). SAP HelpingGovernmentTo BetterManage, Protect&
ShareInformation & Intelligence. Recuperado el 25 de Julio de 2010,
309
http://www.sap.com/croatia/about/events/2010/worldtour10/pdf/04_SAP%20Hel
ping%20Government%20To%20Better%20Manage,%20Protect%20&%20Shar
e%20Information%20&%20Intelligence.pdf
[3] DEL PINO, M. (2010). Business Intelligence + Búsqueda: Abriendo la puerta a la
información empresarial. Recuperado el 10 de Febrero de 2010, de www.bi-spain.com:
http://www.bi-spain.com/articulo/69887
[4] INMON, W. H., & NESAVICH, A. (2008). Tapping Into Unstructured Data:
Integrating unstructured data and textual analytics into Business Intelligence.Boston,
MA, EE. UU.: Prentice Hall.
[5] NIINIMÄKI, M., & NIEMI, T. (2009). An ETL Process for OLAP Using
RDF/OWL Ontologies. Journal on Data Semantics XIII , 97-119.
[6] Oracle Corporation. (2010). ¿Qué es Inteligencia de Negocios? Recuperado el 20 de
Julio de 2010, de www.oracle.com: http://www.oracle.com/technology/global/lad-
es/documentation/collaterals/Que-es-inteligencia-de-Negocios-Whitepaper-Angel-Rios.pdf
[7] SÁNCHEZ LÓPEZ, S. E. (2007). Tesis: Modelo de indexación de formas en
sistemas VIR basado en ontologías. Cholula, Puebla, México: Universidad de las Américas
Puebla.
[8] STUDER, R., BENJAMINS, V. R., & FENSEL, D. (1998). Knowledge engineering:
principles and methods. Data & Knowledge Engineering, Volume 25, Issue 1-2 161-
197.
310
PARTE II
Sistema de Información y Comunicaciones
Innovación tecnologica.
Inteligencia de negocios.
Gobierno electrónico.
Gestión del conocimiento 2.0
Cloud Computing
311
Modelo de interoperabilidad para e_learning sobre malla
computacional utilizando SAKAI
313
marco social educativo.
RESUMEN Muchos han catalogado una enseñanza bajo fantasías,
El articulo presenta los avances del proyecto de descontextualizada, otros arguyen la formación única por
investigación: Diseño y construcción de un modelo de Internet. Para ello, en primer lugar se plantea las
plataforma interoperable para e_learning sobre malla siguientes preguntas: ¿Qué es "lo virtual"? ¿Existe
computacional para la universidad ―Francisco José de verdaderamente una educación virtual? ¿Acaso la
Caldas‖, el propósito de esta investigación fue el educación formal o alternativa se ha de convertir en
desarrollo de un modelo de plataforma para educación educación virtual? ¿Dónde quedarán las aulas de las
virtual bajo ambiente Grid, la plataforma se denomina cuatro paredes? ¿Cómo desafía a los educadores, la
Catalina y se utilizó como base el código opensource de la educación virtual?
plataforma Sakai. Por lo tanto la educación virtual es un sistema y
Para el desarrollo del modelo se realizó una exhaustiva modalidad educativa que surge de la necesidad propia de
investigación sobre los diferentes estándares la educación y tecnología educativa. Para responder a las
internacionales sobre: malla computacional, educación preguntas antecedidas, primero se desarrollará los
virtual, e_learning, b_learning y sobre los diferentes fundamentos teóricos de lo "virtual", como base de
modelos pedagógicos y de enseñanza para la educación a partida en el ámbito del proceso enseñanza aprendizaje,
distancia y educación online adoptados e implementados luego la esencia de los mundos y entornos virtuales en la
por varios organismos y por diferentes instituciones de adquisición del conocimientos a través de ellas.
educación superior en el mundo.
Palabras clave Seguidamente, se desglosa el proceso histórico, la
Tecnología educativa, Aprendizaje en línea, Aprendizaje inserción de la digitalización a la educación y las nuevas
virtual, Internet, Malla computacional tecnologías.
En el marco del Sistema Nacional de Ciencia y
ABSTRACT Tecnología, el programa de COLCIENCIAS
The article presents the progress of the research project: "Conocimiento, Innovación y construcción de Sociedad:
Design and construction of a model of E-Learning Una agenda para la Colombia del siglo XXI", propende
platform for interoperable computational grid for the por llevar al país a ser una sociedad del Conocimiento con
university "Francisco José de Caldas", the purpose of this gente que desarrolle pensamiento estratégico y
research was to develop a model for virtual education prospectivo, capaz de desenvolverse en la sociedad del
platform under Grid environment, the platform is called Tercer Milenio.
Catalina and was used as the base platform code Se propone un sistema de educación virtual, como una
opensource Sakai. alternativa viable en el desarrollo de las nuevas
To develop the model was conducted comprehensive competencias, la apropiación de la tecnología, la
research on various international standards: grid formación docente y el desarrollo regional.
computing, virtual education, E-Learning, b_learning and Las Instituciones de Educación Superior necesitan una
the different models of education and training for distance infraestructura para educación presencial y virtual
learning and online education adopted and implemented avanzada, acorde a las demandadas por el Plan Nacional
by various agencies and by different institutions of higher de Tecnologías de la Información y las Comunicaciones
education in the world. que les permitan estar en la sociedad del conocimiento.
En la actualidad, se reconoce el impacto de estas
Keywords tecnologías en la competitividad, su potencial para apoyar
Educational technology, online learning, virtual learning, su inserción en la economía globalizada e impulsar el
Internet, Grid computing desarrollo económico y social de los países. Estos
beneficios sólo pueden convertirse en resultados concretos
1. INTRODUCCIÓN a medida que la sociedad se apropie de estas tecnologías y
El entorno globalizado y el rápido desarrollo de las las haga parte de su desempeño cotidiano. Es decir, con
tecnologías de la información y la comunicación, han usuarios preparados que utilicen las TIC, se puede lograr
llevado a la necesidad de desarrollar la Sociedad del una verdadera transformación económica y social.
Conocimiento caracterizada por "ser una sociedad con Un dominio amplio de estas tecnologías en el sector
capacidad para generar conocimiento sobre su realidad y público y privado es una condición necesaria para reducir
su entorno, con capacidad de utilizar dicho conocimiento la pobreza, elevar la competitividad y alcanzar el tan
en el proceso de concebir, forjar y construir su ansiado desarrollo sostenido de los países.
futuro"[Chapa1998]. Por consiguiente la educación virtual El desarrollo de las TIC ha desencadenado un cambio
como "concepto" ha generado bastantes discusiones en el estructural en el ámbito productivo y social de las
sociedades modernas. Y no es para menos: su uso ha
315
implicado una revolución que ha transformado la forma interesada en contribuir al fortalecimiento investigativo,
como se produce, divulga y utiliza la información en la científico y educativo; propósito que se comparte con la
sociedad. El uso de estas tecnologías ha cambiado las Red Nacional Tecnología Avanzada - RENATA, que
costumbres sociales y la forma cómo interactúan las actualmente conecta los centros de investigación del país,
personas. gracias a la Grid Colombia, conformada por universidades
Las TIC han mejorado las oportunidades para grandes de Bogotá, Medellín, Cali, Barranquilla, Bucaramanga y
grupos de la población tradicionalmente excluidos, con lo Popayán, quienes han creado sus propias redes y buscan
cual se ha aumentado la movilidad dentro de la sociedad. proyectos conjuntos, enfocados al progreso de sus
Han producido, además, una revolución del aprendizaje regiones y al desarrollo cultural, social y académico de la
que ha cambiado la manera como las personas aprenden y población, lo cual ha dinamizado el proceso de
el papel de los estudiantes y docentes. También, el uso de aprendizaje de los estudiantes y el dominio disciplinar de
estas tecnologías ha evidenciado que el período del los docentes.
aprendizaje no puede ser un proceso limitado en el tiempo Apoyados en tecnologías de la información y de las
sino que debe propiciarse a lo largo de toda la vida. telecomunicaciones las cuales han posibilitado la creación
de nuevos espacios de interrelaciones humanas y su
2. METODOLOGIA incursión en la educación ha generado un nuevo
Para desarrollar del proyecto se realizaron las siguientes paradigma que dinamiza al tradicional y da explicaciones
actividades: nuevas a las relaciones entre los actores del proceso
1. Consulta sobre: Grid y Educación virtual, Learning pedagógico, al aprendizaje y a las formas de enseñanza.
Management System (LMS), Estándares y modelos de La llamada sociedad de la información, se torna
referencia en el campo de la educación y Modelo de insuficiente frente al desarrollo vertiginoso de las
referencia SCORM. telecomunicaciones y a las nuevas formas de interacción e
Grid y Educación Virtual interactividad, que obligan a pensar en una sociedad culta
Originalmente, la computación en Grid se inició para y civilizada de la información y sobre todo en una
resolver grandes problemas de la ciencia y la ingeniería; sociedad del conocimiento.
ahora ha cambiado y existen más aplicaciones para uso El mayor beneficio educativo de estas nuevas formas de
convencional y empresarial. En el futuro el término Grid interacción es la capacidad de comunicación en cualquier
en computación se asemejará a su connotación inicial en tiempo o lugar, con capacidad de captura de eventos
las redes eléctricas: Que se consuman los recursos diarios, fuentes de referencia rápida y soporte a través de
informáticos por la demanda existente, que se pueda estar Internet, además de mayor disponibilidad y herramientas
siempre conectado a las fuentes de información y más atractivas de emplear.
procesamiento, es decir el Grid es la Internet del mañana. La educación virtual es una de las aplicaciones bajo malla
Las diferentes formas de implementación de una Grid, computacional, porque se requiere de mayor ancho de
según el uso, los medios, las aplicaciones, el hardware y el banda y de nuevas herramientas que permitan utilizar
software, se fundamentan en los conceptos y estándares apropiadamente elementos multimedia como el video y el
establecidos por el Global Grid Forum. Existen proyectos sonido. La educación virtual la definen de la siguiente
que abordan la creación de la tecnología Grid, luego la manera:
aplicación de esta tecnología y, por último, proyectos ―Alvarez Roger (2002) "La Educación Virtual enmarca la
donde se despliega la tecnología Grid para crear lo que se utilización de las nuevas tecnologías, hacia el desarrollo
llaman ―Grids de Producción‖. Este proyecto se enfocó en de metodologías alternativas para el aprendizaje de
proveer una plataforma Grid-E_learning que apoye y alumnos de poblaciones especiales que están limitadas por
facilite aprendizaje e investigación. su ubicación geográfica, la calidad de docencia y el
Con el surgimiento de las mallas computacionales, se ha tiempo disponible.
dado paso a sociedades que piensan en generar nuevo La UNESCO (1998), define como "entornos de
conocimiento con mayor dinamismo, para lo cual han aprendizajes que constituyen una forma totalmente nueva,
surgido grupos de interés, que promueven y desarrollan en relación con la tecnología educativa... un programa
proyectos de investigación de manera interdisciplinaria, informático - interactivo de carácter pedagógico que
como los consorcios: Geoespacial Abierto – OGC y Web posee una capacidad de comunicación integrada. Son una
tridimensional - Web3D quienes han propuesto muchos innovación relativamente reciente y fruto de la
estándares objetos de estudio para el proyecto de convergencia de las tecnologías informáticas y de
investigación. telecomunicaciones que se ha intensificado durante los
El desarrollo del proyecto se orientó a beneficiar a las últimos diez años".
comunidades de computación Grid, redes avanzadas de Lara, Luis (2002), afirma que la Educación Virtual es "la
aprendizaje y comunidad académica colombiana, modalidad educativa que eleva la calidad de la enseñanza
aprendizaje... que respecta su flexibilidad o disponibilidad
316
(en cualquier momento, tiempo y espacio). Alcanza su (crear sus propios contenidos) y se centra en gestionar
apogeo con la tecnología hasta integrar los tres métodos: contenidos creados por gran variedad de fuentes
asincrónica, sincrónica y autoformación". diferentes. La labor de crear los contenidos para los
Loaza, Alvares Roger (2002) "Es una paradigma cursos es desarrollada mediante un LCMS (Learning
educativa que compone la interacción de los cuatro Content Management Systems).
variables: el maestro y el alumno; la tecnología y el medio Un LCMS se encarga de la creación, reusabilidad,
ambiente. localización, desarrollo y gestión de contenidos
Banet, Miguiel (2001) se adelanta en su concepción y formativos. Los contenidos son generalmente
afirma: "la educación virtual es una combinación entre la almacenados en un repositorio en la forma de pequeños
tecnología de la realidad virtual, redes de comunicación y objetos de aprendizaje, únicos y autodescriptivos, cada
seres humanos. uno de los cuales satisface uno o más objetivos formativos
En los próximos años, la educación virtual será de bien definidos. Aunque muchas de las plataformas
extender y tocar a alguien – o una población entera – de revisadas son definidas explícitamente como LMS,
una manera que los humanos nunca experimentaron algunas de ellas incorporan módulos que permiten
anteriormente". Indico, ―que la educación virtual es una funcionalidades como las descritas por los LCMS, por lo
modalidad del proceso enseñanza aprendizaje, que parte cual aquí los denominaremos en forma genérica como
de la virtud inteligente - imaginativa del hombre, hasta el LMS.
punto de dar un efecto a la realidad, en la interrelación Un LMS, podemos decir que permite el registro de
con las nuevas tecnologías, sin límite de tiempo – espacio estudiantes, la entrega de actividades de aprendizaje y la
que induce a constantes actualizaciones e innovaciones evaluación en ambientes online. Algunos más
del conocimiento. ― [ACO2002]. especializados pueden incluir herramientas como
La educación virtual como la educación del siglo XXI, administración de competencias, planificación de
tiene los siguientes principios: sesiones, certificación y alojamiento de recursos tales
• La autoeducación como salones, documentos, instructores, etc.
• La autoformación Los LMS son construidos utilizando una gran variedad de
• La desterritorrialización plataformas y usualmente usan bases de datos robustas.
• La descentración Existen muchos sistemas comerciales pero en los últimos
• La virtualización años ha habido un incremento sustancial de las
• La tecnologización alternativas de código abierto, lo cual ha posibilitado un
• La sociabilidad virtual campo de investigación y desarrollo muy atractivo.
En internet se comparte información, en la malla Algunos LMS comerciales son Blackboard (quien se unió
computacional se puede compartir recursos, no solamente con WebCT), fronter, Desire2Learn Inc, Lotus Learning
recursos computacionales, también recursos humanos, Management System, LearnFlex™, y SumTotal entre
científicos y de colaboración. Todo esto se logra con la otros. Sin embargo, el interés se centra en LMS de código
masificación de la tecnología de malla computacional e abierto, los cuales se consideran ideales para el desarrollo
Internet versión 2. Entonces con esto la educación virtual de investigación en el campo de la educación, que
no serán simples sonidos o videos de un profesor que se permitan el uso efectivo y eficiente de la TICs en tales
encuentra en otro lugar, será charlas virtuales con ambientes.
herramientas electrónicas para cada estudiante y donde A continuación se realiza una breve descripción de
todos los participantes tendrán acceso a la misma calidad algunos de los LMS de código abierto más conocidos:
de educación. − .LRN [LRN] conocido también como dotLRN,
Learning Management System (LMS) desarrollado inicialmente por el MIT. .LRN está
Un LMS (Learning Management Systems) también respaldado en la actualidad por un consorcio mundial de
denominado CMS (Course Management Systems) es un instituciones educativas, organizaciones sin ánimo de
software que automatiza la administración de acciones de lucro, empresas y desarrolladores de código abierto. .LRN
formación. Un LMS registra usuarios, organiza los es apropiada para comunidades de aprendizaje e
diferentes cursos en un catálogo, almacena datos sobre los investigación, pues tiene capacidades de gestión de
usuarios, provee informes para la gestión y suministra al cursos, comunidades on-line, gestión de contenidos y del
instructor un mecanismo para crear y distribuir contenido, aprendizaje. Las instituciones miembros del consorcio
monitorear la participación de los estudiantes y evaluar su trabajan juntas para apoyar los avances de cada uno y
desempeño. acelerar y ampliar la adopción y el desarrollo de .LRN. El
También suelen ofrecer a los estudiantes el uso de consorcio asegura la calidad del software certificando
mecanismos de interacción como foros de discusión, componentes como .LRN-compliant, a través de planes de
videoconferencias o servicios de mensajería instantánea. desarrollo del software coordinados y manteniendo los
Un LMS generalmente no incluye posibilidades de autoría lazos con OpenACS, el Kid de herramientas de código
317
abierto que forman la base de .LRN. Los miembros pagan diaria de la fundación. El personal de Sakay provee
una cuota por participar en el consorcio OpenACS, pero coordinación entre un número de actividades incluidas:
cualquiera puede convertirse en certificado y contribuir. administración de proyectos, aseguramiento de la calidad,
− Moodle [MOO]. Moodle es un paquete de software para gestión de lanzamientos de nuevas versiones y
la producción de cursos basados en Internet, viene del planificación de conferencias. Su versión actual es la 3.0
acrónimo Modular Object-Oriented Dynamic Learning Aunque todos los LMS tienen funcionalidades similares,
Environment, que es sobre todo útil para programadores y la diferencia real de ellos para este proyecto radica en la
educadores teóricos. Actualmente está en desarrollo y ha posibilidad de permitir interoperabilidad entre cada una de
sido diseñado para soportar un marco de trabajo educativo ellas. Esto depende de la forma como han sido
basado en la filosofía social constructivista. Es un gestor desarrollados y mantenidos, pues como hemos visto en los
de contenidos que mantiene los contenidos centralizados ejemplos presentados estos proyectos son desarrollados
en una base de datos y que facilita los contenidos a los generalmente por grandes comunidades que van
estudiantes a través de una interfase Web. Moodle permite trabajando de manera conjunta en el mejoramiento de
la creación de contenidos, la comunicación entre los diferentes aspectos. Por lo tanto, la interoperabilidad es un
usuarios y el seguimiento de las actividades realizadas. proceso que garantiza o no la escalabilidad de los
Moodle se puede instalar en cualquier Web server con un proyectos sin perder la flexibilidad para poder realizar
intérprete de PHP y completo soporte para el uso de los mejoras posteriores.
manejadores de bases de datos MySQL y postgreSQL. Como ya hemos visto, la lista de LMS comerciarles y no
− Claroline. El proyecto Claroline [CLA], fue iniciado en comerciales es extensa, por lo cual elegir uno se puede
el 2000 en la Universidad de Louvain (Belgium) por convertir en un verdadero problema. Sin embargo,
Thomas De Praetere y fue soportado económicamente por trabajos como el de Carrillo et al. en [CAR03], no solo
la fundación Louvain. Claroline ha sido desarrollado dan información sobre importantes entidades y
siguiendo las experiencias pedagógicas y necesidades de herramientas que realizan evaluaciones de LMS, sino que
los profesores. La plataforma se puede personalizar y también nos proporcionan un modelo para la
ofrece un ambiente de trabajo flexible y hecho a la caracterización de LMS que permite realizar evaluaciones
medida. Claroline es otra plataforma de código abierto, de LMS que sean de su interés.
basada en PHP y MySQL, para la administración de Algunos de las evaluaciones tenidas en cuenta en
aprendizaje. Este sistema es un entorno de aprendizaje [CAR03] son las realizadas por GATE [GATE],
colaborativo que permite a los profesores o instituciones EduTools [EduTools], EDUTECH [Edutech],
educativas, crear y administrar cursos a través de la Web. MARSHALL [MARSHALL] y el Grupo Tadel. De estas,
Además permite estructurar cursos, almacenar material y la del Grupo Tadel ya no se encuentra disponible, pero
administrar las actividades de los estudiantes, brindándole otras como EDUTECH siguen realizando evaluaciones
al profesor la total libertad para estructurar y configurar que nos orientan a la hora de elegir un LMS. En el año
los cursos sobre la Web. Así, el estudiante puede ver el 2003, este organismo únicamente contenía evaluaciones
material del curso en diferentes formatos (por ej. de LMS comerciales, sin embargo, debido al gran auge de
documentos Word, PDFs, páginas HTML, etc.). El herramientas de código abierto, esta tarea fue extendida y
proceso de aprendizaje individual como está contemplado en el año 2005 se presentó una evaluación que definía los
en esta herramienta utiliza lecturas y/o documentos en siguientes criterios:
formatos diferentes. 1. Soporte a múltiples lenguajes.
− Sakay. La fundación Sakai [SAK], es una organización 2. Múltiples sistemas operativos.
sin ánimo de lucro que se dedica a coordinar actividades 3. Ambientes integrado de aprendizaje heterogéneo.
en torno a dicho proyecto y a su comunidad para asegurar 4. Desarrollo activo, con por lo menos dos desarrolladores
la viabilidad del mismo a largo plazo. Sakay nació como permanentes.
una iniciativa del consorcio uPortal [uPortal] y cuatro 5. Comunidad activa.
universidades norteamericanas (Indiana, Michigan, MIT y 6. Disponibilidad de herramientas de aprendizaje básicas.
Stanford), en enero del 2004, para integrar las 7. Disponibilidad de documentación básica.
funcionalidades de un entorno virtual de De acuerdo a esta evaluación, solo seis LMS cumplieron
enseñanza/aprendizaje en un portal institucional. El estos criterios, ATutor, Claroline, dotLRN, Moodle, Sakai
proyecto de Sakai, Collaboration and Learning y OLAT. Todos estos sistemas proveen funcionalidades
Environment (CLE), es un entorno modular de código básica tales como herramientas para los estudiantes
fuente abierto, cuyo objetivo es integrar diversas (comunicación, productividad, participación del
funcionalidades del e-learning en un portal académico. La estudiante) y herramientas de soporte (administración,
fundación tiene un número de personas que se encargan entrega de cursos, desarrollo de contenido) de acuerdo a
de la coordinación de las actividades, incluido un director las categorización de características definida por
ejecutivo de tiempo completo quien gestiona la operación EduTools.
318
Sin embargo, hay tres elementos de mayor importancia la información de manera más inteligente.
para las instituciones de educación superior que no son − AICC (Aviation INDUSTRY CBT (Computer-Based
consideradas en esta evaluación. Adaptabilidad, Training) Committee), [AICC], es una asociación
reusabilidad y accesibilidad. Aunque la adaptabilidad internacional de profesionales de entrenamiento basados
actualmente no es soportada completamente por ningún en tecnología. El AICC desarrolla las pautas para la
sistema, de acuerdo a [KAR06], Moodle, Sakai y dotLRN industria de la aviación en el desarrollo, la entrega, y la
son los LMS mejor preparados para soportarla. evaluación del CBT y de las tecnologías de entrenamiento
Por otra parte los otros dos aspectos reusabilidad y relacionadas. Los objetivos del AICC son los siguientes:
accesibilidad, en términos de soporte a estándares, son Asiste a los operadores de aeoplanos en el
analizados en [SAN06]. Este análisis concluye que solo desarrollo de guías las cuales promueven la
dotLRN y Sakai soporta un gran rango de estándares implementación económica y efectiva de medios
educacionales tales como el modelo de referencia de entrenamiento basados en computadoras.
SCORM y las especificaciones de IMS, así como, Desarrollo de directrices para hacer posible la
garantiza dentro de sus funcionalidades requerimientos de interoperabilidad.
accesibilidad. Provee un foro abierto para la discusión de CBTs
Por lo anterior se considera que Sakai es el LMS y otras tecnologías de entrenamiento.
apropiado para integrarlo con la Grid y de esta manera
lograr la interoperabilidad en entornos educativos − IEEE, Institute of Electrical and Electronics Engineers
virtuales. [IEEE] es una organización internaciconal que desarrolla
Estándares y modelos de referencia en el campo de la estándares técnicos y recomendaciones para sistemas de
educación IMS, Global Learning Consortium [IMS]. eléctricos, lectrónicos, computarizados y de
Consorcio de vendedores y desarrolladores quienes han comunicaciones. Las especificaciones de la IEEE se
enfocado su trabajo en el desarrollo de especificaciones adoptan extensamente y se convierten en estándares
basadas en XML. internacionales. Dentro de la IEEE, el comité de
Estas especificaciones describen las principales estándares en tecnología de aprendizaje Learning
características de cursos, lecciones, evaluaciones, Technology Standards Committee [LTSC] proporciona
aprendices y grupos. Adicionalmente las especificaciones especificaciones que direccionan las mejores prácticas, la
XML y las guías sobre las mejores prácticas proveen una cuales pueden ser probadas para conformidad. La
estructura para la representación de meta-datos (datos especificación más ampliamente conocida del IEEE LTSC
sobre datos) en e-learning. es LOM, la cual define elementos y grupos de elementos
Este grupo ofrece una aproximación disciplinada para que describen recursos de aprendizaje. Tanto IMS y ADL
describir los diversos recursos y proveer un grupo común usan LOM en sus especificaciones de elementos y
de elementos que pueden ser intercambiados entre estructuras.
múltiples sistemas. Los meta-datos permiten búsquedas de − OUN (Open University of the Netherlands) [OUN],
recursos de aprendizaje, así como intercambio y fueron los desarrolladores del Lenguaje de Modelado
mantenimiento de los mismos. Educacional (EML, Educational Modelling Language),
− ADL, Advanced Distributed Learning [ADL], es una actualmente ha pasado a formar parte de IMS LD.
organización respaldada por el gobierno de los Estados − International Standards Organisation (ISO) [ISO] Sub
Unidos, que investiga y desarrolla especificaciones para Committee 36 (SC 36). ISO es el desarrollador líder en el
impulsar la adopción y el avance del e-learning. La mundo de estándares internacionales. Los estándares ISO
combinación de investigaciones y recomendaciones especifican los requerimientos para el estado del arte de
ayudan a introducir las especificaciones en los estándares. los productos, procesos, materiales y sistemas y para una
La publicación de ADL más aceptada es SCORM buena evaluación de conformidad desde la perspectiva
(Shareable Content Object Reference Model). SCORM directiva y admistrativa.
combina elementos de IEEE, AICC, IMS, y ARIADNE. − ARIADNE [ARIADNE]. Es una asociación Europea
ADL le agrega valor a los estándares existentes, pues que busca facilitar la reutilización y el intercambio de
provee ejemplos, mejores prácticas y clarificaciones que conocimiento. El núcleo de la infraestructura de Ariadne
ayudan a los proveedores y desarrolladores de contenidos es una red distribuida de repositorios de aprendizaje. La
a implementar especificaciones de e-learning de una fundación de ARIADNE fue creada para explotar y seguir
manera consistente y reusable. los desarrollos de los proyectos europeos ARIADNE y
− DCMI, Dublin Core Metadata Initiative [DCMI], es una ARIADNE II, los cuales crearon herramientas y
organización dedicada a promocionar la masiva adopción metodologías para la producción, administración y la
del estándar meta-data. Desarrolla vocabulario reutilización de elementos pedagógicos basados en
especializado para metadata, el cual sirve para describir computador y soportados por redes telemáticas de prueba.
recursos y de esta forma habilitar sistemas para descubrir
319
La validación de las herramientas y conceptos tuvo lugar clase de contenidos E-learning, facilitando la accesibilidad
en sitios académicos y corporativos en toda Europa. y búsqueda de dichos contenidos [MIK06].
Muchos de ellos continúan sobre la base de los resultados Esto es muy importante en este proyecto porque con el
obtenidos, motivados por la idea de desarrollos no uso de estándares se puede garantizar que los contenidos
comerciales en esta área. generados pueden ser probados sobre cualquier LMS y
además puedan ser usados posteriormente en futuras
3. MODELO DE REFERENCIA SCORM pruebas tanto de este como de otros trabajos.
SCORM (Shareable Content Object Reference Model), es
una suite de estándares técnicos que habilitan a los 2. Se instalo y se configuro la plataforma sakai sobre el
sistemas de aprendizaje basados en la Web para encontrar, sistema operativo Linux.
importar, compartir, rehusar y exportar contenidos en una 3. Se desarrollo el modelo de la estructura Grid-
forma estandarizada. Definen como los elementos de E_learning U. Distrital.
instrucción individuales son combinados a nivel técnico y 4. Se desarrollo el modelo de la plataforma interoperable
un conjunto de condiciones necesarias para que el Catalina.
software use los contenidos. Este estándar usa XML y se 5. Se desarrollo la Adaptación y personalización de
basa en los trabajos hechos por los grupos ADL, AICC, plataforma de educación virtual Sakai.
IMS, IEEE, ARIADNE, entre otros. Está organizado en 6. Se instalo el modulo para el manejo de SCORM sobre
tres libros: la plataforma de educación virtual Sakai.
− SCORM CAM (Content Aggregation Model), este libro 7. Se desarrollo y se instalo el portlets para el
describe los componentes usados en un proyecto de e- procesamiento de información sobre malla computacional.
learning, la forma de empaquetarlos para el intercambio
entre sistemas, de describirlos para posibilitar la búsqueda 5. RESULTADOS
y el descubrimiento de recursos y de definir la En la plataforma Sakai se pueden adaptar y personalizar
información para la secuencia de los componentes. los diferentes servicios que ofrece, así como agregar
SCORM CAM promueve una manera consistente de nuevos módulos, a continuación se presenta la
almacenamiento, etiquetado, empaquetado, intercambio y personalización de algunos de ellos:
descubrimiento de contenidos de aprendizaje.
− SCORM RTE (Run Time Environment), provee un
medio para la interoperabilidad entre SCOs (Share
Content Object) y LMSs, es decir que los contenidos de
aprendizaje se puedan mover a través de múltiples LMS Figura 1. Banner principal
independientemente de las herramientas usadas para crear
el contenido. Para que esto sea posible, debe haber una
forma común para lanzar contenidos, una forma común
para la comunicación entre los contendidos y los LMS y
unos elementos de datos predefinidos que son
intercambiados entre LMS y contenidos durante la
ejecución.
− The SCORM SN (Sequencing and Navigation), este
libro está basado en la especificación Simple Sequencing
(SS) de IMS Versión 1.0, la cual define un método para
representar el comportamiento esperado de cualquier
experiencia de aprendizaje creada de tal forma que
cualquier LMS conforme con SCORM ordenará Figura 2. Entrada a la administración de Podcasts
actividades de aprendizaje discretas de una manera
consistente.
Todo lo previamente expuesto busca dar mayor claridad
de conceptos y organizaciones que están presentes en el
desarrollo de estándares en E-learning. Ahora bien, ¿por
qué considerar estándares en nuestro trabajo? La
respuesta a esto es porque aportan al proyecto
reusabilidad, portabilidad e interoperabilidad entre
diferentes desarrolladores, plataformas y usuarios.
Además los estándares permiten a los LMS compartir toda
320
Figura 5. Modelo de plataforma interoperable Catalina
7. DISCUSIÓN
Apoyados en tecnologías de la información y de las
telecomunicaciones las cuales han posibilitado la creación
de nuevos espacios de interrelaciones humanas y su
incursión en la educación ha generado un nuevo
paradigma que dinamiza al tradicional y da explicaciones
nuevas a las relaciones entre los actores del proceso
pedagógico, al aprendizaje y a las formas de enseñanza.
Figura 3. Entrada a la administración de portafolios La llamada sociedad de la información, se torna
insuficiente frente al desarrollo vertiginoso de las
6. ESTRUCTURA DE GRID Y telecomunicaciones y a las nuevas formas de interacción e
interactividad, que obligan a pensar en una sociedad culta
E_LEARNING y civilizada de la información y sobre todo en una
Se presenta como se encuentran interrelacionados los sociedad del conocimiento.
diferentes proyectos desarrollados por el grupo GICOGE El mayor beneficio educativo de estas nuevas formas de
en el tema de malla computacional y de educación virtual. interacción es la capacidad de comunicación en cualquier
tiempo o lugar, con capacidad de captura de eventos
diarios, fuentes de referencia rápida y soporte a través de
Internet, además de mayor disponibilidad y herramientas
más atractivas de emplear.
A diferencia de la mayoría de los LCMS, uno de los
grandes retos desde el inicio de la plataforma Sakai a
principios de 2004 fue la interoperabilidad entre
instalaciones independientes, que es objetivo per se del
proyecto. Para ello, desde un principio se han considerado
estándares de interoperabilidad, especialmente de IMS:
IMS Tool Interoperability, IMS Common Cartridge (IMS
CP Interoperability) e IMS Enterprise Interoperability.
Figura 4. Estructura Grid-E_learning U. Distrital El aporte principal es la adaptación e implementación de
la plataforma catalina (Sakai) y los estándares para la
En el modelo desarrollado se tuvo en cuenta los diferentes creación de objetos virtuales de aprendizaje bajo malla
estándares para educación virtual como son SCROM, computacional, que permiten apoyar la Educación
ADL, AICC, IEEE, servicios de la web 2.0 y los presencial y virtual en la Universidad Distrital en sus
estándares para el manejo de portlets con el fin de dar diferentes programas de Pregrado y Postgrados.
interoperabilidad y flexibilidad con otras plataformas. A
continuación se muestra el diagrama general del modelo 8. REFERENCIAS BIBLIOGRÁFICAS
desarrollado.
ACOSTA, Willman, Diseño de cursos virtuales,
Venezuela, 2002: monografías.com
ANDRES, Chiappe Laverde. Modelo de diseño
instruccional basado en objetos de aprendizaje
(MDIBOA): Aspectos relevantes, 2006
ÁLVAREZ. Loaiza, Roger Facilitación y Capacitación
Virtual en América Latina, Colombia, 2002
ARIADNE Foundation for the European Knowledge Pool,
se encuentra en: http://www.ariadneeu.org Fecha de
consulta 1 de Septiembre de 2009.
CANNATARO M. and D. TALIA D. Knowledge Grid:
An Ar-chitecture for Distributed Knowledge Discovery‖,
CACM, 46(1): 89-93, 2003.
CARRILLO, L. Baus, T. Fabregat, R. and Arteaga, C.:
Definición de un modelo para la caracterización de
321
plataformas de te-leeducación y su aplicación a las USD. KAREAL, F. and Klema, J.: Adaptivity in e-learning. In
Published at Proceedings of CLEI 2003. La Paz, Bolivia. A. Méndez-Vilas, A.Solano, J. Mesa and J. A. Mesa:
29 de Setiembre - 3 de Octubre, (2003) Current De-velopments in Technology-Assisted
DUBLIN Core Metadata Initiative, se encuentra en: Education, Vol. 1, pp. 260-264, (2006).
http://es.dublincore.org Fecha de consulta 22 de JMarzo LARA, Luis Rodolfo, Análisis de los recursos interactivos
de 2009 en las aulas virtuales, Argentina, 2002
EML, Educational Modelling Language,Open MIKIC, F. Anido, L.: Towards a Standard for Mobile E-
University of Netherlands, 2001 Learning
FARANCE, F. LTSA Specification - Learning MUNIESA. Sandra Asensio. www.eMagister.com.
Technology Sys-tem Architecture, 1999. Sistemas In-teligentes en el ámbito de la Educación, Maite
FLETCHER C.A.J. Computational Techniques for Fluid Urretavizcaya Loinaz Novática, febrero 2002
Dy-namics - Volume I, Fundamental and General PIATINI .Mario, Aplicaciones Informáticas de Gestión,
Techniques. Springer-Verlag, Second Edition. Germany, Alfa y Omega.
1991. RAMÍREZ, Kryscia, ―Ontologías‖. Universidad de Costa
Rica. 2006.
FOSTER Ian, KESSELMAN Carl. The grid: Blueprint for REBOLLO. Miguel, Carlos Carrasco, Vicente J. Agentes
a new computing infrastructure, Morgan Kaufmann para entornos de aprendizaje, Una arquitectura para
Publishers Inc., San Francisco, California. 1999. Aprendizaje Autónomo Colaborativo en Entornos no
GÁMEZ Rosalba, ¿La Educación Virtual es Real? Presenciales
Google.com México 2002 SANTOS, O.C.: Technology Enhanced Life Long
GANG Wang, TAO Wen, QUAN Guo, XUEBIN Ma. A eLearning for All. In K. Maillet and R. Klamma:
know-ledge Grid Architecture Based on Mobile Agent. Proceedings for the 1st Doc-toral Consortium on
IEEE Compu-ter Society Washington, DC, USA, 2006 Technology Enhanced Learning. European Conference on
HAYNOS. Matt. The Physiology of the Grid:A visual of Technology Enhanced Learning, p.66-71, (2006).
Open Grid Services Architecture. IBM, 2003. SOMMERVILLE, Iann .Ingeniería de Software, Mc Graw
IMS Content Packaging Information Model. Version 1.1.1 Hill.
Up-date Specification. /2001. CHAO Tung Yang, William C. Chu, High Performance
IMS LD_BEST, IMS Learning Design Best Compu-ting Lab, Software Engineering and technology
Practice Guide, Version 1.0 /2002 center, Depart-ment of Computer Science and Information
JIMÉNEZ, S. y Ramos, E. ―Agentes Inteligentes‖. Centro Engineering, Tung-hai University, 2004
de In-vestigación en Sistemas de Información, CISI,
Caracas, Abril, 2000.
JOYANES Aguilar. Luis. Cibersociedad. Mac Graw-Hill,
1997.
322
Diseño Asistido por Computador (CAD): Enseñanza en Ingeniería
Industrial
323
reconocido prestigio a nivel Nacional e Internacional Software para el área de procesos de manufactura:
como lo son: la Universidad Nacional (Sede Bogotá), Surfcam, Spectracam y Mastercam
Universidad Nacional (Sede Medellín), Universidad. 3.3. Hardware:
Nacional (Sede Manizales), Universidad de los Andes, El único software CAD (Autocad 2005) utilizado en el
Universidad del Norte, Universidad del Valle, programa curricular, se encuentra operando en los
Universidad de Antioquia, Universidad Industrial de laboratorios de informática, que posee 25 computadores
Santander, Universidad Nacional Autónoma de México - Procesador Core Duo 1800 Mega Hz, Memoria RAM
UNAM (México), Universidad Politécnica de Valencia 2GB y Disco Duro 160GB. De estos solo 20
(España), Universidad Nacional del rosario (Argentina), computadores poseen licencias compradas por la
Hong Kong University of Science & Tecnología (Japón), Universidad en el año 2005 y que son administradas por la
Tokyo Institute of Tecnología (Japón), entre otras; con el red de datos. A la fecha los computadores no han sido
fin de observar como se encuentran involucrados los repotenciados y mucho menos otro software CAD/CAM o
sistemas CAD – CAM en los pensum de las CAE.
universidades e identificar cual podría ser el norte a seguir
en cuanto a lo orientación curricular del mismo en la 3.4. Recursos humanos para el manejo de CAD.
Universidad Distrital. Existen 8 docentes que dictan las asignaturas relacionadas
Para el diagnóstico del CAD en el entorno de la Facultad con los sistemas CAD, en un campo denominado Diseño,
– Universidad, se tomaron en cuenta los siguientes Materiales y procesos, de los cuales 6 tienen
aspectos: conocimientos intermedios y 4 de ellos sólo tienen
Información disponible sobre la tecnología CAD. conocimientos básicos. Si no hay profesores con una
Software CAD buena formación informática, probablemente las nuevas
Hardware en laboratorios tecnologías no sean eficaces a la hora de enseñar
Recursos humanos para el manejo de CAD. habilidades de niveles superiores.
Enseñanza CAD en el proyecto curricular y comparación En cuanto a investigación, se encuentra un solo grupo
entre universidades. (DIMSI- Diseño, Modelamiento y Simulación) con el
9. ANÁLISIS DEL CAD EN EL objetivo de desarrollar aplicaciones CAD, en la fecha se
encuentra reducido a un pequeño grupo de alumnos, ya
ENTORNO DE LA FACULTAD que no cuenta con los recursos necesarios para la compra
3.1. Información disponible sobre la tecnología CAD: de software y gestión de recursos físicos de laboratorio.
Librerías: En la biblioteca de la Facultad no existen libros 3.5. Enseñanza CAD en el proyecto curricular y
actualizados de enseñanza de otros software CAD comparación entre universidades.
diferente a Autocad; el libro más reciente es del año En la Tabla 1 se muestran las asignaturas del plan de
(2002) Sede de Ingeniería, (2004) Sede Macarena y estudios 2007- I (vigente a la fecha) de la Universidad
(2004) Sede Tecnológica. En el país, los libros más Distrital, en la que se trata la temática, así como el
actualizados se encuentran en inglés y se compran semestre y su nivel de aplicación (teórico o con
mediante pedido; en español sólo se pudo encontrar libros aplicación de algún software).
con 2 años de antigüedad de edición. De acuerdo a lo encontrado, el software Autocad es el
Revistas: En el país no se elabora revista alguna único usado en el proyecto curricular para el trabajo en
relacionada con el tema. Los artículos de trabajos gráficos de dos dimensiones, como planos, esquemas, etc.
relacionados con el tema son publicados en revistas de En la figura 1 se presenta un gráfico desarrollado en ese
Facultades de ingeniería en general. software.
Internet: A través de esta herramienta es posible encontrar
Tabla 1. Software CAD/CAM/CAE usados en
información de tipo comercial, existiendo poca ingeniería Industrial
información académica. En algunos casos solo se
encuentran manuales de ayuda acerca del software, que
también traen consigo el software. Nivel de
Asignatu Softwar Tema Sem
3.2. Software CAD: aplicació
ra e usado Tratado .
Desde este punto de vista, los programas CAD en el país n
podrían clasificarse teniendo en cuenta las asignaturas Diseño Autoca Dibujo en 3 Teórico
relacionadas con el tema y contenidas en los pensum de Gráfico d 2 –
ingeniería industrial, de la siguiente manera: dimensione práctico
Software para el dibujo técnico: Autocad, Inventor, Solid s.
Edge y SolidWorsk. Diseño Dibujo en 4 Teórico
Software para las áreas de mecánica y resistencia de Industrial 3
materiales: Ansys, Solid Worsk cosmos, Inventor y SAP. dimensione
324
s., curricular no se encuentra apartado de la realidad nacional
representac o internacional, por lo menos en la temática tratada en las
ión de asignaturas, pero en lo concerniente al uso de software
prototipos CAD/CAM, estamos un poco alejados debido a que el uso
de la nuevas y novedosas tecnologías que ofrece la
Resistenc Cálculos 4 Teórico
comunidad científica es requerido, y debe acoplarse a
ia de de
todo el sistema de educación, y especialmente al
Materiale estructuras
ingenieril, ya que es este campo el que más apoya el
s Cálculos
avance científico y tecnológico del país.
de cargas
El hecho de generar competencias científicas a través de
y/o
estas ayudas permite a los estudiantes lograr destrezas y
deformacio
habilidades para emplear sus conocimientos teóricos
nes
adquiridos en pro de la mejora de las condiciones de vida;
Procesos Procesos 5 Teórico
es generar y apuntar hacia un mundo de conocimientos y
Industrial de
ventajas competitivas, es facilitar la compresión de su
es II mecanizad
entorno tal como lo dice Posada [2] ―El desarrollo de
o
competencias científicas es importante, por una parte, para
Taller de Procesos 6 Teórico facilitar a los ciudadanos la comprensión de su entorno y
producci de por otra, para contribuir a aumentar la competitividad del
ón producción sector productivo nacional‖
avanzados Es a través de la enseñanza del aula de clase, donde se
Logística Distribució 8 Teórico incursionan temas y nuevas tecnologías, en la que es
n en planta posible generar un avistamiento de mejoras de
Sistemas condiciones de vida; es aquí donde se debe fomentar la
georeferen generación de conocimientos con técnicas importantes
ciados. como las mencionadas, ya que con la metodología
tradicional no se genera o se induce al estudiante a la
creación de conocimiento nuevo, se le enseñan técnicas
obsoletas que al finalizar el periodo de estudio estarán
relegadas no permitiendo apropiarse de tecnologías de
punta para generar competencias científicas; en cierta
medida se forjan profesionales que no son acordes con el
avance tecnológico industrial.
El uso de la tecnología educativa y para ello quiero citar
la definición que hace la UNESCO con relación
a esta ―... ha sido concebida como el uso para fines
educativos de los medios nacidos de la revolución de las
comunicaciones, como los medios audiovisuales,
ordenadores y otros tipos de hardware y software‖, ofrece
beneficios para los futuros ingenieros ya que puede
despertarles en otros aspectos, el interés y la motivación
en adquirir nuevos conocimientos y la adaptación a las
necesidades de los estudiantes; de esta forma estaría
concebida la tecnología como una herramienta que ayuda
Figura 1. Aplicación del Software Autocad (Modelado o mediadora que juega un papel importante en la
en 2D) Fuente: 3DPoder educación pero que no es directamente responsable del
éxito educativo, solo permite ser apoyo para que los
En la Tabla 2, se puede apreciar que el proyecto objetivos pedagógicos se hagan realidad.
cuanto a materias relacionadas con CAD/CAM en
Tabla 2. Paralelo del pensum de ing. Industrial en diferentes Universidades.
325
aunque según Maldonado ‖ la adquisición de la
tecnología es una decisión administrativa; utilizarla
UNIV
U. . siempre ha sido decisión del profesorado; una decisión
U.
NACION
NAL.
NACI basada en el grado de dificultad de dominar dicha
AL UNIV. UNIV. ONA
DE
DE
DE
UNIV.
POLITÉCNICA L
tecnología, su fiabilidad y la flexibilidad de sus usos‖.
SEM COLO DEL
COLOM
MBIA
ANTIO
VALLE
DE DEL Software o tecnologías que las universidades deberían
BIA QUIA VALENCIA ROSA adoptar incluyéndolos en el currículo y que repercutirían
(MANI
(MEDEL RIO
LIN)
ZALES)
(ARG. en una mejor formación del futuro ingeniero son Solid
) Edge (figura 2) y Solid Works (CAD) que facilitan el
I Dibujo Dibujo Dibu Dibujo Expresión
asistido jo para gráfica
modelamiento en 3D y la representación de vistas
por ingeniería múltiples y Software CAM que tampoco existen y
computad permiten importar un archivo CAD de dibujo y generar un
or
II Cien Sistem código NC (control numérico) lo cual se puede utilizar
cia as de para mecanizar automáticamente las piezas (figura 3).
de repres
los entaci
Tabla 3. Software CAD/CAM/CAE usados en
mate ón ingeniería Industrial
riales
III Mecánica Proc Elasticidad y
Aplicada esos resistencia de Asignatura Tema Tratado Software
de los materiales
ingen Recomendado
iería Fundamentos de Diseño Dibujo en 2 Autocad V2010
ciencia de
materiales Gráfico dim. Inventor V2010
IV Taller Mecánica y Estabi Diseño Dibujo en 3 Inventor V2010
de ing. resistencia lidad
de los y Industrial dim., 3D studio Max
material resiste representación V2010
es ncia
de de prototipos
materi Resistencia Cálculos de Solid Works V2010
ales
V Taller Introducció Ampliación de Auto
de estructuras Solid Edge ST
de n a los tecnología de matiza Materiales Cálculos de Solid Work -
proceso materiales maquinas ción cargas y/o CosmosV2010
s
Tecnología. de deformaciones SAP 2000
materiales Procesos Procesos de Surfcam V5
VI Ciencia Taller Mecánica Materi
de los de ing. de Fluidos ales y
Industriales mecanizado Mastercam X4
materiale de la Proces II
s producci os
ón
Taller de Procesos de Surfcam V5
VII Procesos Fundament Proces producción producción Mastercam X4
de os. de os de avanzados Solid Edge /
manufact procesos produ
ura cción Solidwoks
VIII Diseño Taller Distr Distribució Construcción y Logística Distribución Autocad V2006
de de ibuci n en planta arquitectura
Plantas Diseño ón en Industrial
en planta Autodesk VIZ 2006
de plant Sistemas Map info V8
Plantas a georeferenciad
Automati Resis Tecnología de
zación y tenci fabricación y os
ELECTIVAS
Robótica a de tecnología de
mate maquinas
riales
326
Figura 3. Aplicación del Software SpectraCAM
(Conversión dibujo CAD a Lenguaje CNC)
Las nuevas tecnologías no solo inducen ciertas
habilidades y capacidades en el estudiante, sino que
permiten superar algunas de las limitaciones presente en la
enseñanza tradicional, como los limites de espacio y
tiempo, ya que es posible dar al estudiante cursos de
formación en CD-Rom, Internet o Intranet, cursos de
formación en línea para directivos empresariales y cursos
de extensión los cuales en cierta medida permitirían
disminuir los costos de personal docente, costos del aula
equipada, costos de mantenimiento de equipos y software.
Claro está que una herramienta informática no podrá
suplir totalmente la relación docente alumno; tal como lo
manifiestan Gómez-Elvira y otros
sino una forma de plasmar los conocimientos que
Figura 2. Aplicación del Software Solid Edge adquirimos mediante la enseñanza tradicional, y que de
(Modelado en 3D) ningún modo podría sustituir a la Expresión Gráfica,
La incorporación del uso de las herramientas porque el estudiante debe manejarse en los distintos
mencionadas puede facilitar la toma de decisiones para sistemas de representación más usuales en ingeniería,
poder optimizar prototipos o fenómenos (físico, químico, garantizando un mínimo de visión espacial y de destreza
biológico, mecánico, eléctrico, etc.), ya que permiten la operativa realizando sus ejercicios mediante las
manipulación de diversas variables evitando su herramientas clásicas.
construcción física permitiendo a cualquier área diferente
a la ingeniería, como lo son las ciencias biológicas y de la 10. CONCLUSIONES
salud, ser más competitiva. Mediante el uso de las Gestionar recursos de la universidad con el fin de
herramientas computacionales el estudiante adquiere una formar un laboratorio CAD/CAM para todas las
mejor comprensión de la física y matemática de los ingenierías, ya que el uso de las tecnologías
fenómenos físicos, que ayudan a generar soluciones computacionales es uno de los campos que ha hecho
prácticas adaptables al mundo real y a fomentar la surgir a muchos países del tercer mundo (brasil), es por
investigación y el avance tecnológico del país, como lo eso que se hace necesario incorporar estas, en los
afirma Duarte ―se considera que las universidades programas curriculares de las universidades, laboratorios
colombianas, laboratorios y centros de investigación y centro de investigación colombianos con el fin de
deben tomar la decisión de incorporar en sus currículos facilitar el progreso científico de nuestro país.
áreas temáticas relacionadas con métodos y herramientas Vincular estudiantes de las universidades al sector
para la simulación asistida por computador; ello permitirá productivo mediante asesorías y/o pasantías en el campo
elevar la calidad en investigación y desarrollo de sus CAD/CAM con el fin de intercambiar tecnologías,
egresados y de las mismas instituciones‖. soluciones y conocimientos.
Establecer estrategias de comunicación y actualización de
los docentes en el campo CAD/CAM que permitan
redactar manuales, notas de clase, etc. por medio de los
cuales el estudiante enriquezca sus conocimientos con
estas nuevas tecnologías educativas.
El proyecto curricular, no se encuentra a la vanguardia en
la enseñanza de estas tecnologías actualmente, debido
fundamentalmente a la falta de dirección de las
autoridades académicas y a la poca dedicación de los
profesores que se encontraban en esta área, lo cual exige
que la coordinación y jefaturas de área del programa en
cabeza de los docentes, deban repensar desde una
dimensión prospectiva (que permita transformar y
transformarse) una alineación con el horizonte
tecnológico, económico y productivo mundial para la
formación de un profesional que asuma el reto de la
competitividad actual.
327
El plan de estudios vigente no está actualizado, [6] Gómez-Elvira, M.A., Pascual, J.L. Puerta, F. y San
mostrando carencias en el área relacionada a las Antonio, J.C. ―Dibujo tradicional y dibujo asistido por
tecnologías CAD/CAM, se requiere la compra de diversos ordenador, ¿incompatibles o complementarios?‖, Actas
software que permitan establecer a futuro un Centro de del VIII Congreso Internacional de Ingeniería Gráfica,
Manufactura Avanzada por computador que permita las pags. 109-121, (1996).
posibilidades de futuras investigación en campos [7] Pérez Daniel Gil, Guzmán Miguel. Enseñanza de las
multidisciplinares como el de bioingeniería o Ciencias y la Matemática Tendencias e Innovaciones.
biomecánica. Organización de Estados Iberoamericanos Para la
Educación, la Ciencia y la Cultura. Editorial Popular.
11. REFERENCIAS BIBLIOGRÁFICAS ISBN: 84-7884-092-3
[1]Rojas, Ana y J. García. Reforma Universitaria y [8] 3DPoder. Marzo7 de 2010.Disponible en :
Sociedad. Revista Cubana de Educación Superior. Vol XI, http://www.3dpoder.com/ Bogotá. 2010
No. 3, 1993. p.124. [9] Estrada Cingualbres, Reynaldo Juan; Reyes Rondón,
[2] Posada, Eduardo. Observación, comprensión y Idalberto; Pantoja Millán, Félix. Estudio tendencial del
aprendizajes desde la ciencia. Septiembre 25 2007, perfeccionamiento de la enseñanza del dibujo técnico en
Disponible en : las carreras de ingeniería de cuba. Marzo 7 de 2010,
http://menweb.mineducacion.gov.co/altablero/articulo.asp Disponible en:
?sec=3&id=272&num=30 http://www.ingegraf.es/pdf/titulos/comunicaciones%20ace
[3] UNESCO (1984). Glossary of Educational ptadas/d26.pdf
Technology [10] Dixon John B. (1979) Diseño en Ingeniería. 1ª. Ed.
Terms. París: UNESCO. Limusa, México.
[4] Maldonado, h. (2001). «Should Computers go to [11]. Lazo, Oswaldo, Salas Julio. Enseñanza del diseño
School? A Cost-Effectiveness Perspective». School of asistido por computador en la Facultad de Ingeniería
Education, Universidad de Stanford (mimeo). Industrial, UNMSM. Marzo 7 de 2010, Disponible en:
[5] Duarte Julio, Fernández Flavio. La Simulación http://revistas.concytec.gob.pe/scielo.php?script=sci_artte
por computador en Investigación y desarrollo. Revista xt&pid=S1810-99932006000100003&lng=es&nrm=iso
Tecnura. 2005 V8 N° 16
328
Factores a tener en cuenta antes de migrar a cloud computing.
329
ABSTRACT universidades, entidades gubernamentales locales, y las
The cloud computing its being a reality, but it starts to create a empresas.” [2].
great expectation about big changes. It promises increase ―Los datos y las aplicaciones se reparten en nubes de
velocity with which applications are deployed, increase máquinas, cientos de miles de servidores de ordenadores
innovation, and lower costs for mention only some. But when
pertenecientes a los gigantes de Internet, Google,
we talk about cloud computing we cant just talk about these
aspects, the new architecture and support technologies like
Microsoft, IBM, Sun Microsystems, Oracle, Amazon,.. Y
machines, storage, network and virtual machines, that permit a poco a poco a cientos de grandes empresas,
very fast applications scalability. The different ways to deploy a universidades, administraciones, que desean tener sus
cloud and its cost are themes that we discus in this document as propios centros de datos a disposición de sus empleados,
a way to show other thing that we must have in mind when investigadores, doctorandos, etc.‖ [10]. La computación
decide to use this technology to manage out applications. Can en nube no es más que muchas máquina ubicadas en sitios
be possible create business who sell this solutions or create one remotos las cuales son accedidas por medio de internet,
that use these to create solutions? con el fin de ofrecer mayores capacidades de
Cloud computing is defined as the creation of Web services that almacenamiento, procesamiento y con el respaldo de un
seek to change the way we work and collaborate online. The monitoreo y mantenimiento constante buscando así
purpose is not to be tied to the use of programs installed on a niveles de disponibilidad y servicios que una compañía
computer, seeking to create a new way of working with por sí sola no sería capaz de alcanzar.
programs and data, collaborate with friends, family, colleagues La computación en nube se basa en las tendencias
and above all, optimize resources and be more productive. With
establecidas para el manejo de los costos de los servicios
the increased use of internet, everything is now web-based
rather than developing desktop applications, the goal is for you
al tiempo que aumenta la velocidad y la agilidad con que
to access all programs and documents from any location where se despliegan los mismos. Se reduce el tiempo para
Internet access is held. If you want to share photos with family, diseñar una arquitectura de la aplicación. La computación
coordinate volunteers for a community organization, or en nube incorpora la virtualización, el despliegue de los
managing a project that involves multiple areas in a large servicios ajustándolos permanentemente a la demanda, la
organization, cloud computing can help make it easier than prestación de servicios de Internet, y software de código
ever. The benefits of cloud computing include saving money on abierto. La finalidad de la computación en nube no es del
software costs for access to documents anywhere, facilities to todo nueva, ya que utiliza métodos, conceptos y mejores
manage work and personal schedules, share documents with
prácticas que ya han sido establecidas con el uso de
colleagues and friends, edit digital photos.
servicios web.
Keywords
Cloud Computing, undertake, business paradigm. 2. MODELO DE SERVICIO
La computación en nube maneja las tendencias
1. INTRODUCCIÓN establecidas. Desde una perspectiva empresarial, el
La computación en nube nace a partir de las manejo de los servicios bajo demanda ayuda a mantener
expectativas creadas por la WEB 2.0 entre los usuarios el rendimiento y los niveles de servicio. La naturaleza del
personales y corporativos. ―La idea clave tal vez sea que auto-servicio manejado en la computación en nube
las TI se convierten en un servicio, de modo que ―las permite a las organizaciones crear entornos dinámicos
aplicaciones del software no tienen porque existir en un que se acomodan a la carga de trabajo y las necesidades
lugar concreto sino que pueden estar compuestos de de rendimiento. Y el pago por uso de las aplicaciones en
múltiples piezas procedentes de múltiples sitios‖ como la nube informática puede tomar la forma de
señala Steve Mill vicepresidente senior y responsable de arrendamiento de equipos que garanticen un nivel mínimo
la unidad de software de IBM en la consultora IDC.‖ de los servicios de un proveedor de aplicaciones.
[10]. La nube se construye basándose en que las
La computación en nube surge de la necesidad de solicitudes son temporales, y la facturación se basa en el
trabajar con servicios concentrados, con mayor facilidad uso de los recursos tales como el consumo de horas de
de administración, mejor rendimiento y aprovechamiento CPU, el volumen de datos que fueron ―movidos‖, o
de capacidades, Marshall Breeding dice en su trabajo gigabytes de datos almacenados.
“Imagine que en lugar de un modelo de computación Otra consecuencia del modelo de autoservicio y del
donde todo el trabajo pesado de la informática ya no pago por uso es que las aplicaciones son compuestas por
tiene lugar en estos sistemas en sitio tangibles, pero se el montaje y configuración de dispositivos y software de
lleva a cabo en algunos centros de datos dentro de la código abierto. Aplicaciones y arquitecturas que pueden
nube. Si bien continuamos con la necesidad de ser readaptadas con el fin de aprovechar al máximo el uso
dispositivos físicos e interactuar con la computadora de componentes estándar son los destinados a tener un
basada en los servicios, la infraestructura que mayor éxito al aprovechar las ventajas de la computación
proporciona estos servicios evoluciona hacia la más en nube. Del mismo modo, los componentes de la
concentrada, las grandes instalaciones. Concentración aplicación deben ser diseñados para ser compatibles, de
de los recursos informáticos en los centros de datos se ha forma que puedan ser empleados fácilmente. Esto
centralizado en gran medida se complete en la mayoría requiere tener funciones simples, claras y bien
de los las grandes organizaciones como las
331
documentadas. La construcción de grandes aplicaciones base de datos.
monolíticas es una cosa del pasado, La biblioteca de las Configurar cada componente para crear una imagen
herramientas existentes que se pueden utilizar personalizada. El balanceador de carga, el contenido
directamente o adaptadas para un uso específico se hace estático del servidor Web que será publicado para ser
cada vez más grande. Cuando The New York Times subido a la nube y las bases de datos que poseen el
quería convertir 11 millones de artículos y las imágenes contenido dinámico para el sitio.
en su archivo al formato PDF, su organización interna de Desarrollar la capa de código personalizado para
TI, dijo que se tardaría siete semanas. Mientras tanto, un hacer que los componentes cumplan con los requisitos
desarrollador de Amazon con 100 casos EC2 y una específicos de la aplicación.
simple interfaz Web que ejecuta un servicio Hadoop, Elegir un modelo para el manejo de cada capa y
termina el trabajo en 24 horas por menos de $ 300. despliegue, manejo de redes, seguridad, y problemas de
Incluso las grandes empresas pueden usar la computación escalabilidad.
nube como una forma para resolver problemas Realizar la integración de las capas de presentación y
importantes en menos tiempo y a un costo menor que con de base de datos y realizar el despliegue de la aplicación
la informática empresarial tradicional. para salir ―al aire‖.
Es obligatorio decir que la computación en la nube
extiende la tendencia actual de la disponibilidad de
servicios en la red (Web services). Prácticamente todas
las organizaciones empresariales han reconocido el valor
de las aplicaciones basadas en Web y sus aplicaciones, ya
sea que estén a disposición de los clientes a través de
Internet, o si son aplicaciones internas que están
disponibles a los empleados autorizados, socios,
Figura 1. Aplicación Web Dos Capas
proveedores y consultores. Lo atractivo de Internet
basado en la prestación de servicios, consiste en que las
La computación en nube puede emplear servicios que se
aplicaciones pueden estar disponibles en cualquier lugar y
presten en cualquiera de las capas tradicionales de
en cualquier momento.
hardware En la práctica, los prestadores de servicios en la
En los últimos años, las máquinas virtuales se han
nube tienden a ofrecer servicios que pueden ser
convertido en un elemento básico de casi cualquier
agrupados en tres categorías: el software como un
implementación. La virtualización mejora la flexibilidad,
servicio, la plataforma como un servicio, e infraestructura
porque se elimina el hardware hasta el punto donde el
como un servicio.
software se puede desplegar varias veces sin ser necesario
que este se encuentre atado a un servidor físico
específico. La virtualización permite a un centro de datos 2.1.1 El software como servicio (SaaS)
dinámico en el que los servidores proporcionan un El software como un servicio dispone de una completa
conjunto de recursos que se aprovechan como sea aplicación que se ofrece como un servicio bajo demanda.
necesario, y donde las relaciones entre las solicitudes de Una sola instancia del software se ejecuta en la nube y
cómputo, almacenamiento y recursos de red, cambian de múltiples usuarios finales lo llaman o ejecutan.
forma dinámica a fin de satisfacer tanto la carga de
trabajo como las demandas del negocio. Con la Una de las aplicaciones más conocidas de SaaS es
aplicación de esta tecnología, las aplicaciones pueden ser ―salesforce.com‖, aunque muchos otros ejemplos han
desplegadas y escaladas rápidamente, sin tener que llegado al mercado, incluida la oferta de ―Google Apps‖
adquirir primero los servidores físicos. [20] la cual ofrece servicios empresariales básicos que
Las máquinas virtuales se han convertido en la incluyen correo electrónico y procesamiento de textos.
plataforma más frecuente. El uso de máquinas virtuales Estas aplicaciones suelen negociarse cobrando un cargo
como plataformas de despliegue ayuda a satisfacer la fijo por usuario en un periodo determinado de tiempo, no
necesidad de desplegar rápidamente las aplicaciones a sin antes dar un periodo gratis de prueba, el cual
gran escala. [20] generalmente es menor a un mes.
2.1 Modelo de infraestructura
Existen muchas consideraciones que los arquitectos 2.1.2 La plataforma como servicio (PaaS)
deben tener en cuenta al momento de moverse del modelo Un usuario de PaaS vería un servicio encapsulado que se
de desarrollo de aplicaciones empresariales estándar a un les presenta a través de una API. El cliente interactúa con
modelo de desarrollo de aplicaciones en la nube. la plataforma a través de la API, y la plataforma ofrece
Considere un despliegue de una aplicación web de todo lo necesario para administrar y ampliar los recursos
dos niveles o capas para la nube como lo muestra la y de esta forma garantizar la prestación del servicio.
figura 1:
Las ofertas de PaaS pueden prever todas las fases de
Elegir un balanceador de carga (Si el despliegue
desarrollo de software y pruebas, o pueden ser
implica más de un servidor), servidor web y servidor de
especializados en torno a un área concreta, como la
332
gestión de contenidos. Ejemplos comerciales de PaaS componentes situados en la misma ubicación, ayuda a
incluyen el motor de ―Google Apps‖, que sirve disminuir el costo, porque el ancho de banda es amplio y
aplicaciones en la infraestructura de Google. Servicios generalmente gratis al conectar los recursos dentro de una
PaaS como éstas pueden proporcionar una base solida misma instalación.
sobre la cual desplegar aplicaciones, sin embargo, puede
verse limitada por las capacidades que el proveedor de 2.2.2 Nubes privadas
nubes elige para entregar. Las nubes privadas se construyen para el uso exclusivo de
un cliente, proporcionando el máximo control de los
2.1.3 Infraestructura como un servicio (IAAS) datos, la seguridad y calidad de servicio. La empresa
La infraestructura como un servicio ofrece servicios de posee la
red, servidores, sistemas de almacenamiento, switches, infraestructura y tiene el control sobre cómo se despliegan
routers, y otros sistemas que se agrupan y permiten el las aplicaciones en ella.
manejo cargas de trabajo que van desde componentes de
aplicaciones informáticas a aplicaciones de computo de Las nubes privadas pueden ser construidas y gestionadas
alto rendimiento. por el propio equipo de tecnología de la organización o
por un proveedor de nubes. En este modelo una empresa
externa puede instalar, configurar y operar la
2.2 Tipos de nubes infraestructura para apoyar una nube privada dentro de un
Hay muchas consideraciones que los arquitectos que centro de datos de la empresa. Este modelo ofrece a las
diseñan aplicaciones de computación en nube deben tener empresas un alto nivel de control del uso de los recursos,
en cuenta cuando se mueven de un estándar de mientras obtiene los conocimientos necesarios para
computación para la empresa a una basada en la nube. administrar y operar el sistema.
Existen nubes públicas y privadas que ofrecen beneficios
complementarios, Hay tres modelos de servicios básicos a 2.2.3 Nubes mixtas
considerar, y es en este ambiente donde se debe entrar a Combinan los modelos de nube tanto públicos como
comparar el valor una API abiertas frente a las API privados. La decisión de manejar una mezcla de una nube
propietarias. privada con los recursos de una nube pública puede ser
basada en la exigencia de mantener los niveles servicio en
2.2.1 Nubes públicas ambientes donde las fluctuaciones en la carga se
Son gestionadas por terceros, y es probable que las presentan en periodos de tiempo muy corto. Esta
aplicaciones de los clientes son diferentes se mezclan en arquitectura es usada frecuentemente para soportar las
los servidores de la nube, los sistemas de almacenamiento aplicaciones Web 2.0. Una nube híbrida también se puede
y las redes. Las nubes públicas son a menudo alojadas utilizar para manejar picos de carga de trabajo.
fuera de los locales de los clientes y proporcionan una
manera de reducir el riesgo de los clientes y el costo al Las nubes mixtas introducen la complejidad de
ofrecer una solución flexible, e incluso temporal para la determinar cómo distribuir las aplicaciones a través de
extensión de la infraestructura de la empresa. nubes tanto públicas como privadas. Entre las cuestiones
que se deben tener en cuenta es la relación entre los datos
Si la nube pública se implementa con rendimiento, los recursos de procesamiento. Si los datos son pequeños,
seguridad, y localización de la data en mente, la o la aplicación no maneja estados, una nube mixta puede
existencia de otras aplicaciones que se ejecutan en la nube ser mucho más exitosa que si grandes cantidades de datos
debe ser transparente tanto a los arquitectos de nubes y deben ser transferidas hacia una nube pública para un
los usuarios finales. De hecho, uno de los beneficios de pequeño procesamiento.
las nubes públicas que puede ser mucho mayor que la
nube de una empresa privada puede ser, que ofrece la
capacidad de escalar bajo demanda, y el desplaza los 3. CLOUD Y LA EMPRESA
riesgos de la infraestructura de la empresa al proveedor La aparición de la computación en nube ha creado un
de la nubes, aunque sea sólo temporalmente. nuevo paradigma tecnológico para las empresas, lo cual
ha llevado a cuestionar si el paradigma tradicional de
Parte de una nube pública puede ser reservada para el uso computación ofrece el mejor servicio, entonces ¿será la
exclusivo de un solo cliente, creando espacios privados computación en nube el nuevo modelo tecnológico en las
de almacenamiento y despliegue. En lugar de limitarse a empresas? Jeremy Quittner cita en su artículo How Cloud
desplegar imágenes virtuales de una sola máquina en una Computing Can Help Small Businesses:
nube pública, un centro de datos privado brinda a los ―Hasta ahora tan solo un 2% de las empresas con menos
clientes una mayor visibilidad en su infraestructura. de 100 empleados están utilizando la computación en
Ahora, los clientes no pueden solamente manipular nube, según informe de mayo de 2009 por Forrester
imágenes de máquinas virtuales, sino también servidores, Research. … Un 2% adicional dijo que tenía previsto
sistemas de almacenamiento, dispositivos y topologías de adoptar la computación en nube en los próximos 12
red. Un centro de datos virtual privado con todos los meses, pero el 37% dicen que están interesados en
aprender más sobre ella.‖. [14]
333
los servicios basados en Cloud Computing están de
Para comprender este nuevo paradigma hay que estudiar acuerdo con las necesidades de la compañía.
el impacto sobre las organizaciones que existen hoy en
día, puntualmente dos escenarios: Disponibilidad de los datos: A la hora de cambiar de
proveedor de Cloud Computing por algún motivo, la
3.1 Dominios de aplicación de Cloud flexibilidad para reutilizar los datos y su estructura puede
variar de acuerdo a la capa de servicios que se esté
Computing usando; si se trata de servicios de infraestructura
Analizadas dos de las dimensiones de perspectivas del
únicamente representará simplemente el hecho de
Cloud Computing, la restante hace referencia a los
cambiar de almacenamiento físico de los datos pero
dominios de aplicación que se pueden abordar con Cloud
cuando hay capas de aplicación en medio, esa flexibilidad
Computing; ello hace variar el enfoque tecnológico para
puede disminuir y es probable que sea necesario hacer
su afinamiento y personalización; ejemplo de ello es que
cambios para tener lista la información para su uso con el
pueden existir requerimientos de computación intensiva
nuevo proveedor; en muchos casos puede ser tan crítico
que no reciben tráfico de clientes externos como también
que obligaría a depender de un proveedor. Para que esto
de procesamiento intensivo de transacciones de usuarios
no pase se debe contar con planes que permitan extraer la
conectados.
información frecuentemente (no confundir con backup)
Entre las razones que pueden existir para optar por un
para tener una visión actualizada de los datos y poder
servicio basado en Cloud Computing, es el alto costo de
anticiparse a la hora de cambiar de proveedor en caso de
propiedad que se deriva de la administración y
ser necesario.
mantenimiento de infraestructura de cómputo dentro de
las compañías, y los costos que se derivan del tiempo
Confiabilidad: Mucho se ha discutido sobre acuerdos de
necesario para poder desplegar y tener lista una solución
servicios de 99.99% de disponibilidad (the four nines)
de IT; con los servicios basados en Cloud Computing,
para Cloud Computing; en los primeros meses del boom
éste tiempo tiende a minimizarse ya que la base de
de Cloud Computing se generó una expectativa muy
infraestructura está lista casi como un ―plug and play‖ de
grande sobre la disponibilidad ―ilimitada‖ de servicios
servicios; la analogía que muchos expertos utilizan como
pero ya se han conocido casos de caídas de servicio en
argumento es el de servicios básicos como el acueducto
proveedores grandes como Google Apps y Amazon en
en donde una empresa no necesita tener su propio
donde los costos de éstas caídas lastimosamente los
acueducto para poder disfrutar del servicio de agua;
asume el cliente, porque prácticamente está entregando su
simplemente se le paga una suscripción a un tercero para
negocio a un desconocido. Así que no sólo hay que
disponer del servicio. Otra de las fuertes razones es la
evaluar que el proveedor cuente tecnológicamente con
agilidad que puede inyectar el uso de la tecnología en el
Data Centers alternos, también debe evaluar
negocio para minimizar los tiempos de ―puesta al aire‖ de
minuciosamente los contratos para blindar
servicios de negocio y de servicios orientados al usuario
adecuadamente el negocio; para ello las empresas a la
final, disminuyendo dramáticamente los tiempos de
hora de contratar servicios basados en Cloud Computing
despliegue e implantación; lo que antes tardaba meses
deben formularse los siguientes interrogantes [7]; 1. ¿Qué
hoy puede tardar solo unos días; obviamente ésta
es lo que considera el proveedor como ―buen‖ servicio?
reducción de tiempo no es un artilugio de magia y es
Y qué es lo que éste incluye y lo que explícitamente no
mucho lo que tienen que madurar los procedimientos y la
incluye, desde las políticas de reembolso hasta el límite
confiabilidad en la prestación de éstos servicios. De
de la asistencia técnica. 2. ¿Qué tan conforme estoy con
acuerdo con lo anterior uno de los retos que plantea
la planta física y logística del proveedor? para evaluar la
Cloud Computing para los proveedores de éstos servicios
cantidad de personas que dicho proveedor tiene
es el de lograr la confianza de los clientes en cuanto a la
involucrados y la madurez de los procesos de
confidencialidad de la información; ya que no es fácil
mantenimiento que se llevan a cabo en las instalaciones.
para las empresas entregarle a un tercero su propiedad
Para responder esta pregunta una visita de evaluación
intelectual y su capital de información; en éste aspecto
debe realizarse y revisar las certificaciones que tenga el
opina el experto Al Hilwa que es mucho lo que hay por
proveedor tal como ISO, ITIL, CMMI, etc. 3. ¿Qué tipos
hacer en el aspecto de contratación ya que los acuerdos
de interrupción de servicio por parte del proveedor estoy
de nivel de servicio y confidencialidad no alcanzan a
preparado a afrontar? Se debe revisar con el proveedor
cubrir todos los aspectos relacionados con éste tema; así
las actividades de mantenimiento que tiene planeadas y
que hay bastante trabajo por hacer en la legislación que
los planes de contingencia que tiene para asegurar la
reglamenta éste tipo de servicios [8].
disponibilidad en esos eventos ya que en esas actividades
de mantenimiento no tendrá disponible el 100% de su
3.1.1 Riesgos infraestructura para atender la demanda de servicio. 4.
Profundizando un poco más en los riesgos que puede ¿Qué tan rápido está creciendo el proveedor? Se necesita
representar esta arquitectura de servicios se ilustrarán conocer la capacidad de crecimiento que tiene el
algunos factores que se deben tener en cuenta a la hora de proveedor para asumir la cantidad de clientes nuevos sin
tomar cualquier decisión teniendo en cuenta ante todo, si afectar la calidad de servicio contratada. 5. ¿Qué base
334
procedimental y de logística tiene el proveedor para nube provee los recursos de acuerdo a lo requerido por
afrontar una caída de servicio? Se debe hacer una los servicios contratados.
minuciosa revisión de procedimientos y planes de
continuidad de negocio que tiene implementados el 4.1.2 Energía, refrigeración y planta física
proveedor. El costo de sostenimiento de las plantas físicas puede
llegar a ser valores altos e inmanejables, tanto que se
4. CLOUD COMPUTING Y incurre en el riesgo de no prestar el mejor servicio porque
EMPRENDIMIENTO la capacidad de la planta física se encuentra al máximo, al
El caso de emprendimiento de una nueva idea de negocio, seleccionar el modelo de la nube estos costos, al igual que
una nueva empresa a partir de un plan que tiende a el riesgo serán transferidos al proveedor (o proveedores)
desarrollarse, pero como toda empresa requiere de los de la nube, proporcionando confianza y capacidades que
servicios de la tecnología. tal vez no podrían ser adquiridas dentro de la empresa.
Cada nueva empresa llega un punto donde debe decidir
que tecnologías requiere para su desarrollo, cual es la 4.1.3 Operación
mejor opción, que debe usar y como va a ser implantado, Hoy en día los costos de operación del hardware no son
en este punto de decisión se encuentra la solución que altos debido a las facilidades tecnológicas que existen
provee el paradigma de la computación en nube. Pero implícitamente con la maquinaria adquirida, pero aún así
¿Cómo saber si es la tecnología adecuada? Realizar el existen infinitas situaciones que pueden representar un
estudio pertinente es lo recomendable para tomar esta riesgo si no se cuenta con el personal adecuado para la
decisión, para esto se proponen los siguientes aspectos: solución a los inconvenientes que se presenten.
335
posible mitigar esto con un simple contrato donde se Claro está que este atributo es bastante complicado de
estipule claramente esto ¿Quién es el responsable de la mantener, de acuerdo al estudio realizado por la
seguridad, protección y back up? ¿Existe un contrato de Universidad Berkeley de California han encontrado una
garantía? serie de reportes de indisponibilidad de servicio de
¿Qué pasa si su proveedor de servicios entra en su algunas de las grandes compañías proveedoras de la
negocio? Las grandes compañías proveedores de computación en nube.
servicios siempre están en busca de nuevas
oportunidades, hay que ser cuidadoso al momento de Tabla 2 Outages in AWS, AppEngine, and Gmail [1]
permitir acceso a la información, no sea el caso que se Service and Outage Duration Date
esté proporcionando acceso a un competidor potencial a S3 outage: authentication service
los datos del negocio. 2 hours 2/15/08
overload leading to unavailability
¿Qué pasa si hace negocios extranjeros? En realidad no
S3 outage: Single bit error leading to
hay inconveniente, la frontera puede haber sido cruzada 6-8 hours 7/20/08
gossip protocol blowup
desde un inicio, él centro tecnológico está en la nube,
AppEngine partial outage:
pero si realmente la nube se encuentra fuera del país. El 5 hours 6/17/08
programming error
ejemplo que suministra el autor del artículo Las notas y el
Gmail: site unavailable due to outage
correo electrónico están sujetas a la Ley Patriota EE.UU. 1.5 hours
in contacts system 8/11/08
Buscar el momento de cruzar la frontera si la "nube" en
realidad está ubicado en los EE.UU. Puede que el
Esto demuestra que por más robusto que sea el sistema no
gobierno de EE.UU. ya haya buscado en la clandestinidad
existe la plena certeza de que un sistema este exento de
nacional de comunicaciones electrónicas información
inconvenientes de disponibilidad de ambientes.
sobre sus correos.
Adicional a esto toda organización es vulnerable a
¿Qué espera la nube de usted? Los servicios en la nube
ataques por parte de personas o entidades inescrupulosas
están sujetos a condiciones que deben ser cumplidas, por
que tienen como objetivo hacer que los servicios de las
ejemplo, los documentos de la compañía contienen
compañías victimas presenten interrupciones en sus
detalles discriminatorios en algún sentido (raza, sexo,
actividades buscando perjudicar la calidad del servicio de
religión, orientación sexual, etc.), por lo tanto no es
la empresa y afectando su prestigio en el mercado.
permitido subir este contenido a la nube.
¿Cuál es el control de acceso? Se debe tener claramente
definidas estas políticas de acceso, pues cabe la 4.1.7 Rendimiento
posibilidad de que un intruso pueda llegar a eliminar la El rendimiento es otra cuestión clave a la hora de
información o de alguna forma afectar drásticamente la seleccionar la tecnología ya que este aspecto impacta
continuidad de su negocio. directamente con la calidad de los servicios que preste la
¿Desea que sus empleados reciban publicidad con su compañía en cualquier ámbito.
correo electrónico u otras herramientas ofimáticas? Atañe Frank Dzubeck expone en su artículo Five cloud
verificar cual sería la reacción a esto, hay que analizar si computing questions [5] una cuestión a realizar al
es preferible pagar un poco más o permitir un poco de momento de estudiar la computación en nube. ―La
publicidad. segunda pregunta es el rendimiento. El compromiso de la
¿Cuál será la estrategia de salida de la nube? En el caso calidad de los servicios y los niveles de acuerdo de los
de insatisfacción con el servicio provisto por la nube se proveedores de la computación en nube puede que no
debe contar con un plan de migración de los servicios cumplan la disponibilidad empresarial, legal, el
utilizados además de contar con personal capacitado para presupuesto y los requisitos de seguros ¿Quién es el
esto. responsable de la pérdida de ingresos/beneficios, de una
El tema de entregar los datos a un tercero claramente es caída importante de la nube, carga alta de ancho de banda
de cuidado, ―El peligro aumenta cuando los datos se o el acceso insuficiente debido a la denegación del
alojan en ―la nube‖, Los datos pueden residir en cualquier servicio?‖
lugar o centro de datos. Esto puede suponer hasta un Al confrontar esta pregunta con el estudio presentado por
problema legal ya que las legislaciones de muchos países la Universidad Berkeley de California [1], quien acude al
obligan a que determinados datos deben estar en territorio siguiente gráfico donde se plantea un ejemplo del costo
nacional.‖ [10]. que puede tener en rendimiento de acuerdo a la
experiencia de ellos, “Múltiples Máquinas Virtuales
4.1.6 Disponibilidad del servicio pueden compartir CPUs y memoria principal
sorprendentemente bien en Computación en Nube, pero
En todas las organizaciones se encuentra la misma
compartir I/O es más problemático”
preocupación, disponibilidad del servicio, es un punto
La figura a continuación muestra que el promedio de
importante de analizar ya que impacta directamente con
ancho de banda en memoria para 75 instancias de EC2
la calidad del servicio de cualquier compañía, si existe un
corriendo es de 1355 MBytes por segundo, también se ve
ambiente adecuado de atención a la estabilidad de los
el promedio de ancho de banda en disco para las 75
servidores, la infraestructura y en general de los servicios
instancias escribiendo 1 GB a disco local siendo de 55
los clientes de la organización se encontrarán satisfechos.
336
MBytes por segundo, esto demuestra el problema que Un ejemplo de esto fue publicado por Jon Brodkin [3]
donde relata la historia de la compañía The LinkUp que
existe con los dispositivos de I/O entre maquinas perdió el acceso a cantidades no especificadas de los
virtuales. datos de sus clientes. La historia relata el nacimiento de
las compañías Nirvanix y MediaMax en el año 1998 que
posteriormente se dividiría en dos en julio de 2007,
donde MediaMax a inicios del 2008 cambio su nombre a
Linkup. Para julio de 2007 se inicia el contrato con Sawis
para la migración de los servidores y sistemas de
almacenamiento donde este intento resulto en el posterior
cierre de Linkup ya que esta migración fue posible solo
en parte y sólo una fracción de los archivos fueron
transferidos.
Esta historia demuestra que la migración de un sistema a
otro no es una tarea sencilla y al contrario, puede ser
bastante riesgosa.
4.1.9 Escalabilidad
Las necesidades iníciales de un nuevo negocio son claras
pero no se puede dejar a un lado que es siempre se espera
un crecimiento, puesto que la idea de toda empresa es
incrementar sus ventas, sus clientes, sus servicios, sus
productos y en general expandirse. De acuerdo a esto el
modelo tecnológico a seleccionar debe poder permitir una
ampliación según lo exija el negocio, la computación en
nube provee amplios beneficios en este aspecto, la
escalabilidad de los sistemas en la nube es proporcionada
para uso a corto plazo y de acuerdo a lo contratado podría
inclusive no tener costo, así mismo puede atender la
demanda de los servicios a medida que esta vaya
aumentando.
337
software como servicio, por lo que se deben asumir están adjudicando a empresas como Salesforce, pioneras
nuevos retos “Uno de los desafíos difíciles en la en el diseño y construcción e software CRM bajo
Computación en Nube es la eliminación de errores en demanda o como servicio‖ [10] lo cual nos indica que
estos sistemas de gran tamaño” [1] lo que hace notable efectivamente es necesario prepararse para una
que el desarrollo del software para la prestación de los migración, la computación en la nube ya llego y ahora
servicios dentro de la nube están sujetos a condiciones de hay que afrontar el reto de cambiar el paradigma.
extremo uso de recursos lo cual dificulta el aseguramiento
de la calidad en ambientes diferentes al de producción. Pero hay que tener en claro que se puede esperar de la
En el caso de detectar un error específico, la réplica de nube, Robert Scheier en su artículo acerca de los mitos de
este en un ambiente de desarrollo para su seguimiento, la computación en nube dice ―La nube reduce la carga de
control y mitigación se convierte en una tarea tediosa y en trabajo en el largo plazo. Pero para empezar, hay
cuanto a tiempo, bastante costosa. averiguar qué modelo de nube es apropiada, las
aplicaciones o servicios que más convengan y la manera
4.1.11 Licenciamiento de garantizar un nivel adecuado de seguridad,
En la computación tradicional las licencias son adquiridas cumplimiento y tiempo de actividad. Recuerde el control
para la utilización del software, en base a lo propuesto en de la ejecución de cualquier fabricante toma tiempo
un estudio realizado en el departamento de informática de extra‖ [15], importante tener en cuenta para iniciar un
la Universidad Carlos III de Madrid encontramos varios plan de migración en la nube, hay que conocer que es un
tipos de licencias sobre el software [12]. proyecto riesgoso para la compañía y los beneficios se
En el nuevo paradigma de la computación en nube verán paulatinamente.
básicamente podemos tratar de asimilar los mismos tipos La compañía TechTarget ha generado una guía sobre
de licenciamiento, pero el contrato ya no sería por el cómo prepararse para el impacto de la computación en
derecho a usar o ejecutar un programa, el derecho que se nube, esta guía indica tres dimensiones a tener en cuenta
estaría adquiriendo es el de acceder a los servicios en la para soportar este impacto. [18]
nube. La primera dimensión en referencia es el Origen de la
En cuestión de costos se siente un impacto sobre el información, las aplicaciones necesitan datos bases para
paradigma tradicional, el estudio de Berkeley dice ―La su funcionamiento, lo cual nos lleva al punto de cuál es el
oportunidad para los proveedores de la nube es impacto de migrar la información a la nube,
simplemente ofrecer planes prepago para el uso masivo adicionalmente hay que tener en cuenta que implicaciones
que pueden ser vendidos con descuentos‖, como se indica tiene sobre la consulta a esta información.
anteriormente, la compra se realizara por tiempo y La segunda dimensión es el Mantenimiento de la
capacidad de uso más ya no se comprara el derecho a información, hay que tener en cuenta cual será el proceso
utilizar el producto. de copias de seguridad ¿también se encontrarán en la
nube o es pertinente buscar otro destino diferente para
esto? Adicional a esto hay que establecer el proceso para
5. CLOUD COMPUTING y la la actualización de estos datos que ahora se encuentran en
EMPRESA CONSOLIDADA la nube.
En contraste al escenario estudiado anteriormente, existe Por último se encuentra la tercera dimensión el Acceso
un caso un poco más complejo donde existen más Distribuido a la información, se debe revisar con claridad
variables a tener en cuenta, si una compañía que lleva una quienes requieren acceso a la nube, el acceso
trayectoria dentro de su negocio y encuentra posiblemente será vía Internet o en su caso por medio de
oportunidades de expandirse requerirá de una mejor una VPN, esto depende de la confidencialidad y si
estructura tecnológica que permita mover su negocio con realmente es necesario incluir a la nube dentro de la red
solvencia en el medio ¿Hasta qué punto una compañía privada de la compañía.
está dispuesta a enfrentar el reto de una migración de
sus estructura tecnológica a un modelo de Computación
en Nube? Para conocer esto se deben revisar los aspectos
6. CONCLUSIONES
profundizados en el escenario anterior y adicional, validar
La Computación en nube está teniendo gran acogida en
el impacto de la migración.
todo el mundo, los tres frentes que ofrece (IaaS, PaaS y
De acuerdo a la empresa de consultoría AMI-Partner
SaaS) contemplan las expectativas en todos los enfoques
citada por Richael King, alrededor del 31 por ciento
posibles.
utilizaban a mediados de 2008 los servicios de la
La computación en nube es una oportunidad de mejora
computación en nube. Esta popularidad ha ido creciendo
para cualquier negocio siempre y cuando tenga en cuenta
debido a que las soluciones de TI son fáciles de utilizar y
las recomendaciones dichas dentro de este escrito.
mantener por las empresas que tienen infraestructuras y
La computación en nube ofrece servicios de excelente
presupuestos limitados. King (2006) menciona el caso de
calidad, con grandes capacidades tecnológicas y lo más
una red de 145 hospitales en el Sureste estadounidense
importante, a precios ajustables a los presupuestos de las
que están migrando a soluciones en la nube y que sus
empresas, aunque se debe analizar con cuidado hasta qué
gestiones y relaciones con pacientes, proveedores, los
338
punto la computación en nube es una inversión. Rachael. 2008. Agosto de 2008, businessweek.com.
Es totalmente claro que la gran debilidad de la Klein, Karen E. 2007. The Pros And Cons of Cloud
computación en nube es la seguridad, el control de acceso Computing. BusinessWeek. [Online] Octubre 27, 2007.
y la confidencialidad de la información, es importante [Cited: Noviembre 29, 2009.]
aclarar por medio de algún recurso legal las condiciones http://www.businessweek.com.
de uso y sobre todo tratar el tema de seguridad en detalle. Joyanes Aguilar, L. (2009). La Computación en Nube
En cuanto a la disponibilidad del servicio y el (Cloud Computing): El nuevo paradigma tecnológico
rendimiento de los servicios ofrecidos por la computación para empresas y organizaciones en la Sociedad del
en nube se cuenta con capacidades casi infinitas, la Conocimiento. ICADE. Revista cuatrimestral de las
verdadera ganancia de la computación en nube se Facultades de Derecho y Ciencias Económicas y
encuentra en estos dos aspectos. Empresariales (76), 95-111
El estudio sobre este paradigma es bastante reciente, aún Lewis, Harry. 2008. Enter the Cloud with Caution.
hace falta la maduración de esta nueva tecnología en BusinessWeek. [Online] Agosto 4, 2008. [Cited:
muchos sentidos, pero el trabajo realizado por los grandes Noviembre 11, 2009.] http://www.businessweek.com.
proveedores ha dejado claro que si es viable una Matellón Olivera, Vicente, et al. 1998. El negocio del
masificación de este tipo de modelo tecnológico. software: licencias, derechos y alternativas. Madrid : s.n.,
1998.
―En cualquier caso las empresas deben considerar su Mather, Tim, Kumaraswamy, Subra and Latif, Shahed.
posición en la nube. En los tiempos de crisis que vivimos, 2009. Cloud Security and Privacy: An Enterprise
una empresa puede reducir considerablemente su Perspective on Risks and Compilance. s.l. : O'Reilly,
presupuesto de TI, recurriendo a soluciones en la nube, 2009.
aunque como venimos analizando es preciso considerar Quittner, Jeremy. 2009. How Cloud Computing Can Help
ventajas e inconvenientes y, naturalmente una estimación, Small Businesses. BusinessWeek. [Online] Agosto 7,
de presupuesto antes de tomar la decisión final‖ [10]. 2009. [Cited: Noviembre 29, 2009.]
7. BIBLIOGRAFÍA http://www.businessweek.com.
Scheier, Robert L. 2009. Busting Cloud Computing
Armbrust, Michael, et al. 2009. Above the Clouds: A Myths. BusinessWeek. [Online] Junio 22, 2009. [Cited:
Berkeley View of Cloud Computing. California : s.n., Noviembre 29, 2009.] http://www.businessweek.com.
2009. Schultz, Beth. 2009. Cloud Computing Prons and Cons.
Breeding, Marshall. 2009. The Advance of Computing NetworkWorld. [Online] Mayo 18, 2009. [Cited:
From the Ground to the Cloud. 2009. Noviembre 29, 2009.] http://www.networkworld.com.
Brodkin, Jon. 2008. Loss of customer data spurs closure Sun Microsystems. 2009. Introductio to the cloud
of online storage service 'The Linkup'. NetworkWorld. computing architecture. 2009.
[Online] Noviembre 8, 2008. [Cited: Noviembre 29, TechTarget Networking Media. 2009. How to Prepare
2009.] http://www.networkworld.com. for the Impact of Cloud Computing. EGuide : s.n.,
Distributed Computing Economics. Gray, Jim. 2008. Octubre 19, 2009.
Junio 2008, ACM Queue, pp. 63-68. Torode, Christina. 2009. Risks and Rewards: The CIO
Dzubeck, Frank. 2009. Five cloud computing questions. View. EBook : s.n., 2009. pp. 1-14.
NetworkWorld. [Online] Mayo 8, 2009. [Cited: VMWare. 2009. VMWare Cloud Services Solutions.
Noviembre 29, 2009.] http://www.networkworld. [Online] 2009. http://www.vmware.com/solutions/cloud-
Editorial: Computing in the "Cloud". Truitt, Marc. 2009. services.
2009, Information Technology and libraries, pp. 107-108. —. 2009. VMWare virtualization. VMWare.com.
Gilje Jaatun, Martin, Zhao, Gansen and Rong, Chunming. [Online] 2009. [Cited: 11 28, 2009.]
2009. Cloud Computing: First international Conference. http://www.vmware.com/virtualization/what-is-
s.l. : Springer, 2009. virtualization.htm
How Cloud Computing Is Changing the World. King,
339
340
Interacción digital: El origen del camino
341
diseñar nuevos módulos de enseñanza utilizando su índice de las notas más recientes listando cada una el
lenguaje de programación TUTOR (también conocido número de la nota, la fecha, el título y el número de
como PLATO Author Language), concebido en 1967 por el respuestas y a continuación se podía seleccionar la nota a
estudiante graduado de biología Paul Tenczar. leer o pasarlas a través de un índice de notas anteriores.
Este medio dio lugar para que pudiera ser utilizado más allá
En 1960, el primer sistema, PLATO I, operaba localmente de los informes de los problemas. Por lo tanto se añadió un
en un equipo ILLIAC. Este tenía un televisor como pantalla menú de nivel superior para que la gente pudiese elegir tres
y un teclado especial para navegar por el sistema de menús notesfiles: sin tema y anuncios, notas de ayuda y notas
de función; en 1961, PLATO II contó con dos usuarios a la generales.
vez. PLATO III fue construido sobre un CDC 1604, podría Desde que PLATO fue diseñado, su arquitectura fue
ejecutar simultáneamente hasta 20 lecciones. Cerca de cercada cuidadosamente para mostrarse en pantalla
1972, PLATO comenzó una transición a una nueva completa. Era difícil colocar textos en lugares específicos
generación de mainframes que eventualmente podía de la pantalla, pero casi imposible desplazar el texto. Para
soportar hasta 1000 usuarios simultáneamente. Notes, esto fue una ventaja y un perjuicio. Una
característica interesante es que el título de la nota, la fecha,
la hora y el nombre del autor siempre aparecían en el
mismo lugar. Después de utilizar Notes por un rato, el ojo
ya sabía dónde buscar exactamente las cosas.
La mayoría de las opciones de Notes de lectura necesitaba
sólo pulsar una tecla. Durante la lectura a una respuesta, por
ejemplo al oprimir una tecla podría realizar las siguientes
funciones (entre otras):
Ilustración 1. Mainframe de un control de datos Pasar a la siguiente respuesta
corporativo basado en el sistema PLATO IV. Volver a la respuesta anterior.
http://pnmedia.gamespy.com/classicgaming.gamespy.co Volver a la base de la nota
m/images/oldsite/clusterimages/cybers250.jpg Pasar a la siguiente base en otra
Comenzar a escribir una nueva respuesta.
2.2 Notes
En el verano de 1973, Paul Tenczar pidió a R. David Había muchas opciones también en la lista de submenús en
Woolley que escribiera un programa que permitiera a los cada pantalla, la mayoría eran mensajes mínimos, pero la
usuarios de PLATO reportar errores de sistema en línea. tecla ayuda estaba disponible en cualquier momento para
David Woolley era estudiante universitario y programador mostrar la lista completa de opciones. Notes se convirtió
de sistemas junior y ya había trabajado alrededor de un año rápidamente en una parte indispensable de la pantalla.
con CERL.
PLATO tenía una forma para que los usuarios informaran 2.3 Talkomatic y Term-Talk
de los errores, pero era un texto abierto llamado ―notes‖. Cualquier programador competente de PLATO podía unirse
Cualquiera podía editar el archivo y adicionar comentarios con un sencillo programa de conversación que permitía a
al final de el. Después de investigar el problema, un los usuarios intercambiar mensajes on-line, la arquitectura
programador de sistemas pudo insertar una respuesta (algo de PLATO hacia trivial esto, no muchos programas de este
como "+++Fixed - RWB"). Esto fue bastante simple, pero tipo se tenían antes de 1973 y no tuvieron mucho uso,
generó problemas. Por un lado, sólo una persona podía probablemente porque la comunidad de usuarios era muy
editar el archivo al tiempo y por otre, no había ningún tipo pequeña y la mayoría de terminales estaban en un solo
de seguridad y era imposible saber con certeza quién había edificio.
escrito una nota. La mayoría de las personas colocaban En el otoño de 1933, Doug Brown diseñó un programa que
firmas o al menos sus iníciales a los comentarios. permitía a varios usuarios conversar como si fueran un
Había que realizar un refinamiento al problema existente, grupo, escribió un simple prototipo para demostrar el
un usuario escribía el informe de un problema y concepto y lo llamó Talkomatic.
automáticamente se marcaba con la fecha y el identificador La verdadera magia de Talkomatic era que trasmitía los
del usuario y se almacena de forma segura. El mismo caracteres instantáneamente, estos eran visualizados en
programa permitía una visión conveniente de las notas lugar de esperar a completar la línea de texto. La pantalla se
almacenadas. Cada uno de ellos aparecía en una pantalla dividía en varias ventanas horizontales una para cada
dividida con los usuarios de la nota sobre la mitad superior participante. Esto permitía que todos los participantes
y la respuesta en la parte de abajo. El primer prototipo visualizaran a la vez sin que sus mensajes se convirtieran en
mantenía todas las notas en un archivo, la entrada era un una mezcla confusa. Ver los mensajes aparecer tan pronto
342
eran digitados hacía sentir la conversación mucho más viva individuales pero los más populares son los que involucran
que los programas de conversación línea a línea. dos o más jugadores en terminales separadas. Los juegos no
Un canal activo podía ser abierto por cualquiera, pero fueron ciertamente una prioridad en PLATO cuando fue
cualquier participante en un canal activo podía seleccionar diseñado, pero la arquitectura soportaba juegos multi-
protegerlo. Esto permitía que cualquiera monitoreara el jugador de forma excelente. Las principales características:
canal, y que los participantes decidieran a quién admitir. Áreas de memoria compartida
Talkomatic fue un éxito instantáneo, no era oficialmente Terminales estandarizadas
parte del software de PLATO, no había una forma de Gráficos de alta resolución en la pantalla
contactarse con una persona específica para poder saber de Procesamiento central por cada tecla
qué quería hablar la gente, podía unirse un canal y hablar Respuesta rápidamente
con el que estuviera conectado. Capacidad de abortar la salida pantalla
Pero Talkomatic fue tan atractivo que inspiró al personal
del sistema para crear soporte oficial para esta característica Rick Blomme escribió el primer juego para 2 jugadores
y se hizo conocido como ―Term-talk‖ porque podía ser basado en PLATO en 1960 una versión simple de
accedido por cualquiera en PLATO presionando la tecla Spacewar de MIT. Posiblemente el juego más popular de
TERM y digitando ―talk‖. PLATO en la historia es avatar, una variación del juego de
Una conversación ―term-Talk‖ estaba limitada a dos calabozos y dragones. Empire, es un juego multi-jugador
personas, pero eso tenía sus ventajas, se podía hablar con basado en Star Trek, fue también uno de los favoritos.
una persona específica y se podía utilizar sin necesidad de Otros juegos van desde Airfight (simulador de vuelo),
salir de lo que estaba haciendo. Una persona recibía un Wordwar (un juego de velocidad digitado y ortografía) y
mensaje de parpadeo en la parte inferior de la pantalla con hasta juegos de cartas como Contract bridge. La mayoría de
la identificación de la persona y podía utilizar ―term-Talk‖ los juegos fueron escritos por programadores no pagos y la
para aceptar, las dos últimas líneas de la pantalla se única recompensa que recibían era el prestigio de haber
convirtieron en una miniatura de Talkomatic. Si llamaba escrito un juego popular. Algunos autores ahora reciben
una persona no deseada podría ser rechazada usando ―term- regalías, pero ascienden sólo a unos centavos por hora, los
busy‖ o simplemente ignorándola. cuales son divididos entre un gran número de coautores.
Una característica se adicionó después a ―term-Talk‖ que Una gran serie de juegos que se originaron en PLATO, han
permitía a los participantes pasarse modo monitor, en el sido recreados comercialmente en salas de video juegos o
cual una persona podía ver la pantalla de otro. en computadoras personales.
343
2.6 Comunidad online variedad de parches, los más notorios han sido para mejorar
El sentido de comunidad online comenzó a surgir en el rendimiento. En los sitios con un gran número de grupos
PLATO entre 1973 y 1974 (cuando Notes, Talkomatik, el manejo del reenvío y recepción de las noticias hacia otros
―term-talk‖ y Personal Notes se introdujeron rápidamente a clientes era una función muy importante. Las adiciones para
la comunidad) y estuvo creciendo con a las adhesiones a la mejorar el desempeño consistían en adicionar un demonio
estructura del software en relación a los juegos multi- el cual corría en background. Las mejoras de desempeño en
jugador y como alternativa de comunicación online. Uno la versión C News son comúnmente incluidas en las más
de estos programas fue Pad, un boletín online donde la comunes versiones de Linux.
gente podía publicar graffitis o reflexiones, otro fue Las redes UUCP fueron usadas principalmente en
Newsreport un periódico de noticias, publicado todas las versiones C, pero podían ser usada en otros
periódicamente por Bruce Parrello, también conocido como ambientes. Para mejorar la eficiencia de transmisión se
Red Sweater. decidió utilizar redes TCP/IP o DECNet las cuales
La comunidad inicial de PLATO se concentró en Illinois y requerían nuevas características. En 1986, es introducido
consistió principalmente en personas del mundo académico: Network News Transfer Protocol (NNTP). Éste se basa en
educadores brillantes, más tarde creció para incluir a gente unas conexiones de red y una serie de comandos específicos
de negocios de gobierno y militares. También creció para interactuar en la transferencia y recepción de artículos.
geográficamente, a través de Estados Unidos y alrededor Existe un gran número de aplicaciones basadas en
del mundo. NNTP disponibles en Internet. Una de ellas es el paquete
La comunidad de PLATO a medida que fue creciendo se le NNTP creado por Brian Barber and Phil Lapsley, el cual se
presentaron los problemas conocidos de las comunidades puede utilizar para proporcionar servicio de lectores de
online, como hombres hacerse pasar por mujeres y noticias a un gran número de clientes ubicados en una red
problemas con la libertad de expresión se convirtieron en local. El NNTP fue diseñado como complemento de nuevos
una regla general que en algunos casos llegaron a poner en paquetes, como son B News o C News para aprovechar las
peligro el proyecto. nuevas características de NNTP.
Un paquete alternativo soportado por NNTP es INN
(InterNet News). Éste funciona con un sofisticado demonio
3. USENET (USER NETwork) que mantiene varias conexiones de manera concurrente y
3.1 Historia de Usenet eficiente con NNTP, esta es una de las opciones para los
La idea de crear una red de noticias nació en 1979 servidores de noticias de los sitios de Internet.
cuando dos estudiantes graduados de la Universidad de Usenet (o USER NETwork) es un sistema de discusión
Duke, Tom Truscott y Jim Ellis, pensaron usar UUCP127 distribuido alrededor del mundo, que proviene de Usenix
para conectar máquinas y así realizar intercambio de Network (UNIX Users Network). Fue concebido por la
información entre usuarios de Unix. Ellos configuraron una Universidad de Duke por los estudiantes Tom Truscott y
pequeña red de tres máquinas en Carolina del Norte. Jim Ellis en 1979, otros estudiantes en University of North
Inicialmente, el tráfico fue manejado por un número de Carolina escribieron el primer lector de noticias en 1980.
scripts (después reescritos en C), pero nunca sacaron una En 1981, un estudiante en Berkeley escribió otra versión
versión al público. Estos fueron rápidamente reemplazados del software de Usenet, esta versión del software de Usenet
por "A News", la primera versión pública del software de fue actualizada a mediados de 1986 y la mayoría de los
noticias. ―A News‖ fue diseñado para manejar unos pocos cambios fueron para la nueva estructura de nombres de los
artículos por grupo y día. Cuando el volumen continuó grupos de noticias, y ambientes de control para los
ampliándose, éste fue reescrito por Mark Horton y Matt mensajes que se tienen y los que hace envíos, y otras
Glickman, quienes lo llamaron versión "B" (B News). La funcionalidades. Como la red iba creciendo, el back-end de
primera versión pública de B News fue la versión 2.1 en Usenet también tuvo que ser aumentado y en 1986 se creó
1982. Esta se fue ampliando continuamente, con nuevas NNTP (Network News Transfer Protocol), esto ayudó para
características adicionadas. el intercambio de los artículos entre diferentes proveedores
En 1987 B News fue reescrita y lanzada una nueva de Usenet. NNTP fue el primer software back-end usado
versión por Geoff Collyer y Henry Spencer; la versión "C" por los proveedores de Usenet. Más adelante fue creada una
o C News. Desde esta versión se ha encontrado una gran alternativa llamada INN, o Internet News. INN no es un
back-end, sino que es un sistema completo de noticias por
derecho propio que contiene un demonio de noticias que
127
UUCP (Unix to Unix Communication Protocol): puede mantener muchas conexiones NNTP al mismo
Protocolo de Comunicaciones de Unix a Unix). Protocolo tiempo.
que utilizan los sistemas UNIX para comunicarse entre
ellos. Permite comunicar dos computadoras para enviarse
entre sí archivos
344
3.2 En qué consiste USENET f/f4/Usenet_servers_and_clients.svg/245px-
Consiste en un grupo de noticias (newsgroups) cuyos Usenet_servers_and_clients.svg.png
elementos son clasificados jerárquicamente por el sujeto.
Los "artículos" o "mensajes" son publicados en esos grupos 3.3 Conceptos errados de Usenet
de noticias por personas con un software apropiado, estos Es bueno tener en cuenta que Usenet ha generado una serie
artículos son distribuidos a otros sistemas interconectados de ideas y conceptos equivocados que vale la pena aclarar
por medio de una variedad de redes. Algunos grupos de con las siguientes pautas:
noticias son moderados y en esos grupos los artículos son Usenet no es una organización
primero enviados a un moderador para su aprobación antes Ninguna persona o grupo tiene autoridad sobre Usenet en
de ser adicionados a los grupos de noticias. su totalidad. Nadie controla a quien obtiene las noticias,
Para no entrar en confusión es preciso mostrar cómo quien publica los artículos, o cualquier otra situación. No
son constituidos los grupos de noticias en Usenet: existe "corporación Usenet" al igual que ningun "grupo de
Los grupos de noticias comúnmente publicados "lista usuarios de Usenet".
del grupo de noticias activos" se encuentran comúnmente Usenet no es una democracia
en news.lists.misc y en otros grupos. Usenet no es una persona o grupo, por lo tanto no se puede
También se pueden encontrar grupos en Usenet que decir que Usenet tiene un gobierno, por lo tanto Usenet no
son como "jerarquías alternativas de grupos de noticias" puede ser una democracia, autocracia o cualquier otra cosa
(comúnmente publicados en news.lists.misc). parecida.
Al igual que también se pueden encontrar grupos de Usenet no es imparcial
noticias que están restringidos para regiones específicas o Después de todo, ¿quién puede decir que es imparcial? si
para organizaciones. alguien se está comportando en forma imparcial ¿quién va a
Cada sitio en Usenet toma sus propias decisiones detenerlo?.
acerca de si los grupos están disponibles para sus usuarios, Usenet no es correcto
esto varía de sitio a sitio. Algunas personas no entienden el derecho de "libertad de
Usenet está disponible por medio de una amplia expresión", esto significa para ellos poder usar
variedad de sistemas y redes pero el tráfico moderno de un computadoras para decir lo que quieran, y tener la razón.
Usenet se hace por medio de Internet o UUCP (Unix to Esas personas están erradas. Libertad de expresión no
Unix Copy), este es un servicio al cual se puede acceder significa tener libertad para hablar.
desde Internet usando el protocolo NNTP sobre TCP, Usenet no es un utilidad pública
aunque también se puede acceder a él por medio de otros Algunos sitios de Usenet son fundaciones públicas o
sistemas, un ejemplo de esto es BBSs. Todos los usuarios subsidiadas. No hay monopolio de gobierno en USENET, y
pueden leer o enviar mensajes a distintos grupos de noticias poco o nada de control de gobierno.
ordenados de forma jerárquica. Usenet no es una red académica
No es ninguna sorpresa que muchos sitios del USENET son
universidades, laboratorios de investigación o instituciones
académicas. Originalmente la antigua URSS anexó un
vínculo entre dos universidades para el intercambio de
ideas e información que surgían entre las instituciones. Pero
con el paso de los años cambió el carácter de Usenet y hoy
en día la mayoría de los sitios de Usenet son entidades
comerciales.
Usenet no es un medio de publicidad
Dado que Usenet tiene sus raíces en la academia, y depende
fuertemente de la cooperación, dicta que la publicidad debe
ser mínima, es tolerada si es poco frecuente, informativa y
de bajo nivel.
El grupo de noticias "comp.newprod" no es una excepción
a la regla: los anuncios de productos son mostrados pero
con un moderador que los mantiene en un bajo nivel bajo su
supervisión.
Usenet no es Internet
Internet es una red de alto rango, y algunas partes son
Ilustración 3. Diagrama de unos servidores y clientes de subsidiadas por varios gobiernos. Esto involucra varios
USENET. aspectos de tráfico, de los cuales y Usenet es sólo uno e
http://upload.wikimedia.org/wikipedia/commons/thumb/
345
Internet es sólo una de las varias redes por las cuales juegos se accede generalmente mediante una conexión vía
Usenet transita. telnet entre cliente, la máquina del jugador que se quiere
Usenet no es una red UUCP conectar y el propio servidor. Para poder acceder al MUD
UUCP es un protocolo (actualmente es un conjunto de no es necesario disponer de aplicaciones específicas,
protocolos) para enviar datos de a conexiones punto a pudiendo emplearse terminales básicos ya instalados que
punto, típicamente usada para módems. Los sitios que usan soporten el protocolo telnet, como los que se pueden
UUCP involucran varios aspectos de tráfico, de los cuales encontrar en las distribuciones de los sistemas operativos o
y Usenet es sólo uno. UUCP es sólo una de las varias redes usando software diseñado exclusivamente para esta clase de
por las cuales Usenet transita. juegos, tales como zmud, gmud, tintin++, etc.
Usenet no es una red Unix La primera versión de MUD (V.1) salió a la luz en 1978 y
No se debe asumir que todas las personas usan una era un prototipo, el cual fue escrito por el estudiante de la
máquina Unix. Sin embargo la mayoría de los elementos universidad de Essex (Reino Unido) Roy Trubshaw, sobre
usados para leer y publicar en Usenet vienen de diferentes un DEC PDP-10 usando el lenguaje de programación
sistemas. MACRO-10. La memoria utilizada por el juego era
demasiada elevada para aquella máquina (50K como
3.4 De que no se responsabiliza Usenet máximo) así que desistió y dejó suspendido el proyecto
Usenet tiene como nota aclaratoria que no responde por hasta 1979. La segunda versión (V.2) estaba escrita en
ninguna de las actividades que realicen sus usuarios: lenguaje assembler, y en ella se podían crear objetos
Usenet.com no controla los grupos de noticias en Usenet. dinámicamente, pero como resultaba muy tediosa de
No creamos el grupo de noticias o los grupos de noticias en mantener, fue reescrito en BCPL. La versión 3 (V.3) se hizo
Usenet. Cada grupo de noticias que se crea es pública en 1980 y ya estaba construida con el concepto de
responsabilidad única de la persona que la creó. No ser un juego, después que Richard Bartle entró en el
controlamos qué gente pública en Usenet. Nuestros proyecto y se encargó de todo después que Roy salió de la
servidores se clasifican como una ―red transitoria.‖ El universidad. Richard se encontró con un aplicación en
nombre del nombre del grupo de noticias de por sí no donde varios usuarios podían comunicarse y de lo que se
significa que se publicara en el grupo de noticias al cual encargo fue de a finalizar las librerías necesarias para le
corresponde el nombre del grupo. ejecución de MUD. Después de esto se puso a disposición
de otros estudiantes de la institución, a esta versión se le
llamó MUD1 porque la mayoría de la gente con esta
3.5 Clasificación de los grupos de noticias versión era con la que jugaba, a pesar de no ser la primera
Los grupos de noticias se clasifican de acuerdo a un versión.
agrupamiento conocido como jerarquía. Por lo general estas Consistía en que un usuario tomaba control del avatar o
jerarquías prestan una valiosa ayuda para localizar los caracter conocido con el nombre de PJ o personaje jugado.
foros, de esta manera, existen grupos de usuarios sobre la Para lo cual debía crear una ficha que se rellenaría
gran mayoría de las disciplinas técnicas, lúdicas, científicas, mediante la obtención de puntuaciones en tiradas virtuales
que se pueda imaginar. Para una idea de la gran diversidad, sobre las estadísticas básicas del PJ, tales como fuerza,
algunas de estas categorías son: destreza, inteligencia, carisma, sabiduría y constitución. Se
biz. Temas relacionados con los negocios podía caminar por los alrededores hablar con otros
sci. Temas científicos caracteres explotar áreas peligrosas llenas de monstruos,
rec. Pasatiempos y recreación resolver acertijos, disfrutar su propia variedad de salas,
comp. Temas de Computadoras descriptores y elementos.
soc. Temas culturales y sociales que al conformarlos en
combinaciones tenemos: En su mayoría los MUDs proporcionaban un modo de
rec.arts.movies temas de cine juego alfanumérico, lo cual implicaba que el jugador
rec.music.bluenotes jazz y blues recibía toda la información por parte del servidor en modo
misc.fitness temas de ejercicios físicos, aeróbicos texto. Esta información se obtenía al ejecutar alguna acción
sci.archaeology ciencias y arqueología dentro del juego y estaba representada básicamente por
soc.culture.germany historia y cultura alemana descripciones de la sala (room) donde se encontraba el
jugador, de objetos, del inventario, de la ficha, del estado
4. MUD (Multi-User Dungeons) del personaje, etc. Tal como un Master crearía la
ambientación en un juego de rol.
4.1 Origen El jugador interactuaba con el mundo y los NPCs o PNJs
MUD Es un programa de computadora en el cual los (Non Playing Characters o mobs, todos aquellos personajes
usuarios pueden entrar y explorar, es un juego de rol en no controlados por el jugador, aunque existían algunas
línea que es ejecutado en un servidor. A esta clase de excepciones como es el caso de criaturas invocadas por los
346
propios jugadores) mediante el uso de comando tales como octubre de 1990.
atacar, caminar, obtener, mirar, considerar y los propios de Según Jill Serpentelli en el paper ―Conversational Structure
cada raza, gremio, clan, cofradía u orden. Lo que se and Personality Correlates of Electronic Communication‖:
buscaba era hacer crecer al personaje mediante la Curtis explica cómo fue la transición de AlphaMOO a
consecución de puntos de experiencia que definían el LambdaMOO. Después de corregir bugs en el sistema,
avance entre los distintos niveles a los que podía llegar un reescribiendo algo del código, agregando más capacidad de
jugador con su PJ. Estos puntos de experiencia solían programación, y escribiendo la documentación, él había
conseguirse al eliminar NPCs o realizar aventuras (también creado lo que él llamó ―una entidad verdaderamente
conocidas con su notación inglesa: quests). Avanzar de separada‖ del AlphaMOO original. Él tradujo este nuevo
nivel suponía muchas veces obtener mejoras para el sistema LambdaMOO, después de uno de sus nombres en el
personaje tales como aumento de la vida total, vigor y maná sistema y, según Curtis, ―porque es una palabra clave en
del mismo. Aprender nuevas habilidades que se traducían algo en otra investigación no MUD que realizo.‖ El nuevo
en comandos nuevos o hechizos, mejorar el ataque y la sistema fue anunciado como abierto para el acceso público
defensa del personaje, etc (esto variaba dependiendo del en USENET (un Sistema de publicación de boletines
MUD al que se conectara el jugador). Alcanzar niveles mundial) en febrero de 1991 (Curtis, comunicación
altos de experiencia implicaba a su vez mejorar en equipo y personal).
riqueza. El MOO fue desarrollado originalmente como un servidor
de MUD con el mismo estilo general (comparte mucha de
4.2 ¿Cuáles son los diferentes tipos de las de sintaxis de los comandos y convenciones de la
comunidad) como TinyMUD. Hay actualmente dos
MUD que encontramos? distribuciones del código del servidor del MOO, la más
Se pueden encontrar diferentes tipos de MUD. La familia popular es el LambdaMOO.
de MUD Tiny y Teeny eran normalmente con una La versión LambdaMOO de MOO que ganó renombre a
orientación más social; los jugadores de estos MUD principios de los 90, sigue siendo la distribución más
tendían a agruparse, realizar chats, encontrar amigos, ampliamente utilizada de MOO. Pavel Curtis continuó
hacerse bromas, y discutir sobre diferentes temas. manteniendo el servidor por varios años. Otros
La familia de MUDs PL, incluyendo Diku y AberMUD, colaboradores tempranos al servidor de LambdaMOO
estaban usualmente basados en juegos de aventura de estilo incluyeron a usuarios como Tim Allen (―Gemba‖),
roleplay; los jugadores daban vueltas en grupo o de forma ―Gary_Severn‖, equipo de Roger (―Rog‖), Judy Anderson
individual matando monstruos, resolviendo acertijos, y (―yduJ‖), y Erik Ostrom (conocido como ―Joe Feedback‖).
ganando experiencia en la búsqueda para convertirse en Más adelante, Erik Ostrom mantuvo el servidor, y el
magos. servidor ahora es mantenido por Ben Jackson y Jay Carlson
Todavía hay otros tipos de MUDs, tales como MOOs y y tiene un proyecto de LambdaMOO en SourceForge.net.
UnterMUDs. Cada tipo tiene su propio estilo único, y En el 2005, el servidor de GammaMOO se bifurcó de
fuerzan a los jugadores raramente a pegarse a un tipo de LambdaMOO con la meta de ser una tierra de prueba para
juego - no hay regla que diga que un LPMUD debe ser un las nuevas características no cualificadas, aun para la
combate orientado MUD, o que un TyniMUD debe ser un inclusión en la distribución principal del MOO (que tiene
combate orientado MUD. estándares muy terminantes para cualquier cambio). Puede
ser considerado como el equivalente de una ―rama del
5. MOO (MUD Object Oriented) desarrollo‖ que la mayoría de los proyectos tienen.
5.1 Origen
El MOO, junto con todos sus símiles, comenzó con los 6. CONCLUSIONES
juegos aventura basados texto. Con la llegada de la Podemos identificar claramente que PLATO fue la
Internet, el MUD fue formado como versión en red de uno cuna de los grandes desarrollos de los cuales podemos
de esos juegos. Se convirtió eventualmente en un árbol de resaltar:
diversos tipos de MUD, MOO se convierte en uno de ellos. En 1972 cuando PLATO IV salió al mercado incluía
Stephen White (también conocido como ―Ghondahrl‖ y una pantalla de plasma que tenía funciones de panel táctil,
―ghond‖) escribió la primera versión del servidor de MOO, además de ofrecer funcionalidades para conectarle
que fue lanzado el 2 de mayo de 1990 y utilizado para la dispositivos periféricos. Mucha de la tecnología usada en
operación de un servidor que llamó ―AlphaMOO‖. Pavel PLATO fue la base de numerosas aplicaciones de Xerox
Curtis, empleado de Xerox PARC y también conocido PARC.
como ―lambda‖, y ―Haakon‖ tomó el diseño, el lenguaje y En 1973 sale PLATO Notes, que se convierte unos años
el código, corrigió bugs y agregó características para mas tarde en el padre Lotus Notes.
lanzar la primera versión, llamada ―LambdaMOO‖ el 30 de En 1976 las herramientas de comunicación online,
347
marcaron la pauta de grandes inventos de la actualidad
como lo son Persona Notes (que se convertirá en el correo 7. REFERENCIAS
electrónico), Talkomatic (ahora conocidas como salas de [1] Serpentelli, J. 1992. Conversational Structure and
chat), Term-Talk (mensajería instantánea), Monitor Mode Personality Correlates of Electronic Communication.
(Compartir escritorio remoto) y los tan conocidos [2] Hauben, M, Hauben, R, and Truscott, T. 1997 Netizens
emoticonos. : On the History and Impact of Usenet and the Internet
De los juegos multi-jugador se pueden resaltar: (Perspectives). Wiley-IEEE Computer Society P. ISBN
Empire (basado en Star Trek), 0-8186-7706-6.
AirFight (precursor de Microsoft Flight Simulator), [3] Olaf. Kirch, Terry. Dawson. Colaborador Terry
Panther (similar al BattleZone de Atari), Dawson, 2000. O'Reilly.ISBN 1565924002
El original FreeCell [4] Pfaffenberger, B. 1994. The USENET Book: Finding,
Una gran variedad de juegos de rol inspirados en calabozos Using, and Surviving Newsgroups on the Internet.
y dragones. Addison Wesley. ISBN 0-201-40978-X.
Cabe resaltar que muchos de los juegos tipo MUD y MOO, [5] Quarterman, John S. 1989. The Matrix: Computer
funcionaron sobre PLATO como sistema base. Networks and Conferencing Systems Worldwide,
Los lineamientos de USENET, una red que permitió crear Digital Press; 2 Sub edition.
grupos de noticias y dar las pautas de comportamiento y [6] Rittner, D. 1997. Rittner's Field Guide to Usenet. MNS
divulgación de información por medio de grupos de interés, Publishing. ISBN 0-937666-50-5.
son los que actualmente se siguen en cuanto a grupos de [7] Smith and Sherwood, 1976, particularly the section
noticias entitled PLATO as a Communication Medium
Es importante resaltar que estos proyectos continúan [8] Turkle, S. 1997. Life on the Screen: Identity in the Age
funcionando algunos con los mismos nombres como es el of the Internet. ISBN 0-684-80353-4
caso de usenet.com, hay una gran variedad de proyectos [9] Woolley, D. 1994. PLATO: The Emergence of Online
basados en MUD y MOO como Aardwolf, The World Of Community.
Achaea, etc, adicionalmente PLATO ha sufrido una gran
variedad de transformaciones pero en la actualidad se le
encuentra como PLATO Learning.
348
BPM y la calidad del software.
349
RESUMEN 1.1 Definición de BPM
Este artículo se refiere a BPM (Business Process BPM [21] ―es el conjunto de servicios y herramientas que
Management), y la calidad en el desarrollo del software. facilitan la administración de procesos de negocio. Por
En el caso de BPM, se presentan los conceptos básicos administración de procesos entendemos: análisis,
iniciando con los fundamentos, definición, benéficos, definición, ejecución, monitoreo, y control de los
funciones, estándares, la arquitectura, workflow, procesos‖.
metodología y el ciclo de vida necesaria, para la Business Process Management (BPM) [13] ―es la
implementación de BPM. Y sobre la calidad desde metodología empresarial cuyo objetivo es mejorar la
presentar su estado del arte y fundamentos teóricos, de eficiencia a través de la gestión sistemática de los
igual forma se muestra los diferentes modelos de calidad procesos de negocio, que se deben modelar, automatizar,
desarrollados por varios autores, tales como: McCall, integrar, monitorizar y optimizar de forma continua‖.
Boehm Barry, Arthur Jay Lowell, Gilb Tom, Dromey [9] ―Es una disciplina que combina capacidades de
Geoff, FURPS, Barbacci Mario, ISO/IEC 9126, y Basili software y expertise (mejores prácticas, métricas,
Víctor (GQM). metodologías, lógica de negocios, políticas corporativas,
servicios) para acelerar procesos de negocio y facilitar la
Palabras clave innovación empresarial. Dicho en otras palabras es la
BPM, definición de BPM, beneficios de BPM, funciones categoría de software que integra el contenido, las
de BPM, arquitecturas de BPM, calidad, modelos de aplicaciones informáticas, y la gente de forma coordinada
calidad. a través de procesos de negocio automatizados y en
mejora continua‖.
ABSTRACT ―BPM es una disciplina de gestión que combina una
This article refers to BPM (Business Process visión centrada en procesos y de integración de
Management), and quality in software development. In the funcionalidades que pretende mejorar la efectividad de las
case of BPM, we present the basic concepts starting with organizaciones‖ [19].
the basics, definition, benefits, functions, standards, BPM ―es un enfoque sistemático a la gestión y la mejora
architecture, workflow, methodology and life cycle de la organización empresarial con la participación activa,
necessary to implement BPM. And the quality from gestión coordinada de todos los aspectos, la
present state of art and its theoretical foundations, especificación, diseño, implementación, operación,
likewise shows the various quality models developed by medición, el análisis y la optimización de los procesos de
several authors, such as: McCall, Barry Boehm, Lowell negocio en a fin de entregar de manera eficaz y eficiente
Jay Arthur, Tom Gilb, Geoff Dromey, FURPS, Barbacci los objetivos empresariales ‖ [12].
Mario ISO / IEC 9126, and Victor Basili (GQM).
1.2 Beneficios de BPM
Keywords Al inicio del estudio de viabilidad de implantar un BPM,
BPM, definition of BPM, the benefits of BPM, BPM es muy seguro llegar a encontrar que en la empresa
features, architectures for BPM, quality, quality models. existen algunos procesos que se pueden mejorar o sustituir
o eliminar, o en el mejor de los casos aquellos que hoy
1. INTRODUCCIÓN existen manuales se puedan automatizar, de manera que se
En el presente trabajo de investigación se presenta en su oprtimice y se preste un mejor servicio al cliente. Estos y
primera parte una descripción de la investigación, donde muchos más se consideran beneficios de BPM en la
se plasman los lineamientos primarios de BPM y la empresa, tal como lo menciona Michael Havey en [15].
segunda sobre la calidad del software, para abordar el En un proceso pueden existir varias actividades, las cuales
desarrollo del trabajo. en dado momento pueden resultar inactivas, pero se puede
Se hacer referencia a BPM, desde el estado de arte, notar como una ventaja el uso de BPM, que esas
pasando por sus fundamentos, definición, benéficos, y actividades nunca volverán a permanecer inactivas en el
funciones. Mientras que en quinta, de muestra el estado tiempo, esto debido a que con el software de BPM, se
del arte, estándares, arquitectura, workflow, y su ciclo de impulsa el flujo de procesos. De igual forma sucede con
vida. algunas actividades que de manera simultánea pueden
La segunda parte del artículo muestra algunas trabajar, buscando el ahorro en los tiempos de respuesta
experiencias, modelos, y los diferentes criterios de varios hacia el usuario.
autores respecto a la calidad del software. Es muy posible con BPM, incrementar la productividad,
El presente documento finaliza con una serie de es decir, que ayuda a realizar los trabajos más
conclusiones sobre lo hallado en la investigación. rápidamente y con menos mano de obra, lo cual significa
disminución de costos para las empresas. En una entidad
de servicios financieros se pudo disminuir en un 66% el
351
personal, en una compañía de seguros, se pudo disminuir entender por BPM. Es decir, es necesario hallar un
el personal en un 40%. BPM ayuda en la disminución del patrocinador de BPM, que esté dispuesto desde el inicio
tiempo de procesamiento y aumenta la satisfacción del hasta el final del proyecto, con esto se busca un
cliente. Es decir, en estos casos se puede incrementar la compromiso para poder realizar el cambio organizacional
prestación de servicios o dicho de otra forma, aumentar la en el empresa y debe ser parte de un comité organizado
productividad empresarial y disminuir el personal, como para implantar BPM.
beneficio de BPM. Jefe de Gestión de Procesos de Negocio. Es una persona
Toda empresa tiene en su interior unas normas o que debe supervisar y gestionar los procesos y
reglamento de trabajo, donde se plasman las reglas o actividades. Debe tener experiencia en BPM y ser
condiciones para que las personas las cumplan al pie de la aceptado en la empresa. Además, debe conocer en detalle
letra, de esta forma las empresa puede lograr su misión y todos y cada uno de los procesos, tener poder de
sus objetivos con mayor facilidad. Pero con la ayuda de negociación y excelente capacidad para comunicarse con
BPM, es posible lograr una auditoria en la empresa, de los demás de la empresa.
manera que se puede implementar controles de Comité Directivo de BPM. Conformado por un grupo de
cumplimiento. Es decir, en este caso se simplifica el personas responsables de establecer, supervisar y dirigir la
cumplimiento de las normas. estrategia de BPM, en la empresa. Este comité estará
Cuando se implementa BPM en una empresa se tienen presidido por el jefe de gestión de procesos de negocio y
algunos beneficios como: reducción de costos, por el patrocinador de BPM.
mejoramiento en el servicio al cliente, respuesta rápida Experto en Procesos de Negocios. Se encarga de la
ante cambios en el mercado, mejoramiento en la gestión de procesos internos en la empresa. Se encarga de
administración, control y visibilidad en los procesos de la divulgar la metodológia y conocimiento de BPM.
empresa [9]. Centro de competencia de BPM. Esta oficina está dirigida
Para Asentti en [3], los beneficios de BPM, son varios por el Jefe de Gestión de Procesos de Negocio, y esta
tales como: ―Mejor desempeño en las actividades, compuesta por expertos de procesos de negocios de la
Procesos más eficientes, Estandarización de los procesos, empresa. Se encarga de algunas tareas como: Definición
Incremento de las ganancias, Agilidad de mejora de los de la estrategia de BPM. Gestionar y coordinar todas las
procesos del negocio, Ayuda a automatizar actividades de BPM. Selección y apoyar la organización
proactivamente todos los procesos del negocio, de la herramienta de BPM. Operación de los procesos y
Administradores de negocio pueden medir, responder y métodos de herramientas. Diseñar y organizar la
controlar de manera más directa todos los elementos de arquitectura de procesos de negocios. Proporcionar la
sus procesos operativos, Responder con más eficiencia a formación y entrenamiento en BPM. Apoyar los proyectos
los cambios y retos continuos con respecto a las metas y de BPM en la empresa. Comunicación interna y
objetivos del negocio, Proporciona transparencia en comercialización de BPM, de ser necesario.
tiempo real de los procesos para ser medidos y saber que 1.4 Arquitecturas para BPM
procesos son críticos para el negocio, Facilita a los Respecto a las arquitecturas de procesos de negocio, se
tomadores de decisiones el control sobre los cambios, inicia con (Workflow Management Architectures),
reglas y políticas que gobiernan el comportamiento de los arquitecturas de Gestión de flujo de trabajo. El flujo de
procesos, Incrementar la productividad de los empleados trabajo se diseña usando una herramienta de modelado
y reducir costos operacionales, Incrementar la agilidad de gráfico de flujo de trabajo. Este modelo de flujo de
la organización para realizar cambios de manera más trabajo, es el mismo modelo para los procesos de negocio.
Eficiente‖. En este modelo lo importante es el tiempo cuando se
1.3 Funciones de BPM construye y ejecuta. La arquitectura maneja unos
BPM parte de unas fases o tareas necesarias para tal fin. subsistemas, como: El subsistema de modelos de flujo de
Como lo menciona Davis & Brabänder en [12], se debe trabajo, encargado de proporcionar los medios para
tener en cuenta las fases: Fase de estrategia del proceso, modelar los aspectos de los procesos de negocio. Los
donde se define la organización de la estrategia de BPM. modelos de flujo de trabajo, se almacenan en un
Fase de diseño del proceso, aquí se establece la forma repositorio o base de datos, es decir, allí están contenidos
para normalizar la BPM. Fase de aplicación del proceso, los demás flujos de trabajo de toda la empresa. Existe otro
en esta fase se precisa la aplicación de BPM en la subsistema llamado, motor de flujo de trabajo, quien
empresa. Fase de Control del proceso, se realiza la responde por la promulgación de procesos de flujo de
revisión y se busca la optimización de BPM. trabajo. Cuando se presenta una actividad diaria en la
Patrocinio de BPM. Antes de iniciar cualquier empresa, el motor de flujo de trabajo crea una nueva tarea
compromiso en BPM, es necesario tener un compromiso de flujo de trabajo basado en el modelo de flujo de trabajo
de la alta dirección de la empresa, con lo que se debe que se acaba de definir.
352
Arquitectura WfMC (Workflow Management Coalition), hacia arriba.
coalición de gestión de flujo de trabajo. La incorporación Al tomar el modelo de arriba hacia abajo, es partir del
de servicios de flujo de trabajo, que es la columna nivel mas alto, desde los objetivos del negocio. Mientras
vertebral de la arquitectura, se alimenta desde cinco que si es de abajo hacia arriba, se parte de los
interfaces: Definición del proceso de herramientas, flujo procedimientos de cada proceso, hasta llegar a los niveles
de trabajo de clientes y aplicaciones, aplicaciones más altos en la empresa. En este ultimo modelo, son los
invocadas, otros flujos de trabajo y promulgación de usuarios de los procesos los que definen como hacer su
servicios, y por ultimo la administración y herramientas de trabajo diario. Es un aspecto importante definir cual de los
seguimiento. dos modelos seguir en la implantación. Los analistas
1.5 Workflow deben verificar la mejor forma y la más eficiente para que
Para iniciar un proceso de BPM, es necesario iniciar por los empleados realicen mejor su trabajo diario.
el Workflow o flujo de trabajo, necesidades de los Casos de Excepción.
usuarios. Para cumplir esta tarea es necesario que la Se dice que ningún proceso es perfecto, por más que se
empresa se tome un tiempo prudente en algo llamado el haya analizado con suficiente tiempo. Siempre se
análisis empresarial, lo cual incluye el Workflow, los presentaran algunos imprevistos o errores en la solución, y
procesos existentes y las estrategias del negocio. Este son muy contados los casos inevitables. Siempre habrá
tiempo y demás recursos investidos para dicho análisis se algún detalle de un procesos que se paso o se olvido por
verán en el corto tiempo en la alta eficiencia de los todas las personas a cargo, y se encontrará mas tarde de
servicios que presta la empresa. Tener éxito en un pronto, dentro varias semanas adelante.
proyecto BPM, implica primero comprender los procesos Explorar indicaciones inesperadas.
de negocio de la empresa [14]. Es importante tener en En el diseño de nuevos procesos la empresa no deberá
cuenta carios aspectos para tener un verdadero éxito y tomar por cierto en un cien por ciento, esto se presenta
ventajas en la implantación de un proyecto usando BPM: cuando en alguna área de empresa o en un departamento,
se ha llevado un proceso determinado por varios años y se
1.5.1 Recomendaciones en Workflow esta buscando aumentar la eficiencia de ese proceso es
No tomar decisiones tecnologicas antes del proceso de necesario que las partes estén dispuestas a sacrificar el
análisis. método como siempre se ha venido haciendo dicha labor.
Si se toman algún tipo de decisión en la parte tecnológica Esto es aplicable a aquellas empresas donde por cualquier
antes de planear y analizar la empresa en su totalidad, es cambio por leve que sea, se crean conflictos innecesarios.
muy seguro de caer en un problema no fácil de solucionar Medir KPI
en el tiempo. Lo que se recomienda es que las decisiones Key Performance Indicators, KPI (por sus siglas en
tecnológicas sucedan como producto de la planeación de ingles), indicador clave de desempeño. Los KPIs son una
los procesos empresariales o lo que la empresa necesita y forma de medir el cumplimiento de los objetivos de la
quiere o lo que la empresa quiere trabajar en el futuro. Se empresa. Después de diseñar los procesos del negocio,
puede decir que es la primera tarea de BPM y no se debe debe incluirse una KPI, de manera que indique, si el
descuidar tal hecho. proceso esta bien para esa área o departamento de la
Incluir varios participantes en el proceso de diseño. empresa. Los KPI son escenciales, pues, es la forma de
Los procesos de negocios resultar mejor diseñados cuando medir el éxito o fracaso de BPM, además, muestra el nivel
intervienen varios departamentos o aéreas de empresa. Es de calidad de cada proceso de la empresa.
importante incluir en todos los procesos un buen número Reevaluar permanentemente el workflow después de su
de participantes en el Workflow. Además, de lo anterior aplicación.
se debe tener en cuenta a las personas que son parte de los Se puede decir que es una de las recomendaciones más
procesos, es decir, saber cual es el papel protagónico que importante de todas. Esto es debido a que las empresas
desarrollan en ese proceso, teniendo de presente que no es cambian o se transforman permanentemente, debido a la
necesario entrevistar a todos los empleados de la empresa. modificación de las necesidades de los usuarios, lo cual
Los participantes de un proceso sientan un valor genera cambios en los procesos al interior de la empresa.
empresarial. Los procesos tienen un ciclo de vida, llamado proceso de
Esta tarea se puede decir es una de la mas difíciles de mejora continua, de manera que garantice que los
cumplir. Pues son pocos los empleados que de verdad procesos de negocio de la empresa sean siempre
colaboran en el diseño de los procesos en un cien por pertinentes.
ciento. Esto es debido a que las personas tienen poca
motivación en colaborar al diseño de nuevos procesos, 1.6 Metodología de BPM
pero, se debe impulsar a esas personas a contribuir en el En [23] se define una metodología para BPM, en siete (7)
mejoramiento de la empresa. pasos o etapas así: Estrategia y organización, estudio, fase
Comparar el modelo de arriba hacia abajo y de abajo
353
de diseño, plataforma de selección, aplicación y pruebas y procesos de negocio, con la plataforma definida. Uno de
fase de operación y control. los aspectos interesantes en esta fase es la integración de
sistemas externos, y verificar con pruebas exhaustivas el
1.6.1 Estrategia y organización comportamiento de los procesos de negocios externos. En
En esta etapa es necesario realizar: Identificación del estas pruebas se debe contemplar probar el volumen de
mercado donde la empresa se desenvuelve. Evaluar las los datos y su crecimiento, los flujos de trabajo,
fortalezas y debilidades de la empresa. Identificar cuales restricciones de tiempo. De lo anterior es posible decidir
son las estrategias a largo, mediano y corto plazo. Los si es necesario rediseñar algunos aspectos, como el flujo
objetivos estratégicos. Organización de los procesos del de trabajo, que no se acomoda a la realidad para el cual
negocio. Procesos de negocio operativo e implementación fue diseñado. En el caso de si existe intervención humana
de procesos del negocio. en los flujos de trabajo, se verifica si existe buen
1.6.2 .Inspección entrenamiento en las personas.
El objetivo de esta fase es el de recoger y organizar la 1.6.6 Operación y Control
información sobre los procesos de negocio de la empresa. En esta fase se precisa la instalación de sub fases, que
Se identificaran procesos de negocio operativos. incluye, la migración de información, la capacitación de
Determinar las posibles restricciones, por culpa de los los usuarios, basados en el flujo de trabajo, lo cual implica
sistemas de información existente y que deben integrarse. formar al usuario en el nuevo flujo de trabajo que
Se crea un equipo básico, para poder obtener una visión previamente se ha definido. Respecto a la migración de
general de solicitudes, personas y unidades o áreas de los datos, se refiere a la nueva ubicación de ellos de donde
empresa. Para obtener la información necesaria se debe estaban, al nuevo flujo de trabajo o en los nuevos
hacer uso de las entrevistas. sistemas.
1.6.3 Diseño
1.7 Ciclo de vida de BPM
En esta fase se identifican y se seleccionan los procesos de
Según Davis en [12], el ciclo de vida de BPM consta de
negocios, que se tendrán en cuenta en el desarrollo del
cuatro fases principales:
proyecto. Para identificar es importante tener presente que
cada proceso se inicia y termina con un usuario o cliente, 1.7.1 Estrategia de Procesos de Negocios
que es quien solicita un producto o servicio. Cada proceso En esta fase existe con el fin de alinear los procesos de
siempre tiene un dueño o responsable, de manera que cada negocios que maneja la empresa. En las empresas las
persona es responsable de su proceso, de esta forma se estrategias del negocio dependen de diversas variables,
consigue que se pueda cumplir el objetivo de la empresa. una de ellas, el mercado. Pues, dependiendo del
Los procesos están conformados por objetos, y estos a su comportamiento del mercado variaran las decisiones que
vez pueden ser objetos que contienen información, como se tomaran en la empresa. Los cambios en las decisiones,
un pedido, una compra, un reclamo, una cotización o se ve reflejado en los procesos de negocios de la empresa.
cualquier otro tipo de información. Pero esos objetos
consiguen ser también físicos, tales como un producto 1.7.2 Diseño de procesos de negocio
terminado. Los procesos pueden tener algún tipo de Esta fase se debe adaptar la empresa a las necesidades del
limitaciones o restricciones, pues de esta manera de mercado, como se menciono en la fase anterior, y se debe
utilizan los recursos de la empresa de manera optima, lo partir desde el inicio, es decir, desde el diseño, el análisis,
cual trae consigo una disminución de costos de la optimización y pruebas de los procesos de negocios de
producción para la empresa. Es muy probable que se la empresa, en busca de un mejoramiento permanente.
tenga que contratar por algún motivo, procesos de
negocios externos, si esto sucede es necesario definir el 1.7.3 Implementación de procesos de negocio
tipo de contrato, la calidad de los procesos de negocios
necesarios. Es importante que los procesos de negocios en la empresa
1.6.4 Plataforma de selección permanentemente vivan actualizados o tengan un progreso
En esta fase es necesario garantizar la plataforma donde continuo o mejor aun, tengan innovación. Lo anterior se
van a ubicarse y ejecutar los procesos de negocios de la logra con ayuda de la implementación de nueva
empresa. Por decir algo, si la empresa tiene previsto como tecnología. Ahora bien, es fundamental que esa
plataforma una arquitectura orientada a servicios, es tecnología, tenga la característica de ser dinámica y
necesario verificar la tecnología existente. O si lo que se flexible, de forma que con facilidad y rapidez se pueda
quiere es una parte de intervención humana y otra con un cambiar algún proceso de negocio de la empresa. Para
sistema de flujo de trabajo. lograr una buena implementación es imprescindible
conocer muy bien la organización o tener en mente una
1.6.5 Aplicación y pruebas mapa de los procesos de negocio, pues así se vera
Esta fase inicia con la aplicación de los modelos de reflejado en el software. Los procesos de negocio se
354
pueden lograr de tres formas: Aplicación de normas de cada capacidad con factores y estos con criterios que
sistemas de Planificación de recursos del sistema ERP, ayudan a definir la calidad del producto.
(por sus siglas en ingles), arquitectura orientada a Las características asociadas a la capacidad de operación
servicios SOA,(por sus siglas en ingles), y la aplicación del producto, tiene que ver con cinco factores y a su vez
clásica de ingeniería de software. se debe tener en cuenta cinco criterios (operabilidad,
familiarización, comunicatividad, volumen y tasa de
entrada/salida y datos comunes), para la evaluación del
1.7.4 Control de Procesos de Negocio software. Aquí se determina la facilidad para manejar el
En esta fase se mide la eficiencia de los procesos de software, el ambiente del software con el usuario, la
negocio de la empresa. En esta fase se debe garantizar el posibilidad de compartir datos con otros programas.
control de la todas y cada una de las etapas del software
que maneja los procesos de negocio. La eficiencia se mide Factor 1: Facilidad de uso. Es el esfuerzo requerido para
contra los objetivos propuestos inicialmente, en los aprender a utilizar el software, preparar la entrada de
procesos de negocios. datos e interpretar la salida de la información.
Criterios que se deben evaluar:
2. CALIDAD DEL SOFTWARE Operabilidad: Propiedades del software que determina el
2.1 Definición de calidad de Software grado de facilidad de operación del software.
La norma ISO 8402 define: ―Conjunto de propiedades y Familiarización: Propiedades del software que
de características de un producto o servicio, que le proporciona al usuario un ambiente de climatización al
confieren su aptitud para satisfacer unas necesidades software.
explícitas e implícitas‖ [17]. Comunicatividad: Propiedades del software que permite
De acuerdo a la definición del Instituto de Ingenieros eficacia y facilidad para las comunicaciones.
Eléctricos y Electrónicos (IEEE, Std. 610-1990) ―La Volumen y tasa de E/S: Propiedades del software
calidad del software es el grado con el que un sistema, requerido para aprender el manejo del software, todo lo
componente o proceso cumple los requerimientos relacionadas con introducción y salida de datos,
especificados y las necesidades o expectativas del cliente consiguiendo los resultados esperados.
o usuario‖ [16]. Datos comunes: Propiedades del software que establece la
―El cumplimiento de los requisitos de funcionalidad y posibilidad de compartir datos o información con otro
desempeño explícitamente establecidos con los requisitos software.
de funcionalidad y desempeño explícitamente establecido,
de los estándares de desarrollo explícitamente Factor 2: Seguridad (integridad). Grado en el que se
documentados y de las características implícitas que se puede controlar el acceso ilegal al software o a los datos,
espera de todo software desarrollado profesionalmente‖ de personal no autorizado.
[20]. Criterios que se deben evaluar:
Como se menciona en [61], donde el Instituto de Control y auditoria de acceso: Atributos del software que
Ingenieros Eléctricos y Electrónicos (IEEE), presenta su ayuda a ejercer mejor control de acceso al manejo del
definición: ―La calidad del software es el grado con el que software.
un sistema, componente o proceso cumple los Integridad de datos: Hasta que sitio se puede permitir el
requerimientos especificados y las necesidades o acceso al software, por parte de las personas.
expectativas del cliente o usuario‖. ―La calidad se define
como cumplimiento de requisitos‖ [11]. Factor 3: Eficiencia. Es la necesidad de la cantidad de
2.2 Modelos de calidad de Software recursos físicos (hardware) y lógicos (software) que
Existen un sin numero de modelos de calidad de software, requiere el software para llevar a cabo sus funciones.
en este trabajo se presentaran los màs representativos. Es Criterios que se deben evaluar:
de aclar que existen varios modelos enfocados a la calidad Eficiencia de almacenamiento: La cantidad de recurso
del producto y otros a la calidad del proceso en el físico (hardware), necesario para que el software pueda
desarrollo de software. procesar sus necesidades.
Eficiencia de ejecución: Propiedades del software que
proporciona el mínimo de recurso de tiempo de ejecución.
2.2.1 Modelo de Calidad de McCall
El modelo de McCall Jim A., plantea calidad del software Factor 4: Corrección (exactitud). Es el grado en que
desde el punto de vista del producto, y desde tres aspectos cumple las especificaciones y satisface los objetivos
y/o capacidades importantes operación del producto, propuestos.
revisión del producto, y transición del producto, a su vez Criterios que se deben evaluar:
Compleción: Propiedades del software necesarias para la
355
implantación de todas las funciones requeridas. Modularidad: Propiedades del software que proporcionan
Trazabilidad: Propiedades del software al proporcionar una estructura de módulos independientes.
una traza o pista o rastro, desde los requisitos a la Instrumentación: Propiedades del software que
implantación respecto al desarrollo del software. proporcionan la posibilidad de examinar el
Consistencia: Propiedades del software que proporcionan comportamiento del software al momento de su ejecución.
técnicas, documentos coherentes en las diferentes etapas o
pasos en el desarrollo del software. Factor 8: Flexibilidad. Grado de esfuerzo necesario para
modificar el software en funcionamiento.
Factor 5: Fiabilidad. Es el grado o la probabilidad que el Criterios que se deben evaluar:
software funcione sin errores o sin fallas. Autodescriptivilidad: Propiedades del software que
Criterios que se deben evaluar: proporcionan explicaciones detalladas de cada parte del
Precisión: Propiedades del software que proporcionan el software.
grado de exactitud en los resultados esperados del Modularidad: Propiedades del software que proporcionan
software. una estructura de módulos independientes.
Tolerancia a errores: Propiedades del software que Capacidad de ampliación: Propiedades del software que
posibilitan la continuidad del funcionamiento bajo proporcionan facilidades para agregar capacidades
condiciones no usuales. funcionales o datos al sistema.
Simplicidad: Propiedades del software que posibilitan la Generalidad: Propiedades del software que proporcionan
implementación de funciones de la forma más holgura a las funciones realizadas.
comprensible posible.
Concisión: Atributos del software que posibilita la Características asociadas a la capacidad de transición del
concreción de código fuente en el desarrollo. producto
Características asociadas a la capacidad de revisión del Tiene que ver con medir si el software tiene la capacidad
producto. Está relacionada con el mantenimiento, de ser reutilizable, independencia del hardware y software
corrección de errores y facilidad de pruebas del software. donde esta instalado, evaluar el diseño del software.
356
una estructura de módulos independientes. software (componente lógico - sistema operativo).
Independencia de la maquina: Propiedades del software Criterios que se deben evaluar:
que independencia del componente físico o hardware, es Independencia del dispositivo: Son aquellos factores de
decir, que tan independientes es el software del hardware. independencia entre los cálculos o cómputos que realiza el
Independencia del software del sistema: Propiedades del software y la configuración del computador. Es decir, si el
software que proporcionan su independencia de la software puede ser ejecutado en otro hardware con
plataforma donde se desempeña, es decir, hasta donde el diferente configuración.
software es independiente del sistema operativo. Auto-contenido: es la facilidad del software para
almacenar la información antes de ser usada, y la correcta
Factor 11: Interoperatividad. Grado de esfuerzo colocación de los dispositivos de entrada/salida antes de
necesario para operar conjuntamente con otro software. ser usados.
Criterios que se deben evaluar:
Datos comunes: Propiedades del software que establece la Factor 2: Fiabilidad. La capacidad del software para
posibilidad de compartir datos o información con otro mantener un determinado nivel de rendimiento cuando se
software. utiliza en determinadas condiciones.
Modularidad: Propiedades del software que proporcionan Criterios que se deben evaluar:
una estructura de módulos independientes. Auto-contenido: es la facilidad del software para
Comunicaciones comunes: Propiedades del software que almacenar la información antes de ser usada, y la correcta
ayudan a una facilidad de comunicación con otro colocación de los dispositivos de entrada/salida antes de
software. ser usados.
Exactitud: Capacidad del software para proporcionar los
En resumen el modelo de McCall, contempla tres (3) resultados esperados o convenidos, también es el grado de
capacidades, llamadas también visión del usuario, pues es precisión del software.
lo que realmente le interesa a este, es decir, la parte Robustez / Integridad: Es el grado en que el software
superficial del modelo. Además, McCall, contempla en su sigue ejecutándose o sigue funcionando correctamente en
modelo once (11) factores, que es la visión de la condiciones o circunstancias anormales.
dirección, hacer énfasis en las tareas un poco mas Coherencia / Consistencia: es el uso de un diseño muy
detalladas del modelo, los aspectos importantes para la similar y técnicas de documentación del software, por
dirección del proyecto de desarrollo del software. Y por ejemplo la definición de las diferentes variables y
ultimo veintitrés (23) criterios, también llamados, la constantes dentro del código fuente del software.
visión del desarrollador, es decir, las tareas con mayor
detalle que le interesan a quien hace el desarrollo del Factor 3: Eficiencia. Capacidad del software para
software. proporcionar funcionamiento apropiado, en relación con
la cantidad de recursos usados, en unas condiciones
determinadas.
2.2.2 Modelo de Calidad de Boehm Barry Criterios que se deben evaluar:
El modelo planteado por Boehm Barry W., Brown J. R., Responsabilidad: El software presta el servicio de acuerdo
Lipow M., Macleod G. J., Merritt, M. J. (1978), muy a su uso.
similar al modelo de McCall Jim, pero, Boehm, presenta Eficiencia de dispositivo: Es el grado de validez del
algunas características adicionales, fuera de las existen en software en función de los dispositivos de entrada/salida.
el modelo de McCall. Se encuentran en los dos modelos Accesibilidad: Es el grado con que la interfaz del software
similitudes de características que ayudan a lograr una permite al usuario realizar sus tareas especificas.
calidad total del software. El modelo de Boehm presenta
siete (7) factores y doce (15) criterios. Boehm, recalca Factor 4: Ingeniería Humana. Es una de las
mucho en su modelo, que el software debe ser útil al características más importantes donde se tiene en cuenta el
usuario, de lo contrario se ha perdido tiempo, dinero, recurso humano, sin el cual seria difícil cualquier labor, se
mano de obra y esfuerzo. Es decir, el software debe hacer consideran varios factores entre ellos: motivación,
lo que el usuario necesita que haga, utilizar los recursos responsabilidad, realización como persona,
físicos de manera correcta, también el software debe ser reconocimientos, posibilidad de superación, ascensos,
fácil de aprender a usar. salario y otras.
Factor 1: Portabilidad. Es la capacidad que tiene el Factor 5: Comprobabilidad. Facilidad con que una
software para poder transferirse de un entorno a otro, este aplicación o componente de un software facilita la
entorno se refiere a nivel hardware (componente físico) y creación y ejecución de pruebas con éxito, es decir,
pruebas que puedan causar fallos debidos a defectos
357
subyacentes. Medición. La medición de la calidad del software, inicia
Criterios que se deben evaluar: en la fase de desarrollo. Es decir, el software inicia la
Responsabilidad: El software presta el servicio de acuerdo medición con la aplicación de estándares en la
a su uso. codificación del programa. La parte compleja de medir
Accesibilidad: Es el grado con que la interfaz del software tienen como base en las funciones de decisión (IF-THEN-
permite al usuario realizar sus tareas especificas. ELSE, CASE, y DOWHILE).
Comunicación: Es la facilidad de las entrada en su forma Productividad. El autor considera que las métricas son
para el ingreso de la información. una herramienta importante para desarrollar mediciones
Auto-Descriptivo: Es la facilidad del software para el de la calidad del software, donde estas mediciones se
almacenamiento de la información antes de hacer uso del pueden utilizar para medir la productividad. Los dos tipos
software. de medidas son: medidas de tamaño (como las líneas
Estructuración: El software posee un claro patrón de ejecutables de código) y medidas de complejidad (que se
organización entre sus partes interdependientes. relacionan con declaraciones de decisión en un programa).
Calidad. La calidad del software es un subconjunto de
Factor 6: Comprensibilidad. Es la capacidad del medidas donde se enfocan características de calidad del
software para permitir al usuario entender o comprender, producto de software, de procesos del proyecto. Entre las
si ese software es conveniente y como puede ser usado mas importantes: Adaptabilidad, Completitud,
para tareas particulares en las condiciones de empleo Complejidad, Concisión, Corrección, Eficiencia,
necesarias. Expandible, Independencia del hardware, Operabilidad,
Criterios que se deben evaluar: Transportabilidad, Legibilidad, Fiabilidad, Robustez,
Coherencia / Consistencia: es el uso de un diseño muy Adaptabilidad, simplicidad, independencia del software,
similar y técnicas de documentación del software, por entre otras. Pero, Arthur, encontró cinco errores más
ejemplo la definición de las diferentes variables y importantes en la calidad que siempre suceden: se centran
constantes dentro del código fuente del software. más en los resultados, mas que en el aprendizaje. La falta
Auto-Descriptivo: Es la facilidad del software para el de concentración. La falta de ayuda. Se trata de involucrar
almacenamiento de la información antes de hacer uso del a todo el mundo y la enseñanza de la teoría en lugar de
software. desarrollo del mundo real.
Estructuración: El software posee un claro patrón de Métrica de Complejidad. Tiene que ver el número de
organización entre sus partes interdependientes. caminos que sigue el software (programa). Es decir, los
Concisión: Es la compactación del programa en términos caminos que toma dependiendo del tipo de ciclo que
de líneas de código desarrolle, esto se evidencia en el programa fuente del
Legibilidad: El modelo posee la característica que su software.
función fácilmente es distinguida por leer el código. Métrica de Corrección. Es la medida en que un software
(programa) satisface las especificaciones (requisitos) y
Factor 7: Modificabilidad. Es la capacidad del software cumple con las del usuario.
para ser variado, las modificaciones pueden ser Métrica de Eficiencia. Es la capacidad del software de
correcciones y/o mejoras y/o adaptaciones. permitir un buen rendimiento, en relación con la cantidad
de recursos utilizados, es decir, el grado de efectividad
Criterios que se deben evaluar: con el uso de los recursos, como hardware, software,
redes.
Estructuración: El software posee un claro patrón de Métrica de Flexibilidad. Es el esfuerzo requerido para
organización entre sus partes interdependientes. modificar un software (programa), para adaptarlo a otro
Aumentabilidad: Es la capacidad del software para medio diferente al que fue inicialmente diseñado.
adaptarse a otras funciones o componentes Métrica de Integridad. Es la medida en que el acceso a
computacionales o exigencias de almacenamiento de programas o datos por personas no autorizadas pueden ser
datos. controladas.
Métrica de Interoperabilidad. Es la capacidad del software
para interactuar con uno o varios sistemas.
2.2.3 Modelo de Calidad de Arthur Jay Lowell Métrica de Mantenimiento. Es la capacidad del software
El modelo de Arthur Lowell Jay, presenta varios criterios (programa) para recibir modificaciones como
para la evaluar un software. De estos criterios existen correcciones, mejoras o adaptación a un nuevo ambiente
algunos ya estudiados por otros autores del tema, entre de trabajo, cambio de en los requisitos.
otros, McCall y Boehm. Métrica de Portabilidad. Es el esfuerzo para transferir un
Criterios que se deben evaluar: software (programa) de una configuración determinada a
nivel de hardware y software a otro.
358
Métrica de Fiabilidad. Es la capacidad del software sistema o todo a otro sistema.
(programa) para mantener un nivel determinado de Intercambio: Capacidad del sistema para modificar
rendimiento cuando se utiliza en determinadas componentes de sistema.
condiciones. Actualización Es la capacidad del sistema para ser
Métrica de Reutilización. Es la facilidad con que un modificado por los diseñadores del sistema.
software (programa) o parte de él (modulo o componente) Instalabilidad: Es la puesta en marcha del sistema, donde
puede ser utilizado en otros programas. involucra la instalación del código, las nuevas versiones
Métrica de Estructura. Cuando el software posee un claro del sistema.
patrón de organización entre sus partes interdependientes. Portabilidad: Es la viabilidad para transportar un sistema
Métrica de Comprobabilidad. Es la facilidad con que un de un ambiente inicial a otro ambiente, donde se incluye
software facilita la creación y ejecución de pruebas con la portabilidad de: datos, lógica, medios de comunicación.
éxito, pruebas que puedan causar fallos debidos a Mejoramiento: Es la facilidad de reemplazar componentes
defectos. del sistema por otros que poseen mejor: función,
Métrica de Usabilidad. Es la capacidad del software para actuación, costo y/o plan.
ser comprendido, aprendido, usado y atractivo para el
usuario, cuando se usa. Factor 3. Utilidad. Es la facilidad de poder usar un
Aplicación de Métricas de Software. Las métricas son sistema.
usadas para cuantificar el software, los recursos para el
desarrollo de software y procesos de desarrollo de Nivel de experiencia en la entrada. Es el nivel de
software. conocimientos necesarios para que debe recibir de
entrenamiento el usuario para usar el sistema.
Entrenamiento de requisitos: Es el grado de
2.2.4 Modelo de Calidad de Gilb Tom adiestramiento al usuario, para lograr cierta habilidad con
El modelo de Gilb presenta sus factores y criterios, el sistema.
siguientes: Habilidad de manejo. Es el grado de habilidad al
maniobrar el sistema.
Factor 1: Disponibilidad. Es la disposición de un sistema Agradable. Es el grado con que los usuarios declaran estar
para realizar su trabajo para lo que fue diseñado. contentos con el sistema.
Criterios que se deben evaluar: Demostrabilidad. Es medir requisitos completamente,
Disponibilidad Es el grado en que un sistema funciona incluye requisitos elementales de calidad, demostración al
para lo que fue desarrollado, en lugar de hacer otra cosa, cliente o auto demostración, y demostraciones de ventas.
como producir una respuesta equivocada.
2.2.5 Modelo de Calidad de Dromey Geoff
Mantenimiento Es la medida de rapidez con que un
sistema puede ser llevado a un estado fiable y es la El modelo de Dromey, maneja siete criterios, de la manera
reparación de algún error, modificación o daño, en el siguiente:
software.
Integridad Es la medida de confianza con que el sistema Factor 1: Funcionalidad. Es una particularidad de
no ha sufrido ningún daño o la seguridad no ha sido calidad que depende de dos cosas: las propiedades de
violada. corrección y el grado de exactitud de la funcionalidad del
sistema. Las propiedades del producto que tienen que ver
Factor 2: Adaptabilidad. Es la medida de capacidad del con la funcionalidad son: calculable, completo, asignado,
sistema al cambio. preciso, inicializado, progresivo, variable, consistente,
estructurado, encapsulado y especificado.
Criterios que se deben evaluar: Calculable: Si sólo involucra cálculos o cómputos que
Flexibilidad Es la capacidad del sistema para adaptarse o obedecen las normas de la teoría de la computación y
ser adaptado por sus usuarios para satisfacer algunas están dentro de los límites definidos por el software, el
condiciones sin ninguna modificación fundamental del lenguaje de programación y/o la máquina.
sistema. Completo: Es la propiedad de estar acabado el software,
Conectividad Es el sopote como fue construido el sistema es decir, cuando tiene todos los elementos necesarios para
para poder conectarse a otras interfaces. que pueda realizar su papel, para el cual fue desarrollado.
Adaptabilidad: Es la capacidad de poderse modificar el Asignado: Es una especialización de la propiedad de
sistema y poder adaptarse a otras condiciones. integridad, usada específicamente por las variables, es el
Extensión: Es la capacidad de agregar una parte del valor que recibe una variable, ya sea de entrada o
359
asignada por parámetros, antes de usarse. para que funciones en otras plataformas o sistemas.
Preciso: Cuando una variable o constante se teclea Existen tres cosas primarias que afectan la portabilidad
imprecisamente. son las dependencias de la máquina, dependencias del
Inicializado: Cuando una estructura de lazo es recopilador y las dependencias del sistema operativo.
inicializada, todas las variables en el lazo son
inicializadas. Esta característica es una especialización de Factor 7: Reutilizabilidad. Es la facilidad del software
la característica asignada esto Se aplica a lazos, en la para adaptarse y modificase al momento de emplearlo en
programación del código del software. otros contextos sin el más mínimo cambio. La
Progresivo: Un loop o vuelta en el algoritmo de reutilización depende de la funcionalidad claramente del
recursividad es progresivo si hay evidencia clara que la software y su precisión.
estructura, hace el progreso hacia la terminación con cada
iteración o la recursividad llama la función asociada.
Variante: Es un guardia del loop, o guardia inductivo en la 2.2.6 Modelo de Calidad: FURPS
estructura recursividad. FURPS, es un modelo de calidad de software diseñado
Consistente: Si el uso de la estructura es consistente y por Hewlett-Packard, en el año 1970, al que se le ha dado
mantiene sus propiedades o funcionalidad de todos sus el nombre con el acrónimo en ingles FURPS
elementos. (Functionality, Usability, Reliability, Performance,
Estructurado: hace referencia a que en la programación Serviceability), o Funcionalidad, Usabilidad, Fiabilidad,
del software, debe haber sólo un solo punto de entrada y Rendimiento y Capacidad de Soporte.
solo una de salida.
Encapsulado: Las variables que son usadas puede tener un Factor 1: Funcionalidad. El software tiene la función
impacto significativo sobre la modularidad y de ahí necesaria para lograr la tarea solicitada.
depende la calidad de autonomía de los módulos del Factor 2: Utilidad. El software es fácil de usar o de
software. aprender en función de lograr la tarea deseada.
Especificado: Si la funcionalidad es descrita según Factor 3: Fiabilidad. Se refiere a la frecuencia y
condiciones previas, de un módulo o programa, se dice gravedad del software en los posibles errores.
que son especificados. Factor 4: Rendimiento. Es la eficiencia, es decir, con la
velocidad que el software ejecuta sus funciones. Se
Factor 2: Fiabilidad. La fiabilidad del software depende incluyen en general el rendimiento, la utilización de
en gran medida de las propiedades de la funcionalidad, es memoria y el tiempo de respuesta.
decir las propiedades de corrección de un programa. La Factor 5: Utilidad. Se relaciona con el soporte técnico, el
diferencia se presenta cuando un programa puede ser tiempo de respuesta, calidad de las correcciones y
correcto en lo que concierne a su especificación, y por lo facilidad de procedimientos de instalación.
tanto satisfacer sus exigencias funcionales y aún fallar
porque las entradas no satisfacen la condición previa
esperada. 2.2.7 Modelo de Calidad de Barbacci Mario
Según IEEE, la calidad de software es el grado que posee
Factor 3: Utilidad. Evalúa la calidad de la interfaz del el software en una combinación deseada de atributos (por
usuario (botones, menús, entre otros), plan y ejemplo, fiabilidad, interoperabilidad). Los atributos de
características del ambiente del software. calidad del software, parten desde el diseño de sistemas
críticos, donde se identifican los requisitos del software
Factor 4: Eficacia. Es la medida de la redundancia en vías de desarrollo, es allí donde se asigna recursos
computacional y la lógica. Son estos dos factores los que apropiados, como el procesador, la red de
más afectan la eficacia del software. Existe gran cercanía comunicaciones. Los sistemas deben satisfacer la
entre la estructura de control de programa y la estructura seguridad, la confiabilidad, en general todos los aspectos
de los datos, también define la diferencia de la eficacia del definidos en los requisitos.
software. El modelo contempla factores tales como:
Factor 5: Mantenimiento. Existen dos aspectos Factor 1: factores de rendimiento. Son los aspectos del
importantes a tener en cuenta: el software debe sistema que contribuyen a al rendimiento, estos incluyen
especificarse claramente y bien documentado, así se las exigencias del medio ambiente y el sistema de
permitirá realizar un mantenimiento completo y más fácil. respuestas a estas demandas. Se miden los siguientes
atributos: Latencia, Rendimiento, Capacidad y Modos.
Factor 6: Transportabilidad. Es el número de cambios a Latencia: Es el intervalo de tiempo que transcurre en la
compilar y ejecutar que es necesario realizar al software,
360
respuesta a un evento cuando es ejecutado, este intervalo sistemas informáticos.
en el software esta dado por un tiempo de partida (latencia
mínima) y un tiempo de finalización (latencia máxima). Integridad: Es la exigencia para que los datos y los
Rendimiento: El rendimiento se refiere al número de casos procesos sean protegidos, ante cualquier modificación no
donde las respuestas se han completado en más de un autorizada.
intervalo de observación. Por ejemplo, un sistema puede Disponibilidad: La disponibilidad de un sistema es la
procesar 120 transacciones por hora, pero eso no medida de su preparación para el uso.
garantiza que el dos (2) transacciones se han procesado
por minuto. Tal vez no se procesan las transacciones Factor 4: Deficiencias de seguridad. Son los aspectos del
durante los primeros 30 minutos y todas las transacciones sistema que contribuyen a la falta de seguridad, tal como
son procesadas durante los restantes 30 minutos. los riesgos, que son condiciones de errores o accidentes
Capacidad: Es la medida de la cantidad de trabajo que un voluntarios o involuntarios que llevan a consecuencias
sistema puede realizar y se mide en términos de indeseables. Se miden los siguientes atributos:
rendimiento. Que es el número máximo de eventos por Complejidad de Interacción y Fuerza de acoplamiento.
unidad de tiempo que puede lograrse si se puede escoger Complejidad de Interacción: Es el grado en el cual el
el número teóricamente ideal. En las redes esto se llama el comportamiento de un componente puede afectar el
ancho de banda, que normalmente se expresa en mega bits comportamiento de otros componentes.
por segundo. Fuerza de acoplamiento: Esta fuerza se extiende desde el
Modos: Se caracteriza por el estado de la demanda puesta acoplamiento flojo o suelto al acoplamiento apretado o
en el sistema y el estado del sistema, es decir, la firme y es el grado en el cual hay flexibilidad en el sistema
configuración de los recursos utilizados para satisfacer la para permitir eventos no planificados. Los sistemas Fuerte
demanda. Dos situaciones comúnmente encontradas son la acoplados tienen Procesos más dependientes del tiempo:
reducción de la capacidad y la sobrecarga. ellos no pueden esperar, las secuencias son más invariante
y el diseño total tiene alternativas muy limitadas en cuenta
Factor 2: Deterioro de la confiabilidad. Son los aspectos en el modo de hacer El trabajo. Los procesos débilmente
del software que contribuyen a la falta de confianza en el acoplados puede ser retrasados o ponerse en reserva, las
sistema. Se ha detectado que existe estrecha relación entre secuencias pueden ser modificadas y el sistema
los errores internos y externos del software. Se miden los reestructurado, tanto como hacer diferentes tareas o el
siguientes atributos: Disponibilidad, Fiabilidad, mismo trabajo de diferentes formas.
Mantenimiento, Seguridad, Confidencialidad, Integridad.
Disponibilidad: La disponibilidad de un sistema es la
medida de su preparación para el uso. 2.2.8 Modelo de Calidad ISO/IEC 9126
Fiabilidad: Es la medida de capacidad de un sistema para La norma de calidad ISO/IEC 9126 [18], fue creada por la
seguir funcionar con el tiempo. Organización Internacional para la estandarización (ISO)
Mantenimiento: Es la capacidad de un sistema para en 1991. La norma pretende definir un modelo de calidad
soportar la reparación y el perfeccionamiento. para el software y unas pautas por medir las características
asociadas al software. La norma ISO/IEC 9126 Software
Seguridad: Se define como la ausencia de consecuencias engineering – Product quality consta de 4 partes:
catastróficas ISO/IEC 9126-1:2001 Software engineering -- Product
en el medio ambiente de sistemas. Se dice que un sistema quality -- Part 1: Quality model
es seguro o no es seguro. ISO/IEC TR 9126-2:2003 Software engineering --
Confidencialidad: Es la no divulgación de información, la Product quality -- Part 2: External metrics
protección de los datos del sistema, la protección de los ISO/IEC TR 9126-3:2003 Software engineering --
sistemas informáticos. Product quality -- Part 3: Internal metrics
Integridad: Es la exigencia para que los datos y los ISO/IEC TR 9126-4:2004 Software engineering --
procesos sean protegidos, ante cualquier modificación no Product quality -- Part 4: Qualit in use metrics
autorizada.
Factor 3: Factores de seguridad. Son los aspectos del Factor 1: Funcionalidad. Es el grado con que el software
software que contribuye a la seguridad, tales como la cumple la existencia de un conjunto de atributos,
interfaz y los rasgos internos del kernel. Se miden los funciones y propiedades especificadas del software que
siguientes atributos: Confidencialidad, Integridad y satisfagan las necesidades para las cuales fue diseñado.
Disponibilidad. Las subcaracterísticas o criterios son: Conveniencia,
exactitud, Interoperatividad, seguridad, funcionalidad y
Confidencialidad: Es la no divulgación de información, la complacencia de funcionalidad.
protección de los datos del sistema, la protección de los
361
Criterios que se deben evaluar: Conformidad de usabilidad: Es la capacidad del software
Conveniencia: Es la capacidad del software para mantener para cumplir las normas, convenciones, guías o
fijas apropiadamente las funciones o tareas especificadas regulaciones que tienen relación con la utilidad.
y objetivos del usuario.
Exactitud: Permite evaluar si el software proporciona Factor 4: Eficacia. Capacidad del software para
resultados o efectos de acuerdo con las necesidades para proporcionar un rendimiento apropiado. Las
las cuales fue creado. subcaracterísticas o criterios son: Comportamiento del
Interoperatividad: Es la capacidad del software para tiempo, Utilización del recurso y Cumplimiento de
interactuar o acoplarse con otros sistemas previamente eficacia.
especificados. Comportamiento del tiempo: Es gasto de tiempo de
Seguridad: Es la habilidad del software para prevenir el respuesta del software ante un procesamiento.
acceso autorizado o no, a los programas y datos. Utilización del recurso: Es el grado en que el software usa
Funcionalidad: Es el conjunto de funciones y propiedades eficazmente los diferentes recursos, como hardware,
específicas establecidas en el software, tiene que ver con software, red, medios de comunicación y otros.
los requisitos de funcionalidad. Cumplimiento de eficacia: Es la capacidad del software
Complacencia de funcionalidad: Es la capacidad del para cumplir las normas, convenios, que tiene que ver con
software para cumplir las normas, convenios o leyes, que la eficiencia.
tiene que ver con la funcionalidad.
Factor 5: Mantenimiento. La capacidad del software
Factor 2: Fiabilidad. El software debe cumplir el para ser modificado (correcciones, mejoras o adaptación.
objetivo para que construido de manera satisfactoria. Las Las subcaracterísticas o criterios son: Analizabilidad,
subcaracterísticas o criterios son: Madurez, tolerancia a Variabilidad, estabilidad, Estabilidad y La Cumplimiento
fallos, Recuperabilidad, fiabilidad y complacencia de de mantenimiento.
fiabilidad.
Criterios que se deben evaluar: Analizabilidad: La capacidad del software para permitir
Madurez: Es capacidad del software para evitar el fracaso ser diagnosticado referente a deficiencias o causas de
como resultado. fracasos.
Tolerancia a fallos: Es el daño que puede ocurrir cuando Variabilidad: Es la capacidad del software para permitir
el software encuentra un error. una modificación especifica.
Recuperabilidad: Es la capacidad del software que tiene Estabilidad: Es la capacidad del software para evitar
para restablecerse desde un nivel especifico. efectos inesperados cuando se realizan modificaciones.
Fiabilidad: Es la probabilidad que el software cumpla el Estabilidad: Capacidad del software para validar el
objetivo de manera satisfactoria sin errores o fallos en un software modificado.
determinado periodo de tiempo. Cumplimiento de mantenimiento: Es la capacidad del
Complacencia de fiabilidad: Es la capacidad del software software para cumplir las normas, convenios, que se
para cumplir las normas, convenios o leyes, que tiene que relacionan con la capacidad de mantenimiento.
ver con la fiabilidad.
Factor 6: Portabilidad. Es la capacidad del software al
Factor 3: Utilidad. Es la capacidad del software para permitir ser trasladado de un medio (hardware y/o
permitir al usuario entender o comprender, si ese software software) a otro. Las subcaracterísticas o criterios son:
es conveniente y como puede ser usado para tareas Adaptabilidad, Inestabilidad, Co-existencia, Reemplazo y
particulares en las condiciones de empleo necesarias. Las Cumplimiento de portabilidad.
subcaracterísticas o criterios son: Comprensible,
Aprendizaje, Operabilidad, Atractivo y Conformidad de Adaptabilidad: Capacidad del software para adaptarse a
usabilidad. diferentes ambiente de hardware o software determinados,
Criterios que se deben evaluar: sin cambios distintos a los previstos inicialmente.
Comprensible: Es la capacidad del software para Instabilidad: La capacidad del software para ser instalado
permitirle al usuario entenderlo y usarlo para las tareas en en un entorno determinado.
particular. Co-existencia: Es la capacidad del software para convivir
Aprendizaje: Capacidad del software para permitir que el con otros programas independiente del entorno común que
usuario aprenda a operarlo. compartan los dos o mas programas.
Operabilidad: Propiedades del software que determina el Reemplazo: Capacidad del software para ser sustituido en
grado de facilidad de operación del software. lugar de otro software, para el mismo propósito, en el
Atractivo: Capacidad del software para que resulte mismo entorno.
agradable al usuario al momento de operarlo. Es la capacidad del software para cumplir las normas,
362
convenios, relacionadas con la capacidad de portabilidad. tr22.92.pdf [Consultado:29-Ago-10].
3. 3. CONCLUSIONES [2] Arthur Lowell Jay. (1993). Improving Software
Es importante conocer los factores, criterios y métricas, Quality An Insider's Guide to TQM. New York: Jhon
que existen y se deben tener en cuenta al momento de Wiley & Sons, Inc. - ISBN 0471578045.
realizar la evaluación de un software, para determinar el [3] Asentti.com. (2006). BPM. [En linea] Disponible en:
nivel de calidad del producto. Entre los modelos http://www.cepra.com.mx/asentti_v2/documentos/sinopsis
analizados se puede hallar que varios de ellos, presentan /tendencias_bpm.pdf [Consultado:20-Ago-10].
factores comunes como: Fiabilidad, Usabilidad, [4] Barbacci, Mario R., Klein, Mark H., Weinstock,
Mantenimiento, Eficiencia, y la Transportabilidad. En Charles B. . (1997). Principles for Evaluating the Quality
promedio cada modelo hace uso de ocho (8) factores de Attributes of a Software Architecture. [En línea]
calidad y mientras que a nivel de criterios el promedio es Disponible en:
de dos (2), esto se presenta debido a la óptica del autor, ftp://ftp.sei.cmu.edu/pub/documents/96.reports/pdf/tr036.
donde algunos modelos se les llama factor y en otros 96.pdf [Consultado:28-Ago-10].
criterios o viceversa. Uno de los modelos ilustrados [5] Basili, Victor R. Mashiko, Yasuhiro. (1997). Using the
(modelo de Boehm) llama la atención pues, es el único de GQM paradigm to investigate influential factors for
los estudiados que, tiene en cuenta el recurso humano. software process improvement. New York, NY, USA:
También se observó que en algunos modelos, lo que Publisher Elsevier Science Inc. Volume 36 , Issue 1 (Jan.
tienen como factores, en otro modelo se encuentra como 1997 ) - ISSN:0164-1212 .
criterio y una buena parte de los modelos presentan [6] Boehm, B.; Brown, J.R.; Lipow, M. (1976).
criterios que otros no lo contemplan. Quantitative Evaluation of Software Quality -
International Conference on Software Engineering
Como se mencionó por varios autores, BPM, aparece Proceedings of the 2nd international conference on
como metodología para mejorar la eficiencia en los Software engineering. San Francisco, California, United
procesos empresariales, es decir, que con BPM, es posible States : [En línea] Disponible en:
mejorar cada una de las fases de ingeniería de software, de http://portal.acm.org/citation.cfm?id=807736
manera que al final se tenga un producto con calidad, [Consultado:28-Ago-10].
basado en los factores de calidad. Cuando se desarrolla [7] Boehm Barry W.; Brown, J. R.; Kaspar, H.; Lipow,
software, es necesario aplicar algún paradigma o modelo M.; MacLeod, G. J.; Merrit, M. J. (1978). Characteristics
de ingeniería de software, la más conocida tiene unas of Software Quality. North-Holland, Nueva York: ISBN-
etapas, como: planeación, análisis, diseño, codificación, 13: 978-0444851055.
implementación y mantenimiento. Al observar el ciclo de [8] pmchile.org. (2008). ¿Qué es BPM? [En linea]
vida de BPM, se observa que existen algunas etapas muy Disponible en: http://www.bpmchile.org/ [Consultado:21-
similares a las usadas en ingeniería de software. Ago-10].
[9] bpmotion.sisorg.com.mx. (2009). Qué es BPM . [En
Con la implementación de este tipo de estudio en las linea] Disponible en:
empresas dedicadas al desarrollo de software, es muy http://bpmotion.sisorg.com.mx/bpm.html [Consultado:11-
probable que con la ayuda de BPM, mejoren may-09].
significativamente su calidad. Es bien sabido que BPM, [10] Cooper Mark y Paul Patterson. (2007). Business
maneja algo llamado Workflow o flujo de trabajo, lo cual Process Management (BPM) Definición y Soluciones
con esta característica, se podrá diseñar las etapas ¿Qué es BPM? [En linea] Disponible en:
necesarias de ingeniería de software y cada una de ellas http://translate.google.com/translate?sourceid=navclient&
con su correspondiente proceso de calidad, de ser así al hl=es&u=http%3a%2f%2fwww.cio.com%2farticle%2f10
final se tendrá un producto con calidad. Tal como lo 6609 [Consultado: 23-Ago-10].
menciona IBM, ―BPM permite a las empresas sobrevivir [11]Crosby Phillip B. (2007). Introducción a los procesos
y prosperar en cualquier economía, permitiendo una de mejora contínua. [En línea] Disponible en:
respuesta más rápida a la evolución de las expectativas http://www.wikilearning.com/curso_gratis/introduccion_a
del cliente y demandas del negocio. Y si es basado en _los_procesos_de_mejora_continua-
arquitectura orientada a servicios (SOA), BPM permite teoria_de_phillip_b_crosby/10913-10 [Consultado:16-
desarrollar los procesos de negocio dinámicos que son Ago-10].
fáciles de cambiar‖. [12] Rob Davis and Eric Brabänder . (2007). ARIS
Design Platform Getting Started with BPM. London:
4. BIBLIOGRAFÍA Springer-Verlag - ISBN-13: 978-1-84628-612-4.
[1] Arthur, J. (1984). Software Quality Measurement. [13] e-ngenium.blogspot.com. (2009). Que es un BPM
Datamation - Barrington: [En línea] Disponible (Business Process Management)? . [En linea] Disponible
en:http://www.sei.cmu.edu/pub/documents/92.reports/pdf/ en: http://e-ngenium.blogspot.com/2009/03/que-es-un-
363
bpm-business-process.html [Consultado: 11-Ago-10]. ago-09].
[14] Footen John & Faust Joey. (2008). The service- [20] Pressman Roger. (2006). Ingeniria del software.
oriented media enterprise : SOA, BPM, and web services Mexico: McGraw-Hill Interamericana -
in professional media systems. Burlington, MA 01803, ISBN:9701054733 Pag.463.
USA: Focal Press is an imprint of Elsevier ISBN 978-0- [21] soaagenda.com. (2009). Que es BPM, Que es BPMS.
240-80977-9. [En linea] Disponible en:
[15]Michael Havey . (2005). Essential Business Process http://soaagenda.com/journal/articulos/que-es-bpm-que-
Modeling . Sebastopol, CA 95472: O'Reilly Media, Inc., es-bpms/ [Consultado: 11-Ago-09].
ISBN: 0-596-00843-0 . [22] Solingen Rini Van, Egon Berghout. (1999).
[16] IEEE. (2002). La Calidad del Software. [En Línea] Goal/Question/Metric Method. AUSTRALIA : Publisher:
Disponible en: McGraw-Hill Professional - ISBN-13: 9780077095536.
http://dmi.uib.es/~bbuades/calidad/sld014.htm [23] Weske Mathias (2007). Business process
Consultado:15-Ago-10]. management concepts languages architectures . New York
[17] Organización Internacional para la Estandarización : Springer Berlin Heidelberg - ISBN 978-3-540-73521-2 .
ISO8402. (1994). Quality, ISO 8402. [En línea] [24] CUMMINS FRED. (2009). Building the agile
Disponible en: http://squac.iti.upv.es/glosario- enterprise with SOA, BPM and MBM. Lexington,
calidad/task,showpart/part,C/catid,30/ [Consulta: 16-Ago- Massachuset USA: Object Management Group, Inc.
10]. ISBN: 978-0-12-374445-6.
[18] ISO/IEC 9126-1:2001. (2001). Software engineering [25] Grupos de Ingenieria de Software y del conocimiento
— Product quality. [En línea] Disponioble en: de la Universidad de la Palmas de la Gran Canaria.
http://webstore.iec.ch/preview/info_isoiec9126- (1999). Garantía de calidad del software. Gran Canaria:
1%7Bed1.0%7Den.pdf [Consultado:20-Ago-10]. [En línea] Disponible en:
[19] Microsoft Corporation. (2006). La Arquitectura http://serdis.dis.ulpgc.es/~a013775/asignaturas/ii-
Orientada a Servicios (SOA) de Microsoft aplicada al is2/Apuntes/UT09.%20Garant%C3%ADa%20de%20cali
mundo real. [En linea] Disponible en: dad%20del%20software.pdf [Consulta: 16-ago-09]
http://www.willydev.net/InsiteCreation/v1.0/WillyCrawler
/2008.06.07.Articulo.SOA%20Real.pdf [Consultada:11-
364
Modelo de evaluación de software y desarrollo de herramienta CASE
para ingeniería de requisitos.
365
RESUMEN 1. INTRODUCCCIÓN
La mayoría de los procesos de desarrollo de Software El desarrollo de software ha venido ocupando un lugar
involucran en sus fases iníciales la Ingeniería de requisitos importante en la Ingeniería, pero al igual que otras
(IR), fase que ocupa un lugar importante en el proceso de disciplinas, aún presenta fallas y errores; debido a dichos
desarrollo de software, debido a que si el personal fallos se han planteado técnicas y métodos para minimizar
involucrado no conoce con claridad los requisitos, se los problemas identificados en la crisis del software,
incurre en que los resultados obtenidos no sean los acontecimiento por el cual surge la Ingeniería de Software
esperados. Actualmente se cuenta con diversas herramientas [1], presentando así distintos modelos de proceso de
CASE que soportan tareas de IR, por lo cual a veces la desarrollo de software que se ajustan a las necesidades y
selección de la herramienta apropiada es una labor tipos de proyectos requeridos. La mayoría de los procesos
compleja, razón por la que esta investigación plantea un de desarrollo de Software involucran en sus fases iníciales
modelo matemático de evaluación de herramientas de la Ingeniería de Requisitos (IR), fase que ocupa un lugar
ingeniería de requisitos. De igual manera, partiendo de los importante en el proceso de desarrollo de software, ya que
resultados arrojados por la evaluación y comparación al no conocerse con claridad los requisitos por todo el
aplicando el modelo propuesto, se desarrolla la herramienta personal involucrado, se incurre en que los resultados
web RAQUEL, la cual herramienta permite optimizar el obtenidos no sean los esperados, presentando así los
proceso de gestión de requisitos del sistema en un proyecto mismos problemas de hace más de cincuenta años: altos
y obtener el Documento de Especificación de requisitos costos, baja calidad de software, clientes inconformes,
según la norma IEEE 830, así como también es posible incumplimiento de plazos, entre otros.
llevar a cabo un proceso de trazabilidad para hacer el En búsqueda de facilitar las tareas en el proceso de
seguimiento del cumplimiento de los requisitos propuestos desarrollo de software, surgen herramientas informáticas
en el documento durante las fases genéricas de un ciclo de que agilizan la labor desarrollada en la IR y otras fases del
vida. proceso de desarrollo de software. Dichas herramientas son
denominadas CASE (Ingeniería de Software Asistida por
Palabras Clave Computador), las cuales son apoyo para los integrantes del
Requisito, Ingeniería de Requisitos, Gestión de Requisitos, grupo de desarrollo, desde el principio hasta el fin del ciclo
Software libre, Metodología OOHDM. de vida, siendo de interés en esta investigación, aquellas
herramientas de apoyo a la ingeniería de requisitos, las
ABSTRACT cuales durante su ejecución se encargan de tareas tales
The majority of the processes of development of Software como extraer, analizar, documentar, revisar, negociar y
involve in his phases they initiate the Engineering validar los requisitos del sistema en desarrollo.
requirement (IR), phase that occupies an important place in
the process of development of software, due to the fact that Este escrito se enfoca a una etapa primordial en el
if the involved personnel does not know with clarity the desarrollo de software, pues muchas veces los
requirements, one incurs that the obtained results are not the desarrolladores se orientan a actividades básicas
awaited ones. Nowadays one possesses diverse tools CASE concernientes a la Ingeniería de Software, sin adentrarse a
that they support tasks of IR, for which sometimes the lo que realmente se desea obtener al finalizar el proceso;
selection of the appropriate tool is a complex labor, reason porque así como un médico no puede recetar a sus
for which this investigation there raises a mathematical pacientes medicamentos antes de haberle escuchado los
model of evaluation of tools of engineering requirement. Of síntomas que lo aquejan y sin haberlo examinado, los
equal way, departing from the results thrown by the desarrolladores de software no pueden dar soluciones sin
evaluation and comparison applying the proposed model, haber escuchado y analizado los requisitos que solicita el
there develops the web tool RAQUEL, who tool allows to cliente, es decir, en la mayoría de las ocasiones el proceso
optimize the process of management of requirements of the se orienta exclusivamente al diseño y código del programa
system in a project and to obtain the Document of sin tener en cuenta los requisitos del comprador a la hora de
Specification of requirements according to the norm IEEE demandar soluciones a un problema determinado. La
830, as well as also it is possible to carry out a process of Ingeniería de Requisitos es la fase en donde se definen
traceability to do the follow-up of the fulfillment of the claramente todos los requerimientos que ha de solicitar un
requirements proposed in the document during the generic cliente.
phases of a life cycle. La mayoría de los procesos de desarrollo de Ingeniería de
Software involucran en sus fases iníciales tareas como
Keywords planeación, levantamiento de información, determinación
Requirement, Engineering of Requirements, Management de las características que debe cumplir el software,
of requirements, Free Software, Methodology OOHDM. agrupadas en lo que hoy se conoce como Ingeniería de
367
Requisitos (IR), fase que ocupa un lugar importante en el evaluación para una herramienta CARE?
proceso de desarrollo de software, debido a que si el Contando con referencias propias (encuestas, entrevistas y
personal involucrado no conoce con claridad los requisitos, experiencia en el área) y teniendo como base algunos
se incurre en que los resultados obtenidos no sean los estudios realizados por diferentes departamentos
esperados, presentando así los mismos problemas de la encargados de Sistemas de Información [2], se encuentra un
crisis del software. factor fundamental en el momento de conocer las causas
Hoy día existen diversas herramientas que soportan tareas principales de éxito o fracaso de un proyecto de desarrollo
de IR, y a veces la selección de la herramienta apropiada es de software, aspecto en el que se coincide que está
una labor compleja, razón por la cual la investigación relacionado directamente con la identificación y gestión de
llevada a cabo plantea un modelo de evaluación de los requisitos.
herramientas de ingeniería de requisitos. Para la Ahora bien, en el momento de elegir una herramienta que
construcción del modelo se lleva a cabo una investigación permita optimizar las tareas de IR, en el entorno del
hipotético-deductiva, y se tiene en cuenta el concepto del desarrollo de software existe variedad de herramientas de
modelo matemático simple, el cual destaca algunas este tipo y la mejor alternativa (cuando no se cuenta con la
características fundamentales (Funcionalidad, confiabilidad, experiencia o conocimiento de alguna de ellas) es basarse
facilidad de uso, eficiencia, facilidad de mantenimiento, en un modelo que permita evidenciar de manera amplia y
portabilidad) que servirán como variables que permitan la concreta las características que se deben presentar en una
construcción de una fórmula matemática, con el fin de herramienta CARE, para la realización adecuada de
obtener resultados cuantitativos al momento de valorar Ingeniería de Requisitos.
totalmente una herramienta. Es de mencionar que no todos los productos y proyectos de
Así como también, partiendo de los resultados arrojados software requieren de la misma metodología de desarrollo,
por la evaluación y comparación aplicando el modelo aún así, en todos, se debe llevar a cabo la Ingeniería de
propuesto, se desarrolla la herramienta RAQUEL, la cual Requisitos, fase que influye en el éxito ó fracaso del
permite optimizar el proceso de gestión de requisitos a proyecto; como se mencionó antes, es fundamental contar
través de la web, es de mencionar que este es uno de los con herramientas que optimicen este proceso, pero, en
aportes de la investigación, dado que las herramientas muchos casos estas herramientas son propietarias, de
estudiadas y evaluadas no están orientadas a la web, y se escritorio o no manejan las fases relevantes de la Ingeniería
enfocan a otras fases de la IR, dejando de lado un proceso de Requisitos, no cumpliendo con las necesidades del
importante como lo es la gestión de requisitos. La proyecto, desde el punto de vista de quienes utilizan estas
herramienta fue desarrollada siguiendo la metodología de herramientas, generando así, aumento de costos y tiempo,
desarrollo OOHDM (Object Oriented Hypernedia Design pues en ocasiones los integrantes del grupo de desarrollo
Model), y una de sus principales características es que (especialmente los Ingenieros de Requisitos) no se
facilita la comunicación del equipo desarrollador de encuentran en un mismo lugar geográfico, haciendo difícil
software, permitiendo gestionar los requisitos del sistema la integración de la información atinente para la generación
en un proyecto software y obtener el Documento de del documento de especificación de requisitos.
Especificación de requisitos según la norma IEEE 830; por
medio de esta herramienta es posible llevar a cabo un
proceso de trazabilidad para hacer el seguimiento del
2.2 Información relevante
cumplimiento de los requisitos propuestos en el documento, Para poder llevar a cabo el modelo de evaluación se
durante las fases genéricas de un ciclo de vida recopiló información tanto primaria como secundaria; entre
la información que se ha tenido en cuenta están libros,
2. MODELO DE EVALUACION DE artículos y páginas web especializadas en el tema; éstas
CARE fuentes fueron consultadas tanto para determinar
Al hablar de CARE se hace referencia a la Ingeniería de antecedentes de la investigación como para el desarrollo del
Requisitos Asistida por Computador, término que se adopta proyecto, por otro lado, se plantearon diferentes hipótesis
en esta investigación, debido a que actualmente se cuenta para especificar claramente el propósito de la misma. En
con el apoyo de diversas herramientas para agilizar y esta sección se describe la forma en que se desarrollaron las
optimizar las actividades de la fase de Ingeniería de encuestas, actividad principal para la recolección de datos,
Requisitos. En las secciones siguientes se presenta algunas es así como se enuncia una encuesta principal, dirigida a
de las razones por las cuales se opta por proponer un casas de desarrolladoras de software, docentes expertos en
modelo de evaluación de CARE, la descripción del proceso la materia de Ingeniería de Software, especialmente
de construcción del modelo, y las características de la destacando información precisa en cuanto al conocimiento
herramienta que implementa el modelo para permitir hacer y uso de herramientas de Ingeniería de requisitos, también
la evaluación de herramientas de una forma sencilla. destacando el proceso que realizan para hacer la elicitación
2.1 ¿Por qué realizar un modelo de de los requisitos del cliente, y de esta forma contar con una
368
base que ayuda a la elaboración del modelo de evaluación. herramientas de Ingeniería de requisitos se tiene en cuenta
Se enviaron 178 correos electrónicos a docentes de el concepto del modelo matemático simple [7], donde se
universidades de todo el país (Colombia), entre las cuales destacan las características fundamentales de un software
se puede mencionar: La Universidad Nacional de (Funcionalidad, confiabilidad, facilidad de uso, eficiencia,
Colombia, La Universidad del Norte, La Universidad facilidad de mantenimiento, portabilidad), las cuales
EAFIT, Universidad de Los Andes, Politécnico Gran servirán como variables que permitan la construcción de
Colombiano, Universidad de la Sabana, Universidad del una fórmula matemática, con el fin de obtener resultados
Valle, Universidad Autónoma de Colombia, Universidad cuantitativos al momento de valorar una herramienta.
Industrial de Santander. También se realizaron encuestas Para asignar valores a las variables que se han especificado
personales en algunas instituciones como: Universidad en el modelo, se toma como referencia los porcentajes
Pedagógica y Tecnológica de Colombia, Pontificia clasificados en Nada, Bajo, Medio, Alto, para los cuales ya
Universidad Javeriana, Universidad Piloto de Colombia, se han determinado a cuanto equivale en valores
Universidad Católica de Colombia, Organización Zona R y porcentuales, datos que se han obtenido con la encuesta
Fundación Universitaria Juan de Castellanos. De la realizada, y el estudio consignado de cada herramienta
actividad anterior se obtiene que aún conociendo la CARE seleccionada; con estos valores se pasa a
importancia de la fase de Ingeniería de Requisitos en proporcionar estos datos en el modelo.
proceso de desarrollo de software, aún las actividades Contando con los datos obtenidos se tomaron variables
inherentes a esta se realizan de forma empírica, de igual como:i: número de iteraciones, en este caso se toman como
manera que solo un pequeño grupo conoce algunas el número total de ítems dentro de cada característica de
herramientas para el apoyo de la IR y son pocas las calidad.
personas e instituciones que utilizan estas herramientas. X, Y, Z, T, U, M: El valor para cada ítem dentro de la
característica a evaluar, así:
2.3 Construcción del Modelo de Evaluación Funcionalidad (X), Confiabilidad (Y), Facilidad de Uso
Para iniciar la construcción del modelo de evaluación, se (Z), Eficiencia (T), Facilidad de Mantenimiento (U),
recurre a verificar el estado del arte el respecto, hallando Portabilidad (M), esta variable representa cada una de los
que en efecto se han desarrollado diversas evaluaciones de valores por ítem dentro de cada elemento.
software, principalmente software educativo, y en cuanto a Resultado Final (RF): Es la sumatoria de las características
modelos o criterios de evaluación primordialmente se de calidad para obtener el porcentaje.
encuentra el estándar para el aseguramiento de planes de Para llegar a la ecuación final hay una serie de ecuaciones
calidad del IEEE 730:1989 [3], así como también las que tienen que ver con cada una de las características a
normas ISO (Organización Internacional de evaluar y sus subcaracterísticas; acá sólo se mostrará la
Normalización), destacando la familia de normas ISO 9000 primera ecuación (para hallar el valor de la característica
( 9001, 9003-2 y 9126) [4], que en su mayoría establecen Funcionalidad, pero se halla el valor de las demás
criterios generales de calidad que debe cumplir un producto características de la misma manera) y la final:
software, y que sirvieran de base para el estudio. Como se Ecaución 1:
menciona en otros estudios o propuestas de modelos de Ecuación de detalle para hallar el porcentaje de
evaluación [5], en la medida en que los analistas, y en este Funcionalidad
caso también los ingenieros de requisitos, disponen de un
criterio para identificar el software que se corresponde con
sus necesidades y con la solución de los problemas que Para llegar a esta ecuación, se tienen en cuenta una serie de
surgen dentro del proceso de análisis, un modelo de variables que se encuentran como características de este
evaluación de software se convierte en una herramienta factor de calidad, los cuales hacen tener más precisión a la
válida para caracterizar la tecnología de software. hora de dar un porcentaje de funcionalidad para
La encuesta realizada es la base para la construcción del determinada herramienta, se destacan las siguientes:
Modelo de Evaluación, es por ello que se realiza la Idoneidad: Reunión de las condiciones necesarias para
interpretación de los datos obtenidos. Para el análisis de la desempeña una función.
encuesta se presenta un análisis descriptivo, donde se tiene Exactitud: La capacidad del producto de software para
en cuenta las variables a tomar en la investigación, proporcionar resultados correctos o efectos convenidos con
aplicando así mismo la estadística descriptiva [6], la cual el grado necesario de precisión. (Esto incluye el grado
cubre cualquier procedimiento desde el uso de relaciones necesario de precisión de los valores calculados).
(proporción, porcentaje, índice, ratas), hasta poder llegar a Interoperabilidad: La capacidad del producto de software
analizar, organizar y visualizar los datos a través de para interactuar con uno o más sistemas específicos. (Se usa
descriptores, tablas y graficas. la interoperabilidad en lugar de compatibilidad para evitar
En la construcción del modelo de comparación para posibles ambigüedades con reemplazabilidad).
369
Cumplimiento: Es la capacidad que tiene el sistema de
desempeñar las funciones de forma puntual y efectiva.
Extensibilidad: Facilidad de adaptar el producto software a
los cambios de especificación.
Facilidad de reutilización: Es la capacidad de los elementos
del software de servir para la construcción de muchas
aplicaciones diferentes.
Trazabilidad de requisitos: Posibilita la verificación de la
transformación de los requisitos en elementos del modelo
sucesores, así como el análisis y gestión del cambio de ellos
verificando su complitud y coherencia.
Uso de plantillas: Es donde se organiza la información
respectiva de los requisitos.
Integración con otras fases del ciclo de vida: Es la facilidad
que posee el sistema para compartir recursos durante las
fases de ingeniería de requisitos.
Seguridad: estado de cualquier tipo de información
(informático o no) que nos indica que ese sistema está libre
de peligro, daño o riesgo.
Y la ecuación final quedaría de la siguiente manera: Figura 1. Pantalla evaluación Funcionalidad
Ecuación 7.
370
fue diseñado por D. Schwabe, G. Rossi y S.D.J. Barbosa, Al llegar a esta fase, se define los ítems de información que
[9] y se considera como una extensión de HDM (Metodo de son parte del dominio del problema, se identifica también,
diseño de hipermedia). Ésta propone el desarrollo de cómo son organizados los ítems de acuerdo con el perfil del
aplicaciones mediante un proceso de cuatro etapas basicas usuario y su tarea; qué interfaz debería ver y cómo debería
(Diseño conceptual, diseño navegacional, diseño de interfaz comportarse. A fin de implementar todo en un entorno
e implementación), pero, presenta la opción de adicionar Web, se debe d
fases requeridas en un proyecto especifico, en este caso se ecidir además qué información debe ser almacenada, y
adicionó la fase de recolección de requisitos y la fase de finalmente se podrá observar el funcionamiento de la
pruebas, como se observa en la Figura 3. aplicación.
El desarrollo de la aplicación se llevó a cabo utilizando
programación orientada a objetos en el IDE Net Beans de
JAVA, y puesto que la base de datos es relacional, se tomo
la decisión de utilizar Hibernate como herramienta para
realizar el mapeo entre el mundo orientado a objetos de la
aplicación y el mundo entidad-relación de la base de datos.
Se utilizó la técnica denominada ORM (object/relational
mapping), que permite realizar la transición de una
representación de los datos de un modelo relacional a un
modelo orientado a objetos y viceversa. Hibernate facilitó
los procesos para la obtención y almacenamiento de datos
de la base de datos, lo cual redujo tiempo de desarrollo.
Figura 3. Fases implementadas para el desarrollo de Al usar JDBC, se incurre en un proceso complejo, además
RAQUEL que es una actividad dependiente de la estructura de los
datos, además que con el desarrollo de la investigación se
Las cinco fases desarrolladas en el proyecto son descritas a comprueba que es natural y sencillo trabajar directamente
continuación. con objetos, pero con los motores de bases de datos
.0-Recolección de Requisitos relacionales es una tarea casi imposible, y con los motores
En esta parte de la metodología se recolectó información orientados a objetos no se tendría certeza de los resultados
acerca de que es lo que quieren los interesados, para lograr y el tiempo a invertir ya que aun falta mucho por explorar
esto se utilizaron entrevistas, encuestas y otros medios de en este tipo de SGBD.
recolección de información. Después de esto se identifican
los diferentes actores que interactúan con la aplicación, La mejor opción entonces es utilizar un motor de
para luego entregar como evidencia de esta fase ERS los persistencia, que es el componente software encargado de
diagramas de casos de uso y de iteración del sistema. traducir entre objetos y registros. Actualmente se cuenta
1-Diseño Conceptual: con Hibernate, un motor de persistencia de código abierto.
Como es una metodología orientada a objetos, se necesita
establecer una perspectiva del sistema, en esta investigación 5. Aunque la metodología OOHDM no incluye la fase de
se define los sub-sistemas que existirán, sus diferentes pruebas para verificar el funcionamiento de la herramienta
relaciones y se desarrolla el modelo de clases. RAQUEL, se llevaron a cabo pruebas unitarias, pruebas de
2-Diseño de Navegación: integración, pruebas de sistema, además de haberse
En esta fase se describe la estructura de navegación de una validado con el modelo propuesto en la primera parte de
aplicación hipermedia en términos de contextos de esta investigación.
navegación, que son inducidas por las clases de navegación,
tales como nodos, enlaces, índices, y visitas guiadas. Como
también se tienen en cuenta los diferentes usuarios y sus
3.2 Descripción de la Herramienta
tareas, ya que se construye el mapa de la aplicación.
RAQUEL al ser una herramienta web, se identifica por
3-Resumen de diseño de interfaz
tener una estructura básica de página web. En la parte
Fase en la que se establece los diagramas en los cuales se
superior se encuentra un banner o encabezado el cual hacer
observen los eventos que puede provocar el usuario al
referencia al nombre de la herramienta, como se muestra en
realizar una acción (clic, doble clic), como también los
la Figura 4.
posibles estados en que estará un objeto dentro de la
interfaz (oculto, inactivo, reducido, normal, etc.) y los
eventos que ocasionan dicho cambio.
4-Aplicación o implementación
371
Figura 4. Logo y banner de RAQUEL
En la parte inferior tiene pie de página el cual identifica el
nombre al que pertenece la aplicación web y su tipo de
licencia correspondiente.
372
práctico. 2005, Séxta edición, Ed Mc Graw Hill. ISBN a Distancia)
9701054733 [16] Herrerias, R. Palacios, F. Curso de inferencia
[11] Palacio, J. 2006. Compendio de Ingeniería de Software estadística y del modelo lineal simple. 2007. Delta
- Por qué fracasan los proyectos?. [Versión electrónica] Publicaciones universitarias. ISBN 84-96477-65-7
Recuperado Febrero 2010. Disponible [17] Brito A, K. selección de metodologías para el
en:http://navegapolis.net/files/cis/CIS_1_05.ppt. desarrollo de aplicaciones web. Edición electrónica
[12] IEEE 730-1989. Standard for Software Quality ISBN 13: 978-84-692-6641-0, Disponible en
Assurance Plans; 1989. Piskataway, NJ: IEEE. 1989. www.eumed.net/libros/2009c/584/
[13] Organización Internacional de Normalización – ISO. [18] SCHWABE, D. ROSI, G.; BARBOSA, S. Systematic
Disponible en http://www.iso.org/ Hypermedia Application Design with OOHDM.
[14] Macías, Y, et al. Modelo de evaluación para software Proceedings of the ACM International Conference on
que emplean indicadores métricos en la vigilancia Hipertext (Hypertext'96). Washington DC, March, 16-
científico-tecnológica. ACIMED [en línea], 2009 Vol 20, 1996
20, n 6 [Citado 2010-08-24] pp 125 -140. Disponible [19] Institute of Electrical and Electronics Engineers IEEE,
en : Standar 830-1998 Recommended Practice for Software
<http://scielo.sld.cu/scielo.php?script=sci_arttext&pid Requirements Specifications. E-ISBN: 0-7381-0448-5.
=S1024-94352009001200003&lng=es&nrm=iso>. DOI: 10.1109/IEEESTD.1998.88286
ISSN 1024-9435.
[15] Gómez, M. Elementos de Estadística descriptiva,
primera parte. 1998, Ed EUNED (Universidad Estatal
373
374
Un modelo preliminar de gobierno de tecnologías de información para
universidades colombianas
375
humano, el capital de la información y el capital factor diferenciador con el cual se puede lograr
organizacional. Entendiendo la importancia de los otros vertiginoso posicionamiento en los mercados locales y
dos, el capital de la información juega un papel especial globales.
dado que es la componente de retroalimentación y El gobierno TI es un concepto que emergió súbitamente y
articuladora de todas las demás componentes y se convirtió en un importante aspecto en las TI, [4]. El
perspectivas de la organización, allí la gestión del gobierno TI se reconoce como una parte integral del
conocimiento se convierte en el cohesionador de esta gobierno empresarial, ―Consiste de liderazgo y estructuras
perspectiva. Las tecnologías de información y y procesos organizacionales que aseguran que las
relacionadas (TI) son impulsoras primarias en el capital de estrategias de la organización en TI soportan y extienden
información y conocimiento corporativo. las estrategias y objetivos de la organización‖ [5].
Las organizaciones deben aprovechar eficientemente los No obstante la reciente aparición de los enfoques de
desarrollos de las TI y apropiarlas estratégicamente para gobierno TI, se ve un gran dinamismo a nivel mundial en
generar importantes ahorros y obtener gran valor agregado busca de la implementación del mismo. En Europa y
de ellas, como por ejemplo las grandes oportunidades que Norteamérica el 50% de las grandes empresas están en
se presentan a las organizaciones con la cloud computing, proceso de implementación o ya tienen implementadas
en la cual de acuerdo con Joyanes, la idea clave es que prácticas de gobierno TI; Sur América aparece con un
los usuarios, las empresas, las grandes corporaciones gran potencial de implementación (43%). En promedio a
acceden a los servicios de TI a través de la ―nube‖ (cloud, nivel mundial el 70% de las grandes empresas son
una red pública generalmente Internet ―La Web‖ o una red consientes de la necesidad del gobierno TI[6].
Intranet); los clientes pueden acceder bajo demanda – El GTI es un importante subconjunto que proporciona
siguiendo el modelo ―gratuito‖ o de ―pago‖ por uso- a un información compartida y tecnología aplicada. Le ofrece a
gran número de recursos informáticos de modo dinámico, las empresas oportunidades de transformar la forma en
dotándose así de una enorme capacidad de procesamiento que hacen negocios y es estratégico para el crecimiento de
y almacenamiento sin necesidad de instalar máquinas las empresas. Esta dependencia e importancia del
localmente, lo que se traduce en considerables ahorros de gobierno TI lo hace parte integral de las responsabilidades
tiempo e incluso de consumo energético [2]. de gobierno de la empresa, no solo para los inversionistas
sino también para los reguladores y auditores. El
2. GOBIERNO DE LAS Gobierno TI ya no es opcional para los negocios [7]. Una
de las nuevas disciplinas a tener en cuenta para el
TECNOLOGÍAS DE INFORMACIÓN desarrollo del gobierno de la gestión del conocimiento en
(GTI) las organizaciones podría ser la investigación en el campo
Las TI han jugado un papel muy importante en los últimos del gobierno de TI [8].
40 años en las organizaciones y se han convertido en un La organización del control es una parte importante de la
gran activo silencioso de las mismas, su utilización ha función de gestión corporativa y se caracteriza como
sido indiscriminada y subvalorada, con un divorcio gobierno corporativo. El gobierno TI es la traducción de
importante entre la alta dirección y el aprovechamiento de esta función hacia las funciones de administración
las mismas, en tal sentido necesitamos establecer enfoques corporativa de los sistemas de información y las
de gobierno sobre estas tecnologías que estén enmarcados tecnologías de información [9]. Si consideramos que el
y alineadas en el contexto del gobierno empresarial y gobierno TI forma parte del gobierno corporativo, se
corporativo [3]. espera un marco de referencia integral para suplir las
Históricamente se ha evidenciado la creciente importancia necesidades de los altos ejecutivos [10]. Un grupo de
que tienen las tecnologías de información y relacionadas investigadores incluyendo a [11]; [12], [13], [14] han
(TI) en las organizaciones, volviéndose indispensable para intentado desarrollar modelos GTI holísticos pero todavía
el desarrollo de las mismas, pero el aprovechamiento de falta mucho para mejorarlos y fusionarlos en un solo
estas tecnologías no ha sido muy consciente del papel proceso de GTI.
estratégico que desempeñan en las empresas, de hecho las Actualmente existen varios enfoques que abordan de
TI han tenido un protagonismo dual en las empresas, a alguna manera conceptos del gobierno de la tecnologías
nivel operativo-táctico y a nivel estratégico, el primero ha de información de forma directa: el estándar australiano
sido evidente y es en el que las empresas han tenido AS8015 proporciona un modelo, los principios y el
mayor incursión hasta llegar a los niveles de convivencia vocabulario para ayudar a implementar un gobierno
trasparente en el ecosistema empresarial, pero el nivel efectivo del uso de las TI en las organizaciones [15], la
estratégico ha sido opacado por el nivel operativo-táctico, norma ISO/IEC 38500 proporciona un marco de
siendo pocas las empresas que han entendido la referencia para el gobierno efectivo de TI, marcando un
proyección de su negocio al utilizarlas de forma reconocimiento global de la importancia de este tema y
inteligente, convirtiéndolas en ventaja competitiva y la necesidad de formalizar su adopción [16], ayuda a los
376
altos niveles de la organización a entender y cumplir con Grembergen en Bélgica identificaron siete prácticas de
las obligaciones legales, éticas y regulaciones respecto al gobierno TI definidas como practicas mínimas en
uso en la organización de TI, recomienda que los empresas de buen comportamiento en cuanto a gobierno
directivos deben gobernar las TI a través de tres TI, con un nivel de madurez superior a 2: comité de
importantes tareas: evaluar, dirigir y monitorear [17], dirección TI, comité de dirección de proyectos, gestión de
Cobit del instituto de gobierno TI (ITGI) es un completo cartera, control y reportes de presupuesto TI, reportes del
marco de referencia que estructura el GTI en cinco áreas oficial en jefe de informática (CIO) al gerente
focales con el fin de proporcionar la información que la general/gerente operativo, metodologías de
empresa necesita para lograr sus objetivos [5], el enfoque gobierno/gestión de proyectos, liderazgo TI [13].
gobierno TI de IBM se divide en varias áreas focales Lufman desarrollo una importante herramienta de medida
denominadas disciplinas de gobierno que representan del alineamiento estratégico diseñando modelos de
diversas responsabilidades en una organización TI madures detallados para seis criterios de alineamiento:
[7],CMMI del SEI (instituto de ingeniería de software) es comunicaciones, medidas de competencia/valor, gobierno,
un marco de referencia de madures y capacidad que asociación, alcance tecnológico y madurez de las
integra modelos para ingeniería de Sistemas, desarrollo capacidades [22]. Los modelos de madurez de Luftman se
integrado de Productos, recursos humanos, adquisición de probaron por Silvius en un conjunto de empresas
Software [18], ITIL es un marco de referencia cuyo alemanas e internacionales, encontró que los puntajes
objetivo es ayudar en la entrega de servicio TI de alta evaluados de madurez del alineamiento Negocio-TI (BIA)
calidad a través del uso generalizado de las mejores fueron mayores de lo esperado y había una diferencia de
buenas prácticas bajo un conjunto integrado de procesos percepción de la madurez BIA entre los profesionales del
orientados a las mejores prácticas para administrar los negocio y los de TI [23]. Beimborn et al en un estudio a 6
servicios de TI [19], entre otros. organizaciones analizan la vinculación entre gestión de
El ITGI ha identificado que el GTI está conformado por beneficios y alineamiento estratégico y su influencia en la
cinco áreas focales: La alineación estratégica se centra en tercerización de TI, identificaron que el aspecto práctico
asegurar el enlace entre el plan del negocio y los planes de más importante del alineamiento operacional es el
TI. La entrega de valor tiene que ver con la ejecución de entendimiento mutuo entre el negocio y TI [24].
la propuesta de valor a través del ciclo de entrega, Bergeron et al utilizando una investigación a través de
asegurando que las TI entregan los beneficios prometidos 110 empresas pequeñas y de tamaño medio propone un
con respecto a la estrategia, concentrándose en la nuevo modelo de alineamiento estratégico con 6
optimización de costos y la provisión del valor intrínseco constructos, desarrolla nuevas medidas de estrategia TI y
de las TI. La administración de recursos trata de la estructura TI, identifica el impacto de los patrones de
inversión óptima, así como la adecuada administración de alineamiento en el rendimiento de las organizaciones [25].
los recursos críticos de TI: aplicaciones, información, Van Lier y Dohmen analizan la vinculación entre gestión
infraestructura y personas. La administración de riesgos de beneficios y alineamiento estratégico y su influencia en
requiere conciencia de los riesgos por parte de los altos la tercerización de TI, analiza los modelos para cada uno
ejecutivos de la empresa, un claro entendimiento del de los aspectos [26]. Van Lier y Dohmen encuentran que
apetito de riesgo que tiene la empresa, comprender los los casos de estudio con mayor alineamiento estratégico y
requerimientos de cumplimiento, transparencia de los beneficio administrativos están ligados al éxito de la
riesgos significativos para la empresa, y la inclusión de las tercerización de TI [26].
responsabilidades de administración de riesgos dentro de Grembergen et al genera una revisión, prioriza los
la organización. La medición del desempeño rastrea y objetivos de TI y los objetivos del negocio, examina
monitorea la estrategia de implementación, la terminación enlaces entre las metas del negocio, las metas de TI y los
del proyecto, el uso de los recursos, el desempeño de los procesos TI, considera las perspectivas del cuadro de
procesos y la entrega del servicio, [5]. mando integral para descomponer los objetivos [27].
Para Brand y Boonen GTI es el sistema por el cual se Bricknall et al compara el cuadro de mando integral de
dirige y controla TI en las empresas. La estructura del esta organización con el modelo SAM y el tradicional
GTI especifica la distribución de derechos y modelo de cuadro de mando integral de Kaplan y Norton,
responsabilidades entre diferentes actores, tales como la encontraron fuertes enlaces entre el negocio y las
junta directiva, los ejecutivos del negocio y de TI, y estrategias TI [28].
detalla las reglas y procedimientos para la toma de Dado que las organizaciones buscan a largo plazo la
decisiones en TI [20]. El gobierno refleja el liderazgo, las administración de beneficios, el estudio de Ward,
estructuras organizacionales y los procesos que las TI encontró que, mientras la mayoría de las organizaciones
hacen sostenible y extienden las estrategias y objetivos se centran en los procesos de administración de beneficios
organizacionales [21]. tempranos al principio de los proyectos, es poco probable
Con base al estudio realizado por De Haes y Van que se centren en la administración de beneficios al final
377
de cada proyecto [29]. Thatcher y Pingry encontraron que solución típica de gobierno está conformada por algunos
las inversiones en TI pueden no dar como resultado de los siguientes ítems: Matrices RACI128, métricas de
mejoras en medidas del valor del negocio, en este estudio efectividad del gobierno, especificaciones de las métricas
ven la inversión en TI como un bien donde la inversión en de operación que definen las métricas del día a día como
TI no crea una ventaja de mercado de la organización una base para ejercer el control sobre los procesos del
[30]. Tallon revisa aspectos acerca del impacto del valor negocio, librerías de política, especificaciones de
del negocio de TI en el rendimiento de la empresa, cumplimiento [34].
encontró una asociación entre el mayor valor del negocio
de TI y las organizaciones con estrategias de negocio
multicentradas [31]. 3. MODELO DE GOBIERNO DE
La investigación en las áreas focales se ha realizado en TECNOLOGÍAS DE INFORMACIÓN EN
aislamiento relativo, no se ha adoptado como un punto de
vista holístico. Para que el GTI sea aceptado como parte EL ÁMBITO UNIVERSITARIO (GTIU)
del proceso de gobierno corporativo de la misma forma
que ha sido aceptado el gobierno corporativo, la El modelo inicial de Gobierno de Tecnologías de
investigación en GTI necesita el desarrollo de modelos información en el ámbito universitario (GTIU) busca
que integren de forma coherente todas las áreas focales de eliminar las complejidades de algunos de los marcos de
GTI, incluyendo la incorporación de métricas. El estudio referencia analizados y permitir un abordaje ágil y
de [32] explora los factores que influyen las estructuras de completo para el ámbito de las universidades
gobierno TI, los procesos y las métricas de los resultados Colombianas, sin perder la perspectiva global. Se
y la construcción de un modelo que relacione estos pretende recoger las especificidades y limitaciones de las
factores a la efectividad de GTI. Dahlberg & Kivijärvi universidades en países en vía de desarrollo en el
analizan las medidas de la efectividad ITG, desarrolla un concierto mundial, como referente en el proceso de
nuevo marco de referencia de gobierno TI y una identificación y definición del rol de las TI dentro de la
herramienta de evaluación para medir la efectividad de gerencia y gobierno de las mismas.
GTI [33]. Peterson presenta una visión holística de GTI, Se espera tener un referente de las universidades en el
considera como aspectos importantes del GTI Figura 6 Gobierno universitario
efectivo los procesos estructurales y habilidades proceso de identificación y definición del rol de las TI
relacionales. Desarrolla un modelo GTI para uso en la dentro de la gerencia y gobierno de las universidades. Este
evaluación de la efectividad de la arquitectura TI. El modelo obedece a un enfoque ecléctico, diseñado para
modelo propone que el GTI está compuesto de entrega de ser flexible, evolutivo y poder ser usado por diferentes
valor TI, habilidad TI, complejidad TI y Valor TI [14]. tipos de universidades en cuanto a tamaño (grandes o
De Haes y Van Grambergen desarrollaron un modelo que pequeñas), tiempo de existencia (antigua o moderna) y
analiza los mecanismos relacionales y su papel en GTI, tipos de gobierno universitario.
examina GTI y los vínculos con estructuras relevantes, Los criterios que orientan el diseño del modelo de GTI
procesos y mecanismos relacionales [13]. para universidades se basan en un enfoque integrador,
Para IBM la perspectiva de gobierno TI se divide en robusto, pragmático y descongestionado, se adapta a los
varias áreas focales que representan diversas procesos, balancea la competencia de prioridades de los
responsabilidades en una organización TI. actores, permite la interacción entre equipos, enfoque
Colectivamente, estas áreas focales se denominan holístico, potencia el nivel de abstracción, focalización
disciplinas de gobierno. Cada una de estas disciplinas continúa en calidad.
conducen a desafíos TI únicos, pero ninguna de ellas
podría darse en forma aislada de las otras entre otros: El GTI como estructura incluye la existencia de funciones
gobierno de finanzas y priorización, gobierno de responsables en la toma de decisiones como los comités
estrategia TI, gobierno de arquitectura empresarial, de dirección, conformados tanto por ejecutivos del TI
gobierno de portafolio TI, gobierno de riesgos y como de la empresa, que se constituyen en el cuerpo de
cumplimiento, gobierno de datos, gobierno de desarrollo, gobierno primario sobre las operaciones de TI, directrices
gobierno de operaciones, gobierno de ciclo de vida [7]. de TI para la organización, proyección presupuestal de los
Cantor y Sanders explican que, si se piensa en el gobierno proyectos TI. Es responsable de traducir las estrategias y
como un proceso, entonces el producto de la ejecución de los objetivos del negocio en planes de acción de acción.
tal proceso deben ser un conjunto de activos tangibles, Garantizar la comunicación efectiva entre todas las partes
con frecuencia llamados artefactos. Se considera el
conjunto de artefactos como la solución de gobierno. Una
sobre una conexión serial o por módem. Este protocolo ha sido
superado por otros como el FTP, SMTP y NNTP
378
de la organización. El establecimiento de políticas, dirección universitaria para tomar decisiones estratégicas,
procedimientos y un lenguaje común a nivel de las TI en entender su apetito por el riesgo y sus motivadores claves
la organización. de desempeño, identificar los puntos críticos en los cuales
se necesita tomar decisiones. La aplicación de la estrategia
3.1 Gobierno Universitario en curso y su pertinencia y éxito deben ser evaluados en
El gobierno universitario es un conjunto de forma periódica.
responsabilidades y prácticas ejercidas por el consejo En la figura 2 se muestra que el GTI está conformado por
superior universitario y la gestión ejecutiva con el objeto tres dimensiones: Estructura del GTI, procesos de
de proporcionar direccionamiento estratégico, asegurar el gobierno de TI y Métricas de resultado TI. Las tres
cumplimiento de los objetivos, establecer una gestión dimensiones están impulsadas por el valor del negocio.
adecuada de los riesgos, verificar el uso responsable y La estructura de gobierno se orienta al logro del
eficiente de los recursos de la universidad ver figura 1. alineamiento de TI con el negocio e incluye mecanismos
La conformidad es un patrón de comportamiento para toma de decisiones, direccionamiento, y políticas en
sistemático de los interesados, administradores y personal cascada. La segunda dimensión, el proceso de gobierno de
de la universidad, que se encuentran concentrados en el TI, está impulsada por la incorporación de rendición de
logro de resultados sociales y financieros sustentables. cuentas en la organización, es decir el establecimiento de
Este comportamiento debe estar dirigido hacia el logro de políticas y procedimientos utilizados para implementar
los cuatro principales activos de la organización: los proyectos de inversión de TI. La tercera dimensión,
Infraestructura, clientes y terceros interesados, personal Métricas de resultado TI, evalúa las otras dos
interno, procesos y la creación de valor. dimensiones para determinar si se han logrado los
resultados esperados.
379
Responsabilidad. Establece claramente cómo entender las organización, sus factores críticos de éxito, y como
responsabilidades TI. Todos deben comprender y aceptar desarrollar un portafolio sinérgico de capacidades TI.
sus responsabilidades en la oferta o demanda de TI. La Debe promoverse una visión más universal del valor de la
responsabilidad sobre una acción lleva aparejada la información y la tecnología en la organización. La
autoridad para su realización.
comunicación efectiva de las estrategias y políticas de TI
Estrategia. Planear las TI para proporcionar mejor soporte
es crítica para el éxito de las estructuras y procesos de
gobierno TI.
A partir de la visión estratégica centrada en áreas focales,
a nivel de los procesos el modelo de referencia para el
Figura 8 Dimensiones GTIU gobierno de las TI se basa en las 5 perspectivas
propuestas por JISC [35]: gobierno, administración,
recursos, organización y servicios.
Los servicios utilizan recursos que están organizados a
través de la estructura y procesos de la organización. Los
servicios, los recursos y la organización son los
principales componentes de la administración de los
sistemas de información. Las actividades de gobierno son
envolventes y aseguran una efectiva administración y que
las actividades están debidamente alineadas con las
prioridades institucionales.
380
holística de los componentes de GTI. [9]. Winter, Robert y Schelp, Joachim, Enterprise
Architecture Governance: The Need for a Business to
Las posibles preguntas de investigación que podrían
IT Approach. Fortaleza(Brasil) : ACM, 2008. SIGAPP
considerarse en el futuro respecto a GTI son:
23rd Annual ACM Symposium on Applied Computing.
Puede definirse un modelo holístico que integre las áreas
págs. 548-552.
focales de gobierno de TI específicamente para las
[10]. Dahlberg, Tomi y Kivijärvi, Hannu, An Integrated
universidades?
Framework for IT Governance and the Development
El desarrollo independiente de los procesos de
and Validation of an Assessment Instrument. [ed.]
administración de cada una de las áreas focales dentro de
IEEE Computer Society. s.l. : IEEE Computer Society,
las universidades conducen a una GTI más efectiva?
2006. IEEE Proceedings of the 39th Hawaii
Cuales son algunos métodos prácticos que las
International Conference on System Sciences. pág.
Universidades pueden utilizar para mejorar su GTI?
194b. 0-7695-2507-5.
Como pueden las Universidades evaluar de forma integral
[11]. IT governance maturity and IT outsourcing degree:
la madures de sus procesos de GTI?
An exploratory study. Dahlberg, Tomi y Lahdelma, P.
Que métodos prácticos pueden utilizar las universidades
[ed.] IEEE Computer Society. s.l. : IEEE Computer
para mejorar las medidas de GTI en las áreas focales?
Society, 2007. IEEE Proceedings of the Hawaii
Como pueden desarrollarse modelos de madures para
International Conference on System Sciences. pág.
todas las áreas focales de GTI en las universidades y
194b. 0-7695-2507-5.
como puede medirse con éxito un modelo de madures
[12]. De Haes, Steven y Van Grembergen, IT governance
total de GTI para la universidad?
and its mechanisms. Wim. 27, 2004, Information
Systems Control Journal, Vol. 1.
[13]. De Haes, Steven y Van Grembergen, Analysing the
4. REFERENCIAS Relationship Between IT Governance and Business/IT
Alignment Maturity. Wim. 2008. Proceedings of the
[1]. Kaplan, Robert S. y Norton, David P. The Balanced 41st Hawaii International Conference on System
Scorecard: Translating strategy into action. s.l. : Sciences - 2008.
Harvard Bussiness School, 1996. [14]. Peterson, Ryan, Crafting information technology
[2]. Joyanes A., Luis, La Computación en Nube (Cloud governance. [ed.] Taylor & Francis. 4, 2004,
Computing):El nuevo paradigma tecnológico para Information systems management, Vol. 21. 1058-0530
empresas y organizaciones en la Sociedad del .
Conocimiento. 76, 01-04 de 2009, Icade, pág. 95s. 02 [15]. Australian Standard. AS8015 Corporate governance
12-7377. of information and communication technology. 2005.
[3]. Gomez G., Carlos Hernan y Cuesta I., Carlos Alberto, 0-7337-6438-X.
Una perspectiva del gobierno de tecnologías de [16]. IT Governance Institute. ITGI Enables IS0/IEC
información en el marco del gobierno corporativo. 38500:2008 Adoption. Rolling Meadows : s.n., 2009.
Centro Editorial Universidad de Caldas, 2009, Vector. págs. 1-19.
1909-7891. [17] ISO/IEC. ISO/IEC 38500:Corporate governance of
[4]. IT Governance Institute, IT Governance: Moving information technology standard. 2008.
from IT governance to enterprise governance of IT. [18]. CMU/SEI CMMI. CMMI for Development version
Wim. 2009, ISACA Journal, Vol. 3. 1.2. 2006.
[5]. De Haes, Steven y Van Grembergen, IT Governance [19]. Office of Government Commerce UK. The official
Institute. Cobit 4.1. [ed.] IT Governance Institute. introduction to the ITIL service lifecycle. [ed.] TSO.
Rolling Meadows : IT Governance Institute, 2007. pág. 2007.
213. 1-933284-72-2. [20]. Brand, Koen y Boonen, Harry. IT Governance based
[6]. PricewaterhouseCoopers. IT Governance Global on Cobit. s.l. : Van Haren Publishing, 2004. 90-77212-
Status Report—2008. ITGI. 2008. págs. 1-73. ISBN 19-1.
978-1-60420-064-5. [21]. Raghupathi, W., Corporate governance of it:a
[7]. Mueller, Lynn, y otros. IBM IT Governance framework for development. ―RP‖. [ed.] ACM. 8,
Approach: Business Performance. s.l. : IBM, 2008. 2007, Communications of the acm, Vol. 50, págs. 94-
Red Book. 99.
[8]. Rouyet, Juan Ignacio Ignacio y Joyanes, Luis, [22]. Luftman, Jerry.,Achieving IT-Business Strategic
Applying IT Governance Concepts and Elements to Alignment: Aligning it with the business strategy. [ed.]
Knowledge Governance: An Initial Approach. 2009, Inc Taylor \& Francis. 4, 2003, Information Systems
Communications in Computer and Information Management, Vol. 20, págs. 9-15. 1058-0530 .
Science, Vol. 49, págs. 258-267. [23]. Silvius, A.J. Gilbert, Business and IT alignment in
381
theory and practice. [ed.] IEEE Computer Society. Empirical Investigation into Current Practice. [ed.]
Hawaii : IEEE Computer Society, 2007. 40th Hawaii IEEE Computer Society. s.l. : IEEE Computer Society,
International Conference on System Sciences. pág. 2007. Proceedings of the 40th Hawaii International
211b. 1530-1605. Conference on System Sciences. pág. 206a . 1530-
[24] Beimborn, Daniel, y otros, The Influence of 1605.
Alignment on the Post-Implementation Success of a [30] Thatcher, Matt E. y Pingry, David E., Modeling the
Core Banking Information System: An Embedded Case IT value paradox. [ed.] ACM. 8, 7 de 2007,
Study. [ed.] IEEE Computer Society. s.l. : IEEE COMMUNICATIONS OF THE ACM, Vol. 50, págs.
Computer Society, 2007. Hawaii International 41-45. 0001-0782.
Conference on System Sciences. pág. 234b. 1530- [31]. Tallon, Paul P., Does IT pay to focus? An analysis
1605. of IT business value under single and multi-focused
[25]. Bergeron, François, Raymond, Louis y Rivard, business strategies. [ed.] Butterworth-Heinemann. 3,
Suzanne, Ideal patterns of strategic alignment and 2007, The Journal of Strategic Information Systems,
business performance. [ed.] Elsevier Science Vol. 16, págs. 278-300. 0963-8687.
Publishers B. V. 8, 2004, Information and [32]. Bowena, Paul L., Decca, May-Yin Cheung y
Management, Vol. 41, págs. 1003-1020. 0378-7206. Rohdeb, Fiona H., Enhancing IT governance practices:
[26]. Van Lier, Joost y Dohmen, Ton, Benefits A model and case study of an organization's efforts.
Management and Strategic Alignment in an IT 2007, International Journal of Accounting Information
Outsourcing Context. [ed.] IEEE Computer Society. Systems, Vol. 8, págs. 191-221.
Hawaii : IEEE Computer Society, 2007. Hawaii [33]. Dahlberg, Tomi y Kivijärvi, Hannu. An Integrated
International Conference on System Sciences. pág. Framework for IT Governance and the Development
2006b. 1530-1605. and Validation of an Assessment Instrument. [ed.]
[27]. Wim Van, De Haes, Steven y Van Br, Hilde, IEEE. s.l. : IEEE, 2006. IEEE Proceedings of the 39th
Prioritising and linking business and IT goals in the Hawaii International Conference on System Sciences.
financial sector. Grembergen, [ed.] IEEE Computer pág. 1 10. 0-7695-2507-5.
Society. s.l. : IEEE Computer Society, 2007. 40th [34]. Cantor, Murray y Sanders, John D. IBM Operational
Annual Hawaii International Conference on System IT governance. [En línea] 15 de 05 de 2007.[Citado el:
Sciences. Vol. 40, pág. 235a. 0-7695-2755-8. 01 de 07 de 2008.]
[28]. Bricknall, Richard, y otros, Aligning IT Strategy http://www.ibm.com/developerworks/rational/library/may
with Business Strategy through the Balanced Scorecard 07/cantor_sanders/.
in a Multinational Pharmaceutical Company. [ed.] [35]. JISC. A Framework for Information Systems
IEEE Computer Society. 2007. Proceedings of the 40th Management and Governance. [En línea] 2007. [Citado
Annual Hawaii International Conference on System el: 15 de 07 de 2009.]
Sciences. pág. 235b. 1530-1605. http://www.ismg.ac.uk/Framework.aspx.
[29]. Ward, John, De Hertogh, Steven y Viaene, Stijn,
Managing Benefits from IS/IT Investments: An
382
Modelo para la Industrialización de Software en el Triángulo del
Café:Una Apuesta Productiva de Región
383
RESUMEN
El modelo para la Industrialización de Software en el
Triángulo del Café, busca establecer una alternativa
productiva que permita el desarrollo económico y
social de la Región denominada ―Triangulo del
Café‖,ubicado en la parte central de Colombia en la
llamada Región Andina, compuesto por los
Departamentos de Caldas, Quindío y Risaralda, a través
de la consolidación de una Industria basada en el
Conocimiento como es la Industria de Software, partiendo
de las lecciones aprendidas de los componentes exitosos
endógenos de la Región que deben estar presentes en
dicho modelo y los componentes de los Modelos de éxito
Internacionales de los países que hoy son potencia en esta Figura 1. Proyección de la Industria alrededor de TIC,
importante industria, para amalgamarlos en una realidad Fuente: [1]
autóctona pero con mirada hacia el mundo,
permitiendo establecer una Industria de Software de
Talla Mundial en el Triángulo del Café – Colombia..
Palabras Clave:
Calidad, mercado, vigilancia tecnológica, investigación
e innovación, infraestructura e infoestructura,
emprendimiento, responsabilidad social, políticas.
1. INTRODUCCIÓN
La industria del software se ha venido consolidando como
uno de los principales renglones de la economía del siglo
XXI, según [1] para los próximos 10 años se
moverán 18.180 billones de dólares (Figura 1) en
temáticas tan diversas como: Figura 2. Modelo de Industrialización de Software
educación virtual, gobierno electrónico, convergencia
digital, Web 2.0 y Web 3.0, entretenimiento, negocios y En la Figura 2, se presenta el modelo bajo un enfoque
generación decontenidos entre otros. La industria y las sistémico, donde cada elemento o componente es
naciones que han tenido éxito en la industrialización del interdependiente y a su vez está interrelacionado con los
software como India, Irlanda, Estados Unidos, China, demás, lo que se simboliza a través del resplandor en
Rusia, entre otros, se han caracterizado por adelantar color azul que representa las interconexiones entre los
políticas e institucionalidad a corto, mediano y largo subsistemas del modelo. Además se presenta el tema de
plazo con el propósito de fortalecer la infraestructura conocimiento en forma integrada y transversal a todo el
tecnológica, reglamentar incentivos y regímenes modelo, por considerar la industria de software como
tributarios, potenciar la formación académica y el industria de conocimiento, que es precisamente la apuesta
talento humano, incorporar modelos de aseguramiento de que plantea la Región.
la calidad de reconocimiento mundial y atraer formas de El esquema se plantea sin delimitantes en su exterior
inversión extranjera. Se plantea a continuación un significando que es un sistema abierto y en permanente
modelo propio de industria de software para una Región comunicación con el entorno, es dinámico y receptivo
de Conocimiento, fundamentado en fortalezas endógenas a adaptarse a los permanentes cambios que genera el
y con elementos internacionales referenciados de países mercado en su creciente demanda de innovaciones y
que hoy son potencia en esta promisoria industria transformaciones acordes a las necesidades de
información y entretenimiento que nos acercan a un
mundo que requiere cada vez mas situaciones en tiempo
real utilizando el dispositivo que esté a su alcance para
estar en línea con el mundo tratados de manera
transversal con lineamientos de calidad logran alcanzar
el objetivo propuesta de una manera eficaz y eficiente.
Los componentes que se pueden considerar dentro del
alcance o la línea de acción de la Calidad de Software
son realmente muchos y muy variados, considerar por
385
ejemplo el papel fundamental de los programas de medir el esfuerzo y la calidad del trabajo utilizado en
computador, sin una lista de instrucciones a ejecutar determinados proyectos; superadas estas dificultades
definidas por un lenguaje de programación, los facilitará realizar una mejor planeación y proyección
computadores u ordenadores son realmente inútiles[3], la en el desarrollo de nuevos proyectos. Son muchas las
forma deprogramar, los métodos de programación, las problemáticas que pueden llevar al surgimiento de un
nuevas tendencias, etc, son elementos que de alguna proyecto de desarrollo de software, entre las cuales cabe
forma deben ser considerados y abordados para hablar destacar: incorrecciones, toma de decisiones, falta de
de Calidad de Software. La demanda de productos y control,exceso de gasto, costos de mantenimiento y
servicios relacionados con Tecnologías de Información evaluación de nuevos métodos; por consiguiente la
y Comunicaciones (TIC), especialmente en el campo del medición ayuda a superar algunos de los problemas
software, viene aumentando considerablemente en los proporcionando:requerimientos verificables, expresados
últimos años, tanto en Empresas como en en términos medibles, evidencias cuantificables para
Organizaciones el uso intensivo de las TIC, han apoyar las decisiones, mayor visibilidad en el desarrollo e
convertido dichas tecnologías en un factor clave y que identificación anticipada de problemas, realización de
gestionadas de manera correcta aportan valor a la predicciones de costo y plazo justificables, estrategias de
Organización[4], al tener un aumento en la demanda y prueba e identificación de los módulos problemáticos, y
por consiguiente en la oferta, la Calidad de Software debe valoración de los efectos en la productividad y
ser una característica requerida en productos y servicios. calidad. Sin embargo, con el paso del tiempo, los
Los modelos de calidad plantean y contemplan el tema de problemas que se generan en el desarrollo de software
las Métricas o Mediciones de software, sin y embargo no han ido disminuyendo, sino por el contrario, éstos
y dada su importancia en este caso podemos han aumentado y cada día aparecen nuevos problemas
considerarlo uno de los componentes claves si queremos conforme se utilizan nuevas herramientas y tecnologías.
hablar de calidad. La necesidad de medir es evidente, El incumplimiento de los plazos de entrega y el aumento
desde el comienzo de su historia en la mayoría de las del costo del software constituyen la regla más que la
actividades técnicas o científicas como medio para excepción. Hoy en día es impensable, en cualquier
evaluar, controlar o predecir, es claro que la ingeniería negocio, mejorar de manera consistente sin disponer de
del software no constituye una excepción. La propia una base cuantitativa, ya que esta nos ayuda a una mejor
filosofía de la ingeniería de software implica un interés evaluación, planificación, gestión y control de procesos en
claro por controlar y predecir el desarrollo y el el entorno en que nos desempeñemos.
mantenimiento del software. Además, el ingeniero de
Software puede utilizar la medición para ayudar a 2.2 Mercado
evaluar la calidad de los productos de trabajos técnicos y El desarrollo de Mercado debe entenderse como la
para ayudar en la toma de decisiones tácticas a medida integración de esfuerzos encaminados a la aceptación,
colocación, uso y consumo de los productos y servicios
2. DESCRIPCIÓN GENERAL DE LOS que ofrecerá la industria en los segmentos objetivo, lo que
COMPONENTES implica que las acciones de mercado deben estar
articuladas en un Plan Estratégico de Mercadeo y
2.1 Calidad. Ventas (PEMV) que servirá como guía para las
actividades comerciales, a continuación se presentan los
El tema de Calidad se constituye en un componente elementos base para su construcción.
transversal para la Industria de Software en cualquiera de Elementos para la construcción del Plan de Mercado .El
sus niveles. Hasta hace muy poco este elemento era análisis de la siguiente información debe conducir al
realmente un valor diferenciador en la Industria, sin planteamiento de estrategias para obtener ventajas
embargo, y gracias al desarrollo de una creciente competitivas que orienten el rumbo del desarrollo de la
Industria a Nivel Mundial, este componente pasa a ser Industria, a continuación se presentan los elementos
un requisito mínimo parasatisfacer la amplia demanda base que permitirán la construcción del plan de Mercado
mundial de servicios y productos de software, como para la Industria de Software en el Triángulo del café [5]
también una exigencia de los sectores público y privado
a nivel local e internacional. La Calidad de Software se
puede definir, como el grado en el que el software posee
una articulación definida y deseable de atributos de
calidad [2], considerando entonces una cantidad de
componentes interdependientes pero interrelacionados
entre sí, que que un proyecto evoluciona. Se ha
encontrado gran dificultad en el momento de cuantificar o
386
creciente con influencia en todos los sectores de la
Economía, que permite vislumbrar las grandes
oportunidades existentes para las empresas
especializadas en desarrollo Lograr una posición
competitiva exige de las empresas productoras de
software el manejo eficiente de las variables críticas de
éxito en el mercado, tales como tiempo, costo y calidad;
además de aprovechar el conocimiento y los nichos de
mercado específicos, a partir de las potencialidades
internas de las regiones, haciendo de la especialización
Figura 3. Bases Conceptuales Plan de Mercado en la producción de software como diferencial
competitivo
Bases Estratégicas. Para la realización de este ejercicio,
se propone el análisis de fuerzas competitivas de Porter
una herramienta esencial para la identificación de
2.4 Investigación e Innovación
estrategias. Se apoya en el concepto que la Industria
La Industria del Software a nivel mundial requiere una
defina su comportamiento estratégico según el juego de
permanente innovación no solo de sus procesos,
fuerzas del sector competitivo.
además de sus productos, sin embargo para pensar en
Bases Cuantitativas
innovar el punto de partida necesariamente debe ser la
• Focalización
investigación, es decir, la innovación sustentada en la
• Segmentos, Priorización y definición de
investigación, permite cambios y transformaciones con
segmentos objetivo. La segmentación de mercados es una
soporte científico. Un elemento de fundamental
de las herramientas analíticas más importantes en el
importancia considerado en el contexto internacional es
diseño de una estrategia de mercadeo y venta. También
el desarrollo científico y tecnológico con que cuente el
en el mercado de tecnología este recurso es esencial
país. Por este motivo, se evalúa la inversión en
puesto que las soluciones tecnológicas se demandan
Investigación y Desarrollo (I+D), aunque en otras
para atender problemáticas específicas de los usuarios.
latitudes, consideran el concepto de inversión en
El mercado de tecnología es un mercado de soluciones,
actividades de ciencia, tecnología e innovación (ACTI),
esto hace muy exigente el proceso de segmentación.
que es la sumatoria de la inversión en: I+D, formación
Bases Financieras
avanzada, servicios científicos y tecnológicos, e
• Costos del PEMV
innovación; actividades, todas, que contribuyen al
• Definición del Presupuesto
desarrollo científico y tecnológico. Según los datos
Bases Tácticas
suministrados por el Observatorio de Ciencia y
• Calendario de Negociación
Tecnología, la inversión en ACTI en Colombia alcanzó
• Estrategias Puntuales (Eventos de Apoyo)
en el 2005 el 0.52% del PIB, y para el 2006 bajó al
0.47%. Mientras que la inversión en I+D como porcentaje
2.3 Vigilancia Tecnológica en la del PIB ha estado estable en los últimos cuatro años
Producción de Software - VTPS alrededor del 0.18%, mucho más bajo que los porcentajes
de los Países líderes de la industria
La Vigilancia Tecnológica para Producción de Software
(VTPS), hace referencia a la necesidad de considerar las 2.5 Infraestructura e info-estructura
nuevas tendencias para el desarrollo de software a escala Las TIC‘s contribuyen en gran medida a la evolución
industrial. de un país.
―La vigilancia tecnológica es un proceso organizado, ―Conectividad se refiere a la integración global entre la
selectivo y permanente, de captar información del infraestructura de tic de un país - la incorporación de
exterior y las telecomunicaciones, así como los sistemas de
de la propia organización sobre ciencia y tecnología, hardware, software, y los usuarios finales, incluidas las
seleccionarla, analizarla, difundirla y comunicarla, para diversas habilidades que necesitan las personas para
convertirla en obtener el mejor uso de las herramientas.‖ [6].
conocimiento para tomar decisiones con menor riesgo Infraestructuras son las redes de comunicación, las
y poder anticiparse a los cambios.‖ ESI Center Andino. personas, la inversión en formación, los activos
La industria global del software se presenta como una complementarios, tales como los servidores, internet,
oportunidad para el desarrollo de las regiones, ha hosting y software. La primera encuesta de Tic‘s
mostrado en los últimos años un desarrollo acelerado y realizada por el DANE1 fue en el año 2001,
387
posteriormente en 2008 se realizó una compilación de 13,82% y nuevos empresarios de 11,73%. Estas cifras
Indicadores relacionados con las TIC‘s para conocer el indican que la actividad emprendedora de nuestro país se
nivel de uso y penetración en hogares, empresas de viene manifestando con mucha fuerza, el porcentaje de
tipo industrial, comercial, empresas que participan en actividades
De servicios y microestablecimientos, lo anterior con ―media o alta‖ tecnología es del 7,42%, lo que
datos de estudios realizados durante los años 2006 a demuestra que Colombia y Uruguay, son los países con
nivel Total Nacional y 2007 en 13 áreas metropolitanas los resultados más altos en este indicador, para toda
de Colombia. América Latina y posiciona a nuestro país en el selecto
―En el 2008 para el Total Nacional, el 83,8% de los grupo en los niveles más altos a nivel mundial en dicha
hogares poseía teléfono móvil (celular), frente al clasificación.
Departamento Administrativo Nacional de Colombia se encuentra permanentemente en los primeros
Estadística -DANE- Entidad responsable de la puestos a nivel mundial en tema de emprendimiento, al
planteamiento, levantamiento, procesamiento, análisis y igual que ―curiosamente‖ países Latinoamericanos como
difusión de las estadísticas oficiales de Colombia. 17,7% Perú y Bolivia que en este caso ocuparon el primer y
en 2003. En la cabecera en 2008, el 87,5% tenía segundo puesto. Otro indicador bien importante es que
celular, comparado con el 21,8% en 2003. En el resto, en el 92% de la población Colombiana considera que ser
2008 el porcentaje pasó de 70,8% a 4,6% en 2003. En empresario es una alternativa de carrera deseable y
2008 en el Total Nacional, el 77,2% de los hogares donde válida, es decir, que existe una interesante disposición
el jefe del hogar devengaba entre 0 y menos de 1,5 hacia el emprendimiento como actividad reconocida y
salarios mínimos tenía teléfono móvil,mientras que en los considerada muy importante, además el
hogares donde los jefes reciben emprendimiento es una actividad que en nuestro país
mayores ingresos laborales, la tenencia supera el 90%.‖ genera reconocimiento social, los Colombianos ven a los
[7]. emprendedores como personas que tienen un status alto
y generan respeto dentro del medio en el que se
2.6 Asociatividad desenvuelven.[9]
Es un elemento de colaboración y ayuda entre varios En Colombia se aprobó la Ley 1014 del 26 de Enero
individuos, empresas o comunidades, donde se toma la de 2.006, con la cual se busca fomentar la cultura
libre decisión de participar activa y solidariamente en Empresarial y de Emprendimiento a nivel Nacional. Para
búsqueda de una meta u objetivo en común. Los modelos ello el Estado asume un compromiso definitivo con este
de asociatividad han estado presentes en la evolución importante componente que para el caso del Modelo de
del hombre con el fin de buscar bienestar a partir de los Industrialización de Software en el Triángulo del Café, se
esfuerzos de cada participante para beneficio de una considera fundamental, puesto que las ideas de negocio
comunidad. orientadas a nuevos productos y servicios de software,
―Sin embargo, en el campo Empresarial los modelos deben hacer parte de la Industria, perfilando a los
de asociatividad,no son tan generalizados, Emprendedores a desarrollar su Empresa dentro del
principalmente por falta de incentivo por parte del modelo propuesto.
Estado y por falta de cultura de cooperación existente Uno de los compromisos fundamentales del Gobierno
en la mayoría de las PyMEs‖[8]. Nacional fue el de crear la Red Nacional de
Algunas organizaciones, tanto de los Gobiernos como de Emprendimiento, definiendo responsabilidades y actores
carácter privado, han realizado un esfuerzo para proponer institucionales que garanticen el cumplimiento
e incentivarel agrupamiento de las empresas, pero para de los objetivos propuestos. Dicha Red Nacional fue
lograrlo definitivamente es necesario un cambio radical adscrita directamente al Ministerio de Industria, Cultura y
en los empresarios de la Región y algo de formación en Turismo del País.
los modelos existentes de asociatividad Empresarial
2.8 Políticas de Gobierno
2.7 Emprendimiento
El emprendimiento se convierte en la oportunidad de Después de analizar los países que hoy son potencia en
nutrir con mano de obra calificada la Industria de la Industria de Software, podemos afirmar claramente que
Software local, aprovechando la fortaleza del número de ese desarrollo no habría sido posible sin que se
Instituciones Educativas que están formando profesionales considerara una apuesta definitiva para cada país, es decir,
en las áreas de TIC. a nivel de Gobierno o de Políticas de Gobierno se ha
En Colombia, la tasa de actividad emprendedora (TEA) desarrollado la Industria en cada uno de los países que
fue del 24,52% para el año 2.008, representada en una hoy son Potencia en este sentido.
distribución de nuevos emprendedores equivalente al La Apuesta productiva de dichos países ha considerado
388
el componente de Políticas de Gobierno, como un desarrollo de un marco legal e institucional que
elemento fundamental para su desarrollo. En nuestro fortaleciera, los procesos de innovación y la
caso Colombia a través de diferentes gobiernos ha articulación de la oferta y demanda tecnológica. A partir
venido acomodando sus políticas hacia esta importante de esta motivación se generan el Sistema Nacional de
Industria, donde la Directiva Presidencial 02 de 2.000 Ciencia y Tecnología – SNCyT (Ley 29 del año 1990 y el
[10], podría considerarse como la ―Piedra Angular‖ de Decreto 585 de 1991) y el Sistema Nacional de
dicho proceso, puesto que a través de ella se inicia el Innovación – SIN (Conpes 2789, 1995), con los cuales
tema de Gobierno en línea en Colombia, con proyectos se busca la integración de diferentes organismos como
específicos orientados al tema de infraestructura en el gobierno, el sector productivo, la academia entre
TIC, incluido el proyecto Compartel que permitió de otros.
alguna forma la conexión a internet en todo el país En los inicios de los años 90 se adelantó esta política
Este camino hacia el desarrollo Tecnológico y de buscando integrar el sector privado al funcionamiento de
Infraestructura en TIC, se muestra fortalecido con la Ciencia y Tecnología (CyT), mediante su
elementos tan contundentes como el Plan Nacional de participación en once consejos nacionales, encargados
las Tecnologías de Información y las Comunicaciones – de formular las políticas para igual número
PLANTIC-, donde ―el Gobierno Nacional ha de áreas; adicionalmente buscó apoyar la formación de
considerado estratégicas centradas en TIC para fomentar recursos humanos y fomentar la articulación a redes
la competitividad y la igualdad de oportunidades en internacionales de CyT (Conpes 2739, 1994). Para el
Colombia. Por ello se ha fijado como objetivo que, en período 1994-1998, con la Misión de los sabios se
el 2019, todos los colombianos estén conectados e propuso ―integrar la CyT a los diversos sectores de la
informados haciendo uso eficiente de las TIC para vida nacional, buscando incrementar la competitividad
mejorar la inclusión social y la competitividad‖, del sector productivo en el contexto de una política de
asignando recursos y movilizando los actores internacionalización de la economía, y mejorar el
fundamentales para lograr dicho propósito. Durante el bienestar y la calidad de vida de la población colombiana‖
proceso de construcción del Plan, se realizaron (Conpes 2739, 1994, p. 4). Adicionalmente se toman
adicionalmente reuniones con diferentes instancias del medidas para aumentar la inversión pública y privada
sector público y privado para lograr la coordinación y en CyT proponiendo por medio de él, el incremento
alineamiento con la visión Colombia 2019, con el Plan de un 0,5% del producto interno bruto (PIB) en el año
Nacional de Desarrollo 2006-2010, con la Política 1994 hasta el 1% en 1998. A partir de ello, nacen los
Nacional de Competitividad, con el Plan de Ciencia y Centros de Desarrollo Tecnológico (CDT); las
Tecnología y con el Programa Estratégico de Uso de incubadoras de empresas de base tecnológica (IEBT), los
Medios y Tecnologías de la Información y la centros de productividad (CDP) y los parques
Comunicación (MTIC) en la Educación Descripción. tecnológicos. También se generan instrumentos
Pero definitivamente la realidad más importante y que le financieros y de fomento a la innovación como el capital
ofrece todo el apoyo e impulso a la Industria de software semilla, los fondos de cofinanciación, los incentivos
Colombiana, es el hecho que el Gobierno Nacional a tributarios para la inversión en CyT y los fondos de
través del Ministerio de Cultura, Industria y Turismo, capital de riesgo.
haya considerado al Software como uno de los Por medio del Conpes 3080 del año 2000 se formula un
sectores estratégicos de talla mundial, donde se desarrolló marco de política centrado en la articulación y el
incluso el Plan de Negocios para impulsar la Industria del fortalecimiento del SNCyT para el período de los años
Software en nuestro país. 2000-2002 con el cual se propone ampliar y consolidar
Otra de la Políticas de Gobierno fundamentales para esta objetivos y estrategias anteriores e incorporar otros,
Industria de conocimiento como lo es la Industria de como el apoyo a la agenda de conectividad —para
Software, es la Política de Ciencia y Tecnología, aprovechar las Tecnologías de la Información y la
puesto que en la actualidad el conocimiento y sus Comunicación (TIC), para el desarrollo del país—, la
variadas aplicaciones son elementos centrales para el puesta en marcha del Fondo Nacional de Productividad y
desarrollo económico y social de las industrias Competitividad, la especialización y articulación de
contemporáneas, las cuales reconocen que el poder fuentes de financiación de innovación. Finalmente, con
tecnológico es un factor de diferenciación que permite el Conpes 3280 de 2004 se proponen alternativas para
mejorar la posición competitiva en un largo plazo. Se mejorar la información, coordinación y
constituye esta Política en un elemento relevante para el complementariedad de las fuentes e instrumentos de
desarrollo industrial. apoyo a las empresas, además del seguimiento y la
Esta fue generada a partir del año 1990 cuando se evaluación de los resultados obtenidos. Sin embargo estos
incrementó el interés por mejorar la productividad y mecanismos de promoción han sido poco difundidos
competitividad de la industria, conduciendo al y carecen de comprensión y aprovechamiento
389
por parte del sector productivo, generando más Normativo, este componente está integrado por el
necesidades en cuanto a herramientas eficientes para la conjunto de leyes y normas generales que las diferentes
generación de un ambiente instancias del estado orientan para regular el
productivo capaz de responder a las exigencias de la funcionamiento de las empresas, los mercados y la
globalización. Ante ello, recientemente se ha competencia, es decir, seconsidera el marco externo
promulgado la Ley 1286 de Ciencia, normativo.
tecnología e innovación, por la cual se busca fortalecer Operacional, en este componente se consideran los
los incentivos brindados en el pasado y para lograr que las elementos que hacen referencia a la producción de
actividades de ciencia, tecnología e innovación sean bienes y la prestación de servicios de acuerdo a sus
efectivamente la base de la Política Nacional de objetivos y las metas definidas por la empresa.
Competitividad. Económico, considera todas las variables micro y
Adicional a lo anterior, es necesario reconocer que el macroeconómicas que afectan el nivel de rentabilidad de
conocimiento tal como lo plantea la Visión para el año la Organización, su nivel de gastos, de ventas, etc.
2019 de Ciencia, Social, este componente está directamente relacionado
tecnología e innovación debe producirse, difundirse, con el tema de la RSE, puesto que pretende satisfacer las
usarse e integrarse para contribuir a la transformación necesidades de los diferentes actores, de modo que le
productiva y social permita contribuir a la calidad de vida y el bienestar de la
del país. Por ello introducir los temas de gestión de la sociedad.
tecnología en el ámbito empresarial es de gran Ambiental, al igual que el anterior, este componente
importancia ya que para ser actores de la sociedad del también está relacionado con la RSE, puesto que hace
conocimiento, es necesario tomar decisiones y acciones referencia a los aspectos para la identificación del impacto
adecuadas que fortalezcan el desarrollo tecnológico del ambiental, la protección del medio ambiente y el
país. desarrollo sostenible.
Uno de los factores que mayor impulso ha dado al sector
ha sido el político, dentro del cual se enmarcan las leyes La Responsabilidad Social Empresarial RSE, considera el
y normas que incentivan el desarrollo económico, desarrollo integral de una organización, puesto que se
siendo éstas las principales jalonadoras de éxito de la preocupa inicialmente del nivel y calidad de vida de
industria del Software en las economías todos los actores que intervienen en la Empresa, pero
emergentes. además exige el cuidado con el entorno y con el medio
ambiente. La RSE busca es de algún modo compensar o
2.9 Responsabilidad Social Empresarial equilibrar el bienestar general y el uso adecuado de los
La Responsabilidad Social Empresarial con las siglas recursos siempre en busca de la conservación del planeta.
RSE, es la capacidad de respuesta que tiene una
empresa, una entidad o REFERENCIAS
una organización, para mantener en equilibrio y con un [1] Mojica FJ. Los Negocios del Futuro en la Economía
adecuado grado de satisfacción a los diferentes actores delConocimiento. Semana Internacional del
que tienen que Conocimiento, Oct 29-31, Manizales. PP. 64-51. 2008..
ver con el proceso de desarrollo de dicha organización, [2] Piattini M, García F, Garzás J, Genero M. Medición y
como son sus empleados, sus clientes, sus proveedores, Estimación del Software, Técnicas y Métodos para
etc. (stakeholders o grupos de interés). Entonces se Mejorar la Calidad y la Productividad. Madrid,
considera a una Empresa o a una Organización Editorial Ra-Ma. ISBN: 9788478978588. P: 308. 2008.
socialmente responsable cuando las actividades [3] Joyanes L. Fundamentos de Programación,
que realiza se orientan a la satisfacción de las Algoritmos,Estructura de Datos y Objetos. Madrid, Mc
necesidades y expectativas de los actores internos y Graw Hill. ISBN: 9788448161118. P: 766. 2008.
externos que de alguna forma [4] Sánchez A, Mejía J, Cuevas G. Gobierno de la
contribuyen al éxito de la Empresa y a lograr las metas Externacionalización del Proceso de Software. Revista
de la misma. La responsabilidad social se ha vuelto un de Procesos y Métricas de las Tecnologías de la
asunto de primer orden Información (AEMES). 2008 Enero 2008:25.
para las empresas debido tanto a las exigencias del [5] Ospina C. PEMV - Plan Estratégico de Mercadeo
mercado como al incremento de la sensibilidad con los y Ventas. 1 ed. Manizales: Alsus IT Group S.A, PP.
problemas y retos sociales y ambientales que afronta la 120. 2009.
humanidad en su conjunto[11]. [6] Waverman L, Dasgupta K. Connectivity Scorecard.
Una gestión empresarial considera diferentes escenarios Nokia Siemens Networks,consultado en 2010 20 -
de actuación, como los siguientes: Febrero, P: 65. [On
390
line]http://www.connectivityscorecard.org. 2009. Anual Colombia 2008. ed. Colombia: Imprenta Nacional,
[7] DANE. Indicadores Básicos de Tecnologías de la PP. 92. 2009.
Información y la Comunicación TIC. ed. Bogotá: [10] Pastrana A. Directiva Presidencial 02 de 2000.
Departamento Administrativo Nacional de Estadística, PP. Bogotá: Presidencia de la República de Colombia, P
28. 2008. 2000.
[8] Rosales R. La Asociatividad como estrategia de [11] Confecámaras. Manual para la Consultoría de
fortalecimiento de las PyMEs. USA: Universidad de Responsabilidad Social Empresarial. Segunda ed. Bogotá:
Texas, 1997 Septiembre de 1997. Confederación Colombiana de Cámaras de Comercio, PP.
[9] Vesga R, Quiroga R, Gómez L, Varela R, Pereira 108. 2008.
F. GEM, Global Entrepreneurship Monitor: Reporte
391
392
Comunidades de práctica y Web 2.0, estratégias para la democratización
del conocimiento en la empresa.
Lillyana María Giraldo Marín Carlos Hernán Gómez Gómez Rafael Antonio Tejada
Docente investigadora Docente investigadora Quintero
Universidad de Medellín Universidad de Caldas Profesor catedrático
Medellín Colombia Medellín- Colombia
(054)- 2606012 (054)- 2606012 Universidad de Caldas
Medellín- Colombia
lmgiraldo@udem.edu.co ch@ieee.org (054)- 2606012
Rafael.tejada@gmail.com
393
advenimiento de las tecnologías de información y un tema especifico, y donde algunos de sus objetivos son: la
comunicación que han dado lugar en buena parte de su participación, las relaciones entre sus participantes, la
evolución a una proliferación y aumento de los datos y la comunicación, creación, innovación y la transferencia del
información en las organizaciones. La necesidad urgente no conocimiento, haciendo énfasis en la calidad superior, el
es de más información, sino de mejores maneras de mejoramiento continuo y el aprendizaje organizacional, lo
decantarla, organizarla e interpretarla, es decir, de cual exige un acceso al conocimiento de todos los
conocimiento. En este sentido, el desafío ya no es procesar miembros de la organización.
la información, sino crear, comunicar, disponer y conservar Estas nuevas demandas de las personas y las organizaciones
el conocimiento. Lo que lleva a identificar un segundo impulsan el desarrollo más agresivo, tanto del hardware,
aspecto y es el del reconocimiento que se hace del como del software y es en estas innovaciones que se le da
conocimiento como recurso y producto generador de toda la importancia a las tecnologías como medios a través
capacidad y ventaja competitiva. de los cuales se puede no solo capturar, almacenar y
En este sentido cabe destacar como las tecnologías en distribuir el conocimiento en la organización, sino que
general y en la actualidad las tecnologías web 2.0 han también aparecen tecnologías capaces de proveer
resultado ser un medio eficaz, a través del cual se puede plataformas tecnológicas donde es posible crear, compartir,
realizar procesos tales como: captura, almacenamiento y distribuir el conocimiento en el momento y lugar donde se
distribución del conocimiento. Y adicionalmente se destaca requiera y lo más relevante crear ambientes de
el atributo mas importante que estas tienen. Y es la colaboración.
posibilidad que tienen de interconectar la organización en Sobre la base de las consideraciones anteriores, otro
red, posibilitando la comunicación de la información y el aspecto importante de la GC son los distintos enfoques que
conocimiento entre los miembros de la misma y por fuera se le han dado a esta en las organizaciones, el primero es el
de ella, motivando con esto los ambientes de colaboración enfoque evolutivo, panorámico y duradero, el cual ha
que tanto reclaman las necesidades actuales de la empresa. permitido contemplar los rasgos más generales de los
En este sentido, en los últimos años estamos asistiendo al procesos de generación de conocimiento en una
desarrollo de entornos tecnológicos más interactivos y organización. El segundo enfoque se dirige a la
colaborativos. [2] construcción más intima y mas cotidiana del conocimiento,
Acordes con la evolución de la importancia del determinada por la calidad de los intercambios y la
conocimiento en las organizaciones y a la evolución de las participación de las personas que deben hacer una tarea en
tecnologías que se usan para gestionarlo, se puede definir conjunto, lo que crea un nicho para que los temas de
qué: la primera generación de gestión del conocimiento interés común generen implicaciones, ofrecimiento de
estuvo marcada por la orientación hacia la gestión de ayuda y apoyo mutuo, y de compartir significados y
contenidos, pues había una mayor disponibilidad y construcción de identidad. [2]
demanda para el almacenamiento y distribución de datos e En este artículo se destaca el segundo enfoque planteado en
información, por las facilidades que proporcionaban las el parágrafo anterior, ya que es en este escenario de
tecnologías de información y comunicación en ese colaboración donde pueden llegar a tener un mejor
momento, en esta generación se hizo un uso más mecánico desempeño las CoP´s, esto si están apoyadas por
de las tecnologías, es por supuesto debido a que era más tecnologías web 2.0 que realmente promuevan la
importante en hardware. comunicación entre los miembros de la comunidad y por
Para la segunda generación de GC, su evolución se da a ende se logre el objetivo deseado.
partir de la necesidad del intercambio entre las personas y De lo expuesto anteriormente, se podría afirmar, que las
la creación de conocimiento, estos dos nuevos aspectos CoP´s se presentan como una estrategia de GC, que permite
obligan a las organizaciones a crear estrategias que la integración, la comprensión, el compromiso mutuo y
permiten gestionar y promover la colaboración para el repertorio compartido de recursos intangibles, que es el
intercambio de conocimiento. A partir de estas nuevas resultado de una práctica compartida de las personas y de
demandas no solo se desarrolla el hardware, sino, que sus conocimientos desde la conformación espontánea de
también empieza el software a presentar desarrollos acordes dicha comunidad. Por lo tanto, las CoP´s deberán propiciar
a las necesidades de las personas y es por tanto que los escenarios donde se promuevan los procesos de
empiezan a aparecer lo que se conoce en la actualidad como creación, innovación, transformación e intercambio de
tecnologías web 2.0. conocimiento, que realmente permitan comunicar esté
Para la tercera generación de GC se hace necesaria la dentro de las CoP´s y de la organización, donde han
integración de esas colaboraciones, como una de las surgido ellas.
respuestas a esta necesidad se empiezan a conformar de 2. MATERIALES Y MÉTODOS
manera voluntaria en las organizaciones CoP´s, iniciativas El proceso de indagación que involucro la realización del
de GC que pretenden la conformación espontanea de artículo, implico inicialmente la selección de bibliografía
grupos de personas que comparten un conocimiento sobre
394
especifica, orientada por el concepto de comunidad de verbalizarlo, compartirlo, transformarlo y reflexionarlo dan cuenta
práctica, lo que llevo inicialmente a seleccionar 50 textos, de la naturaleza dinámica del mismo, fundamentado en la
relacionados con: trabajos de investigación, libros, verificación y convalidación que hacen los otros participantes
ubicando la relación entre el conocimiento y la acción en el
artículos, entre otros. Así mismo, para los temas de:
centro de la reflexión de la gestión del conocimiento, dándole con
tecnologías web 2.0, GC, estrategia de GC y esto una dimensión colectiva que permite crecimiento y
democratización, se hizo una revisión general para perfeccionamiento de dicho conocimiento. Si bien, durante el
seleccionar artículos y autores que estuviesen más desarrollo de este artículo se ha hecho énfasis en la importancia
específicamente relacionados con los temas en cuestión y que tienen las tecnologías como medios a través de los cuales se
aportarán más sobre la pregunta objeto de reflexión. puede compartir el conocimiento y propiciar escenarios de
En este mismo orden, y situados en la tercera colaboración al interior de las CoP´s, estas deberán ser usadas con
generación(integración de las colaboraciones) y segundo experticia y con objetivos claros, para así lograr los objetivos
enfoque de la gestión de conocimiento(valoración de los deseados.
intercambios y la participación), se realizó un análisis de
integración y correlación de lo general a lo particular, de 3.1 Comunidades de práctica, CoP´s
los conceptos desde los cuales se pretende abordar el objeto
de estudio de este artículo, lo cual implico partir de la El concepto fue creado en el año 2005 por Etienne Wenger
organización como ámbito para la creación, transformación, en su obra: “Comunidades de práctica: aprendizaje,
innovación, distribución y comunicación del conocimiento, significado e identidad”. Desde el enfoque de Wenger, la
condiciones necesarias para desarrollar y potenciar la organización no es una pirámide que se mueve por
creación de CoP´s, donde se faciliten la unión, integración relaciones de autoridad y de obediencia, todos saben que en
y alineación de procesos de GC orientados por principios las organizaciones la mayoría de los individuos no hacen lo
colaborativos, enmarcados en compartir lo que se que se les ordena hacer, por el contrario ellos hacen lo que
comprende, soportado por la negociación de un sus jefes hacen. Por lo tanto, los motores de la acción de las
compromiso mutuo, de compartir conocimientos desde los personas que conforman la organización no están en la
intereses comunes de sus participantes, lo que potencia el obediencia, sino, en el significado, es decir, en el sentido
involucramiento de todos los miembros de la comunidad que los individuos le otorgan a lo que hacen. Consecuente
con un mayor alineamiento de todas las funciones, como con lo anterior, el sentido dentro de la CoP es una
también un mejor diseño y control de procesos que son el construcción colectiva de los otros significados.
nicho para el surgimiento de una gran cantidad de Para Wenger las organizaciones son una ―constelación de
iniciativas de mejora con respecto a: la estrategia, cultura, comunidades de práctica‖, un conjunto de redes
los recursos, productos, la administración y los mercados. interpersonales productoras de sentido y generadoras de
Así mismo, se hizo un análisis horizontal para hacer una conocimiento. Cada comunidad tiene sus propios
correlación de categorías como: democratización, estrategia participantes, sus propios temas, su identidad y sus propias
de GC, para luego integrarlo al concepto de las CoP´s. formas de interrelacionarse, compartir y producir nuevo
Afín con el objetivo que se desprende de la pregunta que conocimiento. Así, se puede definir entonces que cada
orienta el presente artículo, se hizo una exploración de la comunidad tiene su propio sistema de creencias, tiene una
literatura sobre GC, de lo cual se evidencia la necesidad de forma particular de ver las cosas que produce sentido y
que futuros trabajos profundicen sobre el tema en cuestión conocimiento a través de la interacción entre quienes tienen
permitiendo abordar aspectos conceptuales, axiológicos y contacto más o menos cercano. Es decir, se podría afirmar
metodológicos involucrados GC al interior de las CoP´s en que desde su propia identidad las CoP´s tienen su propia
las organizaciones, apoyadas estas iniciativas de GC en las cultura y esta no es la misma de la organización.
tecnologías web 2.0. Por la naturaleza de la comunidad de práctica se reconoce
que estas tienen una dinámica propia, que puede o no ser
consecuente con la estructura formal donde está contenida.
La identidad de una comunidad de práctica no la define la
organización, ni tampoco ella misma, la identidad de la
3. RESULTADOS Y DISCUSIÓN comunidad surge de un proyecto colectivo que sea valioso,
construya autonomía y tenga sentido para sus miembros y
En la medida que el trabajo humano deja ser solo habilidad y
aborda el perfeccionamiento de competencias soportadas por la por ende para la organización.
posesión de conocimiento experto, pasa a convertirse en una serie Es en estas ideas de autonomía y proyecto colectivo de las
de actos singulares realizados con experticia que exigen funciones CoP´s, en donde se soportó la revisión de los textos para
decisionales complejas basadas en la comprensión y la dar cuenta de que las comunidades de practica deben
convalidación social del conocimiento, facilitando su propiciar la democratización del conocimiento, como una
crecimiento e innovación, en este sentido hay que reconocer que esfera que permite que sus participantes compartan y
el conocimiento reside en las personas que al aplicarlo, construyan conocimiento desde sus propias motivaciones
395
intereses y libertades, siempre en la búsqueda del bien Las CoP´s comparten un sentido de empresa común, un
común. sentido de mutualidad e interdependencia y un repertorio de
En esta misma línea, Wenger [2] afirma que, el alambique conductas compartidas. [3]
donde se destila el conocimiento en las organizaciones son Siguiendo a Wenger, este propone que las CoP´s tienen tres
las CoPs. Cada CoP es un conjunto de personas que hablan características esenciales que son las que la definen como
de sí mismas como ―nosotros‖ porque comparten un comunidad: Un dominio, una comunidad y una práctica, si
proyecto común, una identidad dada por la pertenencia a la bien todas las comunidades de practica tienen estas tres
comunidad y un repertorio de preguntas y respuestas frente características, estas pueden ser conformadas de distan
a los problemas que son objeto de trabajo de la comunidad formas. Algunas son muy pequeñas, algunas son muy
de práctica. Las CoP´s exploran la relación entre los grandes, a menudo con un grupo básico, y muchos
conocimientos organizacionales y la acción colectiva. Este miembros periféricos. Algunas son locales y otras están
autor construye su argumentación alrededor de la dispersas geográficamente. En algunas sus miembros
producción social de significados, de las experiencias y las pueden verse cara a cara, algunas utilizan internet como
acciones, dentro de un proceso que él llama negociación de único medio de comunicación. Algunas están dentro de una
sentidos. organización o son miembros de diversas organizaciones.
Al respecto para [3], La dimensión social de la construcción Algunas son reconocidas formalmente, a menudo con el
de sentido ha sido desarrollada por otros autores, Weick, apoyo de un presupuesto, y algunas son totalmente
considera que la creación de sentido tiene a la vez un informales, e incluso invisibles.
carácter dinámico y en construcción; se trata de crear, Para [4] las CoP´s son una fuente básica para la creación de
inventar y poner en escena ciertas interpretaciones sobre conocimiento. Consisten en un grupo de personas que se
una situación vivida.129 Pero, para Wenger, la noción de unen para compartir experiencias positivas o negativas,
negociación de sentido tiene un significado desde la procedimientos acertados o fallidos, pues su función
perspectiva social, estrechamente incorporada a la práctica. primordial es compartir prácticas a partir de las cuales sea
Así, él precisa, que es necesario comprender que el término posible crear o generar conocimientos para que el grupo
―negociación‖, tal como él lo concibe, está ligado al saber- pueda avanzar y obtener mayores y mejores éxitos, que se
hacer. traducen en mayores eficiencias organizacionales, lo cual
Es así, que el término comunidad de práctica se refiere, a la exige acceso y disponibilidad del conocimiento que lo
comunidad que actúa como un programa de estudios para la vincula con las lecciones aprendidas de los éxitos y fracasos
vida del aprendiz en la organización. Una vez que se del pasado.
articuló el concepto, empieza a versen estas comunidades Como todo proceso, se requiere una dirección que facilite
en todas partes, incluso donde no existe sistemas de los encuentros, sin desconocer que se puede crear un
aprendizaje formal [2]. Por tanto, no se circunscribe a la liderazgo colectivo. Se resalta que la función primordial de
organización formal de educación, sino, que también ubica las CoP´s, es compartir prácticas a partir de las cuales sea
otros espacios de aprendizaje como lo son las posible crear o generar conocimientos para que el grupo
organizaciones sociales o productivas. pueda avanzar y obtener éxitos. En este sentido las CoP´s,
Para Wenger, la supervivencia de una organización está se pueden proponer como modelos alternativos de
dada por su capacidad para diseñarse a sí misma como un aprendizaje individual y organizacional, así mismo, ellas
sistema social de aprendizaje, lo que quiere decir que no podrán asumir roles de liderazgo en procesos educativos de
solo deben considerarse las CoP´s, sino también las la organización.
relaciones que tienen entre sí ellas para participar en La condición de libertad y de democracia que tiene las
actividades de aprendizaje, pues es la disposición que CoP´s es la oportunidad que dan a sus miembros de
tengan los miembros de las comunidades para compartir relacionarse y moverse entre constelaciones de CoP´s,
conocimiento lo que potencia las condiciones de desde la posibilidad que brinda su concepción de
democratizar el conocimiento al interior de ellas y por fuera transformarse en redes sociales. Cada persona tiene
de las mismas en el contexto de la organización. autonomía para integrar varias CoP´s, esto siempre y
Por lo tanto, las CoP´s se podrían definir como algo más cuando se cuente con los dominios de conocimiento que
que equipos de trabajo, estas no son organizaciones validen y permiten esa participación en dicha comunidad y
corporativas, la naturaleza de una CoP es la espontaneidad esta participación puede cambiar de forma, en este sentido
con la que se conforman y la motivación de participación la persona puede elegir dejar de pertenecer a algunas o
que tienen sus miembros destacándose la intensidad de sus integrar otras. [5]
vínculos sociales y la intención de aglutinación que crea. Estas diversas formas de relacionarse y la flexibilidad que
permiten las CoP´s a sus participantes, conlleva a
identificar tres tipos posibles de interacciones que se dan en
ellas, estas son: la primera serían las interacciones internas,
la segunda las interacciones de la comunidad de práctica
396
con los demás miembros de la organización y la tercera la conocimiento y acepta el de los otros, otorgando valor a la
interacción entre las comunidades. Sus acciones misma comunidad; b) la empresa conjunta, aun cuando los
compartidas están vinculadas con ella y con otras intereses sean diferentes hay un proceso de negociación y
comunidades, sus miembros son al mismo tiempo miembros llegar a compartirlos y juntar esfuerzos para lograrlos y c)
de otras comunidades; sus mecanismos y herramientas están el repertorio compartido al ir adoptando rutinas, palabras,
disponibles para diversos grupos. [5] herramientas, maneras de hacer, símbolos, conceptos
Reorientar la atención hacia las CoP´s que operan dentro de incorporándolas a las prácticas.
una organización en las redes más amplias en las que se Si bien el concepto de CoP, apenas cuenta con escasos
conectan, permite encontrar un espacio intermedio entre el cinco años de desarrollo, son muchas las experiencias que
aprendizaje individual y el aprendizaje organizacional. las organizaciones han tenido en su implementación, por lo
Ayuda a pensar el aprendizaje colectivo en dos planos: el tanto estas experiencias han conducido a la evolución del
de la CoP´s, como ya se ha mencionado constituye una concepto, en este sentido autores como Henri y Pudelko
unidad de aprendizaje con un proyecto en común, un proponen aspectos como: la agrupación que se da de los
conjunto de recursos compartidos, una historia en común y participantes y de sus conocimientos, el vínculo social que
los de los ―puentes‖ entre comunidades practica, es decir, se desarrolla entre los participantes de la CoP´s , han
las relaciones entre sus miembros. [2], [5] marcando a las CoPs como la evolución final y madura de
Este concepto de construcción de aprendizaje desde lo grupos de personas que desean crear, transformar, innovar y
individual como desde lo organizacional y la existencia de compartir conocimiento en las organizaciones. Esta
puentes entre las CoP´s, es otro escenario de participación disponibilidad de las comunidades favorecen ampliamente
importante que promueve la democratización del los escenarios para la democratización del conocimiento en
conocimiento en las organizaciones. Pues permite la las organizaciones, pues los fuertes vínculos entre los
interacción de los individuos al interior de la comunidad participantes y su intencionalidad de agremiación
desde su autonomía, compromiso y responsabilidad, y contribuyen para su efectiva participación y colaboración,
también puede participar en la interacción entre así mismo, para el logro de sus objetivos comunes.
comunidades. 3.2 La web 2.0, colaboración e interactividad
Por su parte, [6] señala que una CoP es la creación de
espacios de comunicación entre miembros de una empresa La web 2.0 es un fenómeno que tiene su origen en la
para lograr que puedan compartir la visión, las historias y madurez y desarrollo de internet y en el uso masivo de las
las técnicas relacionadas con sus necesidades específicas en tecnologías de información y comunicación. En la
el puesto de trabajo en la cual todos deben aprender de actualidad millones de personas poseen tecnologías tanto en
todos. Es la construcción de una red social. sus hogares, en sus lugares de trabajo y con los dispositivos
Desde este punto de vista, lo más relevante es el cambio de móviles en donde se requiera, sin embargo, esto ha
paradigma que se produce al concentrarse el conocimiento requerido un gran desarrollo tecnológico que posibilite
en un grupo y no en una persona, permitiendo eliminar los cubrir estas demandas. En este sentido los autores [20],
egos que producen un bloqueo en el aprendizaje, en opinan que mil millones de personas en todo el mundo
consecuencia, aquellos que se sentían indispensables por tienen ahora acceso a internet, esto se traduce en que los
poseer la información y el conocimiento deberán cambiar, dispositivos móviles superan en una proporción de 2 por 1
permitiéndose el intercambio del conocimiento con otros a los computadores de escritorio.
individuos, y serán reconocidos por su participación y
liderazgo. Esta nueva tendencia es interesante y ayuda El termino web 2.0, fue acuñado en 2004 por Tim O'Reilly
sobremanera a acelerar la velocidad del aprendizaje; sin y Media Live International, aunque parece ser que el
embargo, dado que no todo podrá ser documentado, concepto sugiere una nueva versión de la World Wide
entonces es el grupo quien se posiciona como el especialista Web, no es lo que realmente significa. Por el contrario la
en un dominio del conocimiento particular [7]. web 2.0 hace referencia a algo más novedoso y popular, lo
Proporcionando con esto un liderazgo colectivo y en cual se define en términos de las muchas posibilidades que
algunos momentos particulares generando un liderazgo está ofrece para desarrolladores de software y usuarios y las
situacional. Lo anterior muestra como a partir de la formas de usarse.
participación, se genera un nuevo modelo mental colectivo Algunas de las definiciones de la web 2.0 que existen es la
con respecto a la posesión y utilidad del conocimiento, lo que propone Weinberger, este define la web 2.0 como una plataforma
que promueve el compartir conocimiento, suscitando en abierta, la cual ofrece a mejor posibilidad de edición, es un lugar donde la
gente puede conectar sus ideas, donde se dispone de un mayor ancho de
las personas ser más participativas dentro de las CoP´s.
banda, este autor define la web 2.0 como una evolución natural de la web
Pero esta voluntad de participación que tienen las personas 1.0. [8]
de la CoP, está orientada según [2] citado en [8] por las De acuerdo con los autores: [18], estos definen las
dimensiones de la CoP´S, estas son: a) compromiso mutuo características de la web 2.0 apoyados en otros, (MacManus
que consiste en el hecho de que cada miembro comparta su
397
y Porter, 2005; Hinchcliffe´s, 2006; Santamaría, 2007; acciones de democratización. En este sentido el uso
Cruz, 2007), plantean algunas características de la Web2.0, habitual del término democratización nos vincula con
que la diferencian de la Web 1.0: relaciones más horizontales, de libre participación, pero con
Publicación sencilla que puede ser utilizada sin la necesidad compromiso y alteridad. Desde esta perspectiva se pueden
de instalarse en el computador, ni de conocimientos del presentar como ejemplo de democratización: la
lenguaje HTML. democratización de las relaciones familiares, de las
Entorno de usuario amigable e interactivo. relaciones laborales, de la empresa, de la universidad, de la
Sindicación de contenidos RSS, mediante los cuales escuela, de la cultura, entre otras.
lectores de noticias pueden conocer las modificaciones e En [10], se plantea tres puntos fundamentales para entender
incorporaciones realizadas a una publicación. un proceso de democratización: Libertad de expresión,
Control de datos: el usuario tiene la capacidad para igualdad de derechos y representatividad y estructuras
gestionar qué, cuándo y cómo publicar la información. sociales sólidas y legitimadas.
Facilidad para la colaboración y la participación, En la génesis y consolidación de la comunidad de práctica,
permitiendo la construcción de auténticas redes sociales. los anteriores tres puntos fundamentales del proceso de
Software sin necesidad de instalarlo en la computadora. democratización deben orientar el compartir, transferir,
Colaboración en línea a través de los distintos recursos adquirir, aplicar y evaluar el dominio de conocimiento de la
disponibles. comunidad de práctica, lo cual debe dar pie a identificar a
Nuevas procedimientos para trabajar, comunicarse y la comunidad de practica como estrategia de generación de
participar en la web. valor, al estimular el aprendizaje organizacional e
Falta implementar estrategias de seguridad informática. individual. Por lo tanto, la estrategia de GC basada en la
Creación de nuevas redes de colaboración. consolidación de relaciones horizontales y en una forma de
convivencia de mayor participación que genera un capital
Debido a estas características, se ha señalado que la relacional como es la confianza podrá posibilitar la
emergencia de la web 2.0 representa una revolución social, democratización del conocimiento fundamentada en la
más que una revolución tecnológica. No se trata tanto de CoP, pues fortalece aspectos propios de la comunidad
una tecnología, como de una ―actitud‖, la cual consistiría, como: la ética, diferentes niveles de implicación de los
básicamente, en el ―estímulo a la participación a través de miembros, de ofrecimiento de ayuda, de apoyos mutuos, y
aplicaciones y servicios abiertos‖. [21] de compartir significados y construcción de identidad [1].
Estos autores también señalan, que cuando las comunidades
Si bien estas características nos plantean escenarios evolucionan, pueden tomar dos posibles caminos: el
colectivos, no son las tecnologías solas las que promueven primero es evolucionar hasta altos niveles de vínculo social
la colaboración entre los individuos que conforman la e intencionalidad de unión, y el segundo llevar al despojo
empresa, estás, si bien, sirven de apoyo, deberán ser las de los vínculos sociales y a la alteración del modo y del
organizaciones desde sus experiencias y retos las que tienen grupo. Si la comunidad se construye bajo los preceptos de
que definir el escenarios (estructura, cultura, dirección) democratización antes mencionados se espera que esta
para que las iniciativas de gestión de conocimiento como lo pueda llegar a tener la autonomía y la libertad de crear
son las CoP´s apoyadas con plataformas abiertas web 2.0 vínculos sociales inspirados en la intencionalidad de unión,
logren alcanzar el objetivo de democratizar el conocimiento pero con una unión soportada en la convicción del progreso
en la organización. de la comunidad y el de sus participantes y como resultado
de esta, la orientación de la organización al alcance de sus
3.3 Democratización del conocimiento objetivos.
La democratización entendida como la implementación, Estas dos alternativas que plantean Henri & Pudelko, son
ampliación y/o profundización de la democracia, debería elementos que combinados con el reto que tienen los
ser entendida como la necesidad de una mayor comprensión miembros de las CoP, como son, el de desarrollo personal y
de la naturaleza de las instituciones democráticas, su enriquecer la práctica profesional a través de compartir
funcionamiento y los motivos por los que progresan o conocimiento complementarios entre sus miembros [1], se
fracasan. La democracia tiene un sentido útil, sólo si se le convierten en los pilares que apoyan la estrategia de
define en términos institucionales, pero también supone gestión de conocimiento en la organización, donde la
negociaciones, compromisos, acuerdos y el convencimiento iniciativa son las CoP´s, y a través de estas se debe lograr
de la necesidad de resolución pacífica de diferencias. [9] permitir: el acceso, el intercambio, la integración, y la
La democracia como sistema de relaciones horizontales, no distribución igualitaria de los conocimientos entre los
solo designa una forma de organización política, sino participantes, inspirados en los principios definidos en el
también una forma de convivencia y organización social proceso de democratización.
menos vertical, más horizontal, con relaciones más Por esta razón, el análisis horizontal de la democratización
igualitarias entre sus miembros, que consolidan relaciones o del conocimiento y las CoP´s como estrategia de GC en la
398
organización, propone que si los participantes de la que existen y las que no existen (pero que deberían existir)
comunidad, que a la vez son miembros de la organización, entre las comunidades que constituyen el capital social de la
no están inspirados y motivados por los valores organización adentro y afuera. Dicho de otra manera tender
fundamentales que plantea la democratización, por los puentes entre ellas, condición que posibilita la interacción y
objetivos que tiene la CoP y por los retos tanto individuales por ende la democratización. [3]
como colectivos que persigue dicha comunidad, no se La familia, un grupo de colegas, un equipo de trabajo,
lograra una verdadera cohesión entre los miembros de la pueden ser vistos como CoP´s, siempre que haya un sentido
comunidad y por tanto los resultados obtenidos no van a ser de empresa común, un sentido de mutualidad o de
los esperados, perdiendo con esto su legitimidad como interdependencia y un repertorio de conductas compartidas.
grupo dentro de la misma comunidad y por fuera de ella. [3]
Por lo tanto para que las comunidades de practica en la Dicho de otro modo, la ventaja competitiva de la
organización se conviertan en verdaderos escenarios de organización es mayor en cuanto sus capacidades sean
participación y donde se pueda lograr una democratización realmente distintivas y difícilmente imitables, de aquí la
del conocimiento, estas deberán ser conformadas por importancia de la gestión del conocimiento en la
personas motivadas por sus propios intereses y los de los organización. [12]
demás, permitiendo una participación igualitaria entre sus Esta es la razón primordial por la que existen las
miembros para construir identidad y confianza al interior de comunidades de practica en las organizaciones, pues estas
la comunidad y por fuera de esta. se convierten en nichos de aprendizaje y de creación de
Para lograr el acceso, el intercambio, la integración, y la conocimiento relevante dentro de la organización,
distribución igualitaria de los conocimiento entre los apoyándose en estas para generar parte de su ventaja
participantes, inspirados en los principios definidos en el competitiva.
proceso de democratización, se deberá disponer de Si bien la democracia es un principio fundamental, no es
plataformas tecnologías abiertas basadas en los pricipios de algo que se de manera natural entre los miembros de las
la web 2.0 propuestas por la autora [19 ], estos son: CoP´s, para que exista un libre acceso al conocimiento de
La web como plataforma abierta otros, la actitud de los miembros para compartirlo. Las
La web como una plataforma donde se desarrollan servicios organizaciones deberán cambiar su cultura, estructura y la
La web como plataforma que permite y promueve la dirección. Pues solo si se tienen estructuras más planas y
participación activa de los usuarios flexibles, y se le da mayor autonomía a los individuos,
Aplicaciones de nivel 0, pueden funcionar bien mejores oportunidades de formación y se definen
desconectados, O´Reilly dio algunos ejemplos MapQuest y mecanismos de control y autoridad, donde reine la libertad
Google Maps de expresarse, de crear y de compartir, solo así se lograra
No a las aplicaciones web como el correo electrónico, una verdadera democratización del conocimiento.
mensajería instantánea y el teléfono. Las tecnologías web 2.0, poseen características que las
Estos principios de la web 2.0, unidos a las características convierten en medios naturales a través de los cuales se
de las CoP´s proponen los principios inspiradores de la puede crear, almacenar, compartir conocimiento, sin
verdadera democratización del conocimiento en la empresa, embargo no lo son por si solas. Las plataformas
pues si bien se había afirmado con anterioridad que no son tecnológicas web 2.0 o arquitecturas abiertas, deberán estar
las tecnologías, sino las personas las que pueden desde una acompañadas de políticas institucionales, de valores de los
actitud positiva promover la participación y el compartir, usuarios hacía el uso de estas con interese colectivos y de el
las CoP´s si bien no son las únicas estrategias para convencimiento de la alta dirección de que su uso
democratizar el conocimiento, si son una de las maneras de direccionado con el tiempo se convierten en un recueros
lograrlo. Y si se cuanta con una plataforma de apoyo de diferenciador difícil de imitar.
tecnologías web 2.0 se podría lograr mejores resultados en La Web 2.0 potencia espacios de interacción social, la
términos de colaboración entre los miembros de la CoP. participación colectiva y gratuita basada en tecnologías
abiertas, flexibles y fáciles de utilizar por los internautas.
4. CONCLUSIONES Según O‘Reilly (2005), la segunda generación web la
Las CoP´s son escenario que favorecen el aprendizaje información es la fuerza principal que la sostiene, donde se
individual y organizacional, la distribución, comunicación y construye una arquitectura de participación que provoca
la creación de nuevo conocimiento en las organizaciones efectos en las conexiones; y donde las innovaciones en la
que tienen bien definida su estrategia de gestión de construcción de los espacios virtuales y sistemas se realizan
conocimiento. Así mismo, las CoP tendrán que estar en a través de una conjunción de conocimientos y experiencias
constante evolución y crecimiento, pues, esto motivara la desarrollados por individuos diferentes, a modo de un
participación de sus miembros. [11] ―recurso de desarrollo abierto.‖ Asimismo, la web 2.0 es la
La comunidad de practica deberá entender las interacciones red (Internet) como plataforma, abarcando todos los
dispositivos; yendo más allá de la metáfora de la página de
399
la web 1.0 (sitios que no permitían la participación de practica-y-gestin-del.html
usuarios) para entregar experiencias ricas a los usuarios. [11] García, R., Ramirez, G., Angulo J. y Lozoya, J. 2007.
[18] Comunidades de práctica: una estrategia para la creación de
conocimiento. [en linea]. Disponible:
www.itson.mx/vasconcelos/documentos/volII-num2/RVE-
5.REFERENCIAS 2-2-9.pdf
[12] Sanz, S. 2005. Comunidades de Practica Virtuales:
[1] Beazley, H., Boenisch, J. y Harden, D. 2003. La Acceso y uso de contenidos. [en linea], disponible:
continuidad del conocimiento en las empresas, Colombia, www.uoc.edu/rusc/2/2/dt/esp/sanz.pdf
Editorial Norma, pág. 6. [13] Belly, P. 2004. El shock del management, México:
[2] Amberg, M. y otros. 2009. Designing an integrated McGraw-Hill, 2004.
Web-based personal learning environment based on the [14] Huntington, S. 1989. El Sobrio Significado de la
crucial success factors of social networks. En Méndez, A y Demacracia, Estudios Públicos. [en linea]. Disponible:
otros. Research, reflections and innovations in integrating www.cepchile.cl/dms/archivo_1061.../rev33_huntington.pd
ICT in Education. Badajoz, FORMATEX. 1075- 1080. f
[3] Wenger, E. 2000. Communities of Practice and Social [15] Dahl, R. 1991. Los Dilemas del Pluralismo
Learning Systems, [en linea],Vol. 7, No. 2, pp. 225-246, Democrático: autonomía versus control, México: Alianza
(26-junio-2009), Disponible = Editorial.
http://org.sagepub.com/cgi/content/abstract/7/2/225 [16] Clark, Katherine, Hammer, Maureen. 2008.
- (1998). Communities of practice: learning, meaning, and Communities of practice: the vdot experience, Knowledge
identity, pp. 45. (28-agosto-2010), Disponible: Management Review. [en linea]. Disponible:
http://www.infed.org/biblio/communities_of_practice.htm http://www.encyclopedia.com/doc/1P3-1605260291.html
[5] Wenger, E., McDermott, R. y Snyder, W. 2006. [17] Paniagua, E., López, B., Martin, F., Campos, M.,
Cultivating Communities of Practice, Boston: Harvard Cárceles, A., Rodriguez, A. y otros. 2007. La Gestión
Business School Press. Tecnológica del Conocimento, (Primera ed.). Murcia,
[6] Wenger, E., McDermott, R. y Snyder, W. 2002. España: Ed. Servicio de Publicaciones.
Cultivating communities of practice: a guide to managing [18] Domínguez, G. y Llorente, M. 2009. La educación
knowledge, Harvard Business School Press. social y la web 2.0: nuevos espacios de innovación e
[7] Gaviria, M. 2009. Gestión del conocimiento y interacción social en el espacio europeo de educación
comunidades de práctica en laboratorios de investigación superior, Pixel-Bit. Revista de Medios y Educación, Núm.
del Polo Científico Grenoblés en Francia, Rev. Interam. 35, julio, 2009, pp. 105-114, Universidad de Sevilla,
Bibliot [online]. 2008, vol.31, n.2, pp. 45-78. ISSN 0120- España, disponible:
0976. http://redalyc.uaemex.mx/src/inicio/ArtPdfRed.jsp?iCve=3
[8] Soto, E. y Sauquet, A. 2007. Gestión y Conocimiento en 6812381009
Organizaciones que Aprenden. México: Intenational [19] Levy, M. 2009. WEB 2.0 implications on knowledge
Thomson Editores S.A. , pp. 126-129. management, journal of knowledge management, vol. 13
[9] Vásquez, M. y Gore, E. Aprendizaje Colectivo y No. 1, pp. 120-134, Q Emerald Group Publishing Limited,
Capacitación Laboral, trabajo presentado en 2002 a la ISSN 1367-3270
Asociación de Desarroollo y Capacitación de la Argentina, [20] Musser, J. y O‘Reilly, T. 2006. Web2.0 principles and
en el XIII congreso de capcitación de ADCA, Buenos best practices, (electronic version), O‘Reilly Radar.
Aires, Argentina. [21] Downes, S. 2005. E-learning 2.0., elearn magazine.
[10] Lazo, D. Comunidades de Práctica y Gestión del URL. http://www.elearnmag.org.
Conocimiento. [en linea], disponible:
www.lavozdelazo.blogspot.com/2005/09/comunidades-de-
400
Inclusión Digital: Más allá del acceso y el uso de TIC
401
así como con la ubicación de telecentros en barrios telefonía móvil. [5].
populares de las ciudades, y posteriormente llevados hasta Al considerar el sector rural, se estima que, 2.466
a poblaciones menores y aún caseríos rurales. millones de personas (74%), en el año 2008 están
Corresponde a la denominada Construcción de las cubiertas con el servicio de telefonía móvil celular, donde
conectividades, infraestructuras tecnológicas básicas [3], América alcanza el 73% de su población, Europa el 98%
relacionado los índices referidos a la sociedad de la y África solo el 52%. En el acceso a Internet, es notable la
información y consiste fundamentalmente en contar con diferencia entre los sectores urbano y rural, especialmente
computadoras y conexión a Internet a bajo costo, tener en los países en desarrollo, como en Mongolia (4,9% de
suficientes líneas telefónicas y un servicio a bajo costo, los hogares urbanos y 0,1% de los hogares rurales), o en
gozar de capacidades básicas que permitan hacer uso de Colombia (16,4% y 0,4%, respectivamente), mientras la
estos recursos, como saber leer y escribir y capacitación brecha digital rural es mucho menos pronunciada en los
mínima en el uso de computadoras países desarrollados, como se destaca en Japón, Canadá y
Mediante estas estrategias, las computadoras y, Nueva Zelanda. [6].
especialmente, los teléfonos móviles celulares han sido En Colombia, se aprueba la Ley de TIC 1341, del 30 de
adquiridas por personas de la mayoría de estratos sociales, julio de 2009, cuyos principales objetivos consisten en
aún en países considerados info-pobres. Es pertinente desarrollar lineamientos para extender las TIC y promover
considerar que la infraestructura y topografía de algunas el acceso, uso y propiedad de las mismas, además de
regiones dificultan una cobertura mayor de acceso. proteger los derechos de los usuarios y regular el sector a
El componente acceso a las TIC es, sin duda alguna, el través de la Superintendencia de Industria y Comercio, la
aspecto más estudiado, en diferentes ámbitos y por Agencia del Espectro Nacional de Radio y Comisión de
diferentes organismos. Entre los más destacados y Regulación de Comunicaciones (CRC). En ella se estipula
consultados están los preparados por la International que el gobierno y las empresas privadas deben funcionar
Telecommunication Union (ITU), como es el caso del como proveedores de servicios en lo que se trata de TIC y
Informe Evaluación de la sociedad de la información 2010 desarrollo de contenidos para el sector público (por
[4] que contiene el último Índice de Desarrollo de las TIC ejemplo, en educación), y se promueve la neutralidad
(IDI130), en el que 159 países están clasificados con tecnológica y de software, aunque esto queda limitado por
arreglo a su nivel de TIC y se comparan las cifras de 2007 los acuerdos existentes entre el gobierno y las empresas de
y 2008. En él se concluye que de las 10 economías TIC desarrollo de software. [7]
más avanzadas del mundo, ocho están en el norte de 2.2 Uso de las TIC
Europa (Suecia encabeza el IDI por segundo año Se convierte en un componente limitante, a pesar de las
consecutivo), mientras la República de Corea y Japón iniciativas de alfabetización digital adelantadas en
ocupan, respectivamente, los puestos tercero y octavo. instituciones educativas, telecentros, empresas y
Asimismo, indica que el precio de los servicios de organizaciones de diversa índole. Corresponde al
telecomunicaciones e Internet disminuye en todo el denominado Usos, apropiación y extensión de estas
mundo, sin embargo, los servicios de las TIC, tecnologías [3], que pretende generar y fortalecer
especialmente los del acceso de banda ancha fijo, siguen capacidades que permitan a los usuarios ser también
quedando fuera del alcance de muchas personas, debido a productores de contenidos para la red, la extensión
que, por ejemplo, una conexión de banda ancha básica implica la incorporación en el uso a grupos rezagados
cuesta en promedio hasta 167% de la renta nacional bruta (como mujeres y algunos grupos étnicos), mediante la
por habitante en los países en desarrollo, en comparación creación de políticas específicas que física y culturalmente
con apenas 2% en los países desarrollados. faciliten el acceso equitativo, generando un uso con
Como muestra de ello, se sabe que la telefonía móvil llegó sentido de las tecnologías digitales. Lo anterior requiere
a contar con 4.900 millones suscriptores a fines de 2009, que, además de superar lo relacionado con el acceso, se
es decir que dos terceras partes de los habitantes del logre la adecuación de contenidos y la participación de las
planeta cuentan con acceso a tal tecnología, lo que comunidades en la producción de estos, en un marco
significa que a pesar de existir brecha en la conectividad respetuoso de la diversidad étnica, cultural, social,
móvil, ella se ha reducido. En cuanto al acceso a tecnológica y ambiental, mediada por una labor educativa,
Internet, sus usuarios han crecido aproximadamente en sistémica y significativa, que potencie las capacidades, de
500% en el periodo 2000-2009, lo cual no ha logrado las personas y de la infraestructura instalada.
eliminar la gran brecha entre las economías avanzadas En los países no desarrollados conviven ciertas
(64% de penetración) y los países en desarrollo (18%), características que se convierten en obstáculo para que el
claramente, superior a la que se presenta en el acceso a la uso de las TIC se masifique, entre las que pueden
considerarse: - analfabetismo real, - analfabetismo por
desuso, - analfabetismo digital, - tecno-fobia, - edad, -
130
402
ubicación geográfica y –algunos patrones culturales. sólo tiene acceso a ellas, sino que cuenta con habilidades
Lo anterior ha llevado a que muchas personas que tienen para usarlas y llegan a ser tan importantes para sus
acceso a los equipos de cómputo y teléfonos celulares, actividades cotidianas (productivas, de ocio, relacionales)
sólo usen de ellos una mínima cantidad de las opciones que pasan a formar parte de sus prácticas sociales [11],
ofrecidas, llegando a casos extremos como solicitar ayuda que corresponde a la llamada Generación de cambios [3],
para realizar una llamada, conocer el contenido de un la cual hace referencia directa a la Apropiación social, que
mensaje o almacenar un número telefónico teniendo conlleva a nuevas formas de participación social mediante
equipos celulares de alta gama, o adquirir un PC con el uso intensivo de las TIC, en aquellas actividades
especificaciones alta para utilizarlo como máquina de generalmente ignoradas por los ciudadanos del común,
escribir. como el análisis de planes de desarrollo, veeduría
Pero esa situación no es exclusiva de sectores populares, ciudadana, organizaciones sociales y demás
sino que se manifiesta también en el ámbito académico, manifestaciones democráticas.
donde cabe señalar que de acuerdo a nuestra experiencia Al observar los componentes de las campañas o planes
como profesores e investigadores del área, todavía falta nacionales de alfabetización digital, como generalmente
mucho para lograr que nuestros estudiantes realmente se denominan a estas iniciativas que responden al contexto
logren una alfabetización cultural digital, pues, por decirlo internacional dado por el Plan de Acción de Ginebra 2003
de algún modo, están familiarizados con el lado operativo (Cumbre Mundial de la Sociedad de la Información),
de las computadores y del lenguaje hipermediático, pero puede notarse que pretenden lograr la apropiación de las
aún no llevan sus conocimientos técnicos a un nivel TIC. Algunos de esos componentes son:
superior donde efectivamente logren adquirir - Comercio electrónico, con la pretensión de incorporar a
conocimiento [8]. las empresas estatales y privadas, productores,
Se informa que, teniendo en cuenta el modelo de inclusión asociaciones y sociedad civil a la economía digital,
social que CINTEL ha venido consolidando, el impacto impulsando así el desarrollo productivo, social y
de la infraestructura tecnológica implementada en La económico nacional.
Boquilla [Cartagena de Indias] ha hecho que la población - Desarrollo productivo e innovación tecnológica,
aumente sus conocimientos en el uso de las herramientas mediante la promoción del desarrollo y fortalecimiento de
TIC y pueda usarlas en sus actividades diarias. La la gestión estratégica de las empresas basado en
utilización de computadores pasó del 24% en 2006 a 33% herramientas de TIC que permita mejorar las capacidades
en 2008; el conocimiento de Internet pasó del 30% en empresariales y automatizar los procesos de producción.
2006 a 39% en 2008; y la utilización de Internet pasó de - Gobierno en línea, que ofrece información y servicios
5% en 2006 al 21% en 2008.[9]. públicos a través de Internet buscando la modernización
De acuerdo con la CRC, el 91% de los colombianos del gobierno, la transparencia de la gestión pública y
tienen teléfono móvil celular; a pesar de ese hecho, la brindar al ciudadano la oportunidad para acceder y
telefonía móvil no ha sido utilizada para difundir participar activamente en los servicios del estado.
información relevante, ya que las empresas privadas sólo - Red académica y de investigación, que pretende
envían información comercial (incluso propaganda), pero capacitar en el uso informático a los integrantes de la
no ofrecen contenidos sobre el precio de las cosechas o comunidad académica, como también promover el
alertas meteorológicas, por ejemplo, lo que constituye un intercambio de información para mejorar los niveles de
desperdicio de oportunidades [7]. formación y producción científico-tecnológica y la
Queda claro que el uso de TIC, a pesar de dificultades de conexión a redes internacionales.
diferente origen, ha ido creciendo, principalmente - Telecentros o infocentros comunitarios, tendientes a
jalonado por procesos de capacitación y el acceso a estas facilitar el acceso a las TIC a grupos sociales menos
tecnologías por parte poblaciones jóvenes, que de cierta favorecidos y alejados de los centros de desarrollo,
manera han logrado que familiares mayores accedan y, fortaleciendo su integración social y económica,
quizás, usen estas nuevas herramientas. ampliando sus espacios de participación y de acceso a la
2.3 Apropiación de las TIC información y servicios públicos.
Se considera que apropiación es la acción y efecto de Mas, al analizar los diversos informes, en ellos poco se
apropiar, que a su vez se define como: Aplicar a cada cosa muestra el factor apropiación (incluso en ocasiones se
lo que le es propio y más conveniente, o Acomodar o hace sinónimo de uso), lo cual puede deberse a dos
aplicar con propiedad las circunstancias o moralidad de causas: - es mucho más difícil hacer un estudio que
un suceso al caso de que se trata [10]. implique el descubrimiento de variables cualitativas,
Sin embargo, al considerar la apropiación de las TIC, es quizás subjetivas, que manejar datos numéricos, y -
posible señalar que ella se concreta en un ámbito socio- mientras el acceso y uso puede lograrse masivamente, la
histórico específico. […] Esto implica que el individuo no apropiación es un proceso individual en función de
variables no siempre controlables.
403
Por ejemplo, en el caso del sector agropecuario prácticas sociales y asegurar su desarrollo.
colombiano, la opción de comercio electrónico se ha Los numerosos informes y estudios acerca de la situación
reducido a la presentación de algunos productos digital priorizan en el acceso y el uso, pero el componente
(información y figuras), y a la comunicación entre las apropiación es poco tratado, quizás por falta de
partes mediante correo electrónico y eventualmente chat, metodologías para medirla, ya que implica variables no
ya que la infraestructura existente en las zonas rurales, el controlables y procesos individuales, a diferencia de los
bajo nivel académico de los productores, el otros dos componentes más fáciles de cuantificar.
tradicionalismo en los procesos de mercadeo, junto al A pesar de que muchas iniciativas dejan vislumbrar la
desconocimiento y desconfianza de los avances pretensión de alcanzar la apropiación de las TIC, quedan
tecnológicos, se constituyen en óbices para la algunas dudas por los intereses de empresas y
implementación del e-commerce como práctica cotidiana organizaciones que están detrás de tales proyectos, en el
[12]. sentido de no poder identificar con claridad si la
Lo anterior no descarta de plano que se esté dando algún intencionalidad es la transformación social o la
tipo de apropiación… se sabe de algunos telecentros que a consolidación y ampliación de la sociedad de consumo.
partir de la Asociación de Cabildos Indígenas del norte
del Cauca (ACIN), han conseguido que las poblaciones
involucren a las TIC en su vida cotidiana como una 4. BIBLIOGRAFÍA
alternativa a sus procesos tradicionales, facilitando y
fortaleciendo la comunicación con otras organizaciones al [1] De Cabo, J.: Inclusión digital y derechos de la
igual que la gestión de proyectos comunitarios [13]. persona. Instituto de Empresa Business School,
La apropiación de las TIC aún no se ve con claridad en la Digital Convergence Weblog. Madrid (2005),
mayoría de procesos de Inclusión Digital, y a pesar de <http://convergence.blogs.ie.edu/archives/2005/09/in
tenerse de manera tácita como el objetivo principal de clusian_digit.php>
ellos, empiezan a surgir inquietudes desde la cotidianidad, [2] Vega, O.A. y Rodríguez Baena, L.: La inclusión
que implican un análisis profundo desde la teoría, tales digital como motor de desarrollo. Una opción para la
como: Colombia rural. En: Sociedad y Utopía, Revista de
- La disminución marcada de la comunicación cara a cara Ciencias Sociales, No. 32, 75-95 Fundación Pablo
entre personas ubicadas en un mismo entorno, para ser VI, Madrid (2008).
sustituida por el uso permanente, y hasta obsesivo, de [3] Garro Rojas, L.: Del estudio de las Brechas a la
redes sociales y telefonía móvil celular ¿podría Inclusión Digital. En: Primer Encuentro regional
considerarse como una muestra de apropiación Centroamericano de FELAFACS Sociedad,
tecnológica, al haberse convertido en una práctica social Democracia y Derecho a la Información, Universidad
presente en diversas partes del mundo? o ¿será sólo una Centroamericana "José Simeón Cañas", San Salvador
nueva manía potenciada por la sociedad de consumo, que (2007),
no supera la etapa del uso de las TIC? www.uca.edu.sv/deptos/letras/encuentro/memorias/14
- Los adelantos en TIC y su aplicación como resultado de garro.pdf
intereses, inicialmente de índole militar y posteriormente [4] ITU: Comunicado de prensa. Según un Nuevo
de reconocidas empresas de hardware y software, Informe de la UIT, el interés por las TIC aumenta en
organismos internacionales y otras instituciones que han todo el mundo y los precios disminuyen. International
operado como agentes dominantes, ¿tendrán como Telecommunication Union, Ginebra (2010),
verdadera intencionalidad la transformación social y el http://www.itu.int/newsroom/press_releases/2010/08-
mejoramiento de la calidad de vida, o por el contrario, es.html
buscará la masificación del uso de equipos a una clientela [5] Orduz, R.: El Índice de Desarrollo de las TIC: el
cada día mayor, utilizando incluso la obsolescencia informe de UIT 2010, Colombia Digital, Bogotá
inducida como estrategia de mercado para asegurar (2010),
inmensos y permanentes dividendos? http://www.colombiadigital.net/index.php?option=co
m_k2&view=item&id=40:el-%C3%ADndice-de-
desarrollo-de-las-tic-el-informe-de-uit-
3. CONCLUSIONES 2010&Itemid=284
[6] ITU: World Telecommunication/ICT Development
La inclusión digital está fundamentada en el logro de tres Report 2010: Monitoring the WSIS targets: A mid-
etapas (acceso, uso y apropiación), mediante las cuales se term review. International Telecommunication Union,
consigue, en un proceso progresivo, que las personas Geneva (2010), http://www.itu.int/dms_pub/itu-
tengan en las TIC un medio cotidiano para transformar sus d/opb/ind/D-IND-WTDR-2010-PDF-E.pdf
404
[7] Paz Martínez, O.: Monitor Mundial de la Sociedad de [10] RAE: Apropiar. Diccionario de la Lengua Española,
la Información 2009: Informe nacional Colombia. 22 ed. Real Academia Española, Madrid (2001),
Asociación para el Progreso de las Comunicaciones http://buscon.rae.es/draeI/SrvltConsulta?TIPO_BUS=
(APC) , Melville (Sudáfrica), 3&LEMA=apropiar
http://www.giswatch.org/gisw2009/es/country/Colom [11] Crovi Druetta, D.: Diagnóstico acerca del acceso, uso
bia.html y apropiación de las Tic en la UNAM. En: IX
[8] García Hernández, C. y Peñalosa Castro, E.: Congreso Latinoamericano de Investigación de la
Alfabetización cultural digital, un concepto Comunicación: ―Medios de Comunicación, Estado y
fundamental en la práctica educativa de las TIC. En: Sociedad en América Latina‖. ALAIC, México
IX Congreso Latinoamericano de Investigación de la (2008),
Comunicación: ―Medios de Comunicación, Estado y http://www.alaic.net/alaic30/ponencias/cartas/COMU
Sociedad en América Latina‖. ALAIC, México NICACION_Y_EDUCACIO/ponencias/GT6_3Crovi
(2008), .pdf
http://www.alaic.net/alaic30/ponencias/cartas/COMU [12] Vega, O.A.: e-Commerce agropecuario colombiano:
NICACION_Y_EDUCACIO/ponencias/GT6_5Garci una manifestación de brecha digital. En: Ventana
a-Penalosa.pdf Informática, No. 18, 187-203, Universidad de
[9] Batz, A.: Apropiación de TIC para la inclusión social. Manizales, Manizales (2008).
Caso de estudio la Boquilla.: Observatorio de [13] Portal Nacional de Telecentros en Colombia: Red
Políticas Públicas, Boletín POLIS. Boletín No. 6. 11- Nacional de Telecentros. Bogotá (2007),
13 Universidad ICESI, Cali (2009). http://www.telecentros.org.co/index.shtml
http://www.icesi.edu.co/polis/images/contenido/pdfs/ [14]
Boletin_6/boletin_6_articulo_5.pdf
405
406
Modelo de curso virtual WIMAX por medio de Web 2.0 para
ingeniería.
407
curriculum profile. acceso de banda ancha.
That is why taking advantage of the virtual Por eso con la propuesta de un curso virtual y el estudio
platform of the Faculty of Engineering of de una tecnología actual; se pretende promover y facilitar
the District University. We propose the la penetración de este tipo de conocimiento e introducir a
development of virtual classes using Opnet aquellos que deseen, en el estudio de nuevas herramientas
simulation software as well as we apply the competitivas tanto en el ámbito educativo como industrial;
standard of learning objects. cuyo despliegue masifica otras tecnologías, como VoIP
(llamadas de voz sobre el protocolo IP) y promueve el uso
This kind of course is a good opportunity cada vez mayor del acceso de banda ancha.
for students, because the necessary time to
develop it is the same as a real course at the Adicionalmente, la implementación de espacios virtuales
same time they interact with a friendly como una herramienta de aprendizaje, es un tema
platform just like Web 2.0 style social webs. relativamente nuevo para la universidad Distrital; la cual
no presenta una propuesta formal para el desarrollo de
This model is applied to engineering prácticas de estándares y en específico sobre WiMAX. Es
students focusing on vanguard technologies necesario entonces proponer unas guías de teoría y
and study cases related with the Wimax laboratorio, en una aplicación que permita desarrollar y
standard IEEE 802.16 (2004) using the crear un escenario para este tipo de estudio y
simulation software Opnet. modelamiento; ya que hacen parte del proceso de
formación del ingeniero electrónico. Para lo cual se debe
Keywords: realizar un estudio del estándar IEEE 802.16-2004 y de
estándares e-learning.
E-earning, Virtual Learning Objects,
Simulation, Opnet, Scorm, Wimax.
1.1 Conceptos Generales sobre Redes
Inalámbricas
1. INTRODUCCIÓN Las redes inalámbricas utilizan ondas electromagnéticas
(radio e infrarrojo) para comunicarse, y con esto dejar de
Las tendencias en el mercado tecnológico son marcadas lado los cables los cuales se utilizan habitualmente para
por las herramientas, los usuarios finales y los costos establecer una red entre distintos dispositivos. En el
implícitos que conlleva implementar una tecnología y su momento las redes inalámbricas entrarían no ha
complejidad. reemplazar totalmente las redes alambicas existentes sino
De esta manera se puede explicar el porqué la tendencia a a complementarlas. Pero aun así las prestaciones son
nivel mundial del uso de tecnologías como WiMAX, la menores en algunos aspectos, al compararlas con las redes
cual se encuentra en constante crecimiento. Su reciente cableadas, por ejemplo cuando nos referimos a las tasas
adopción como aplicación inalámbrica confiable para el de transmisión.
desarrollo de la nueva Sociedad del Conocimiento131, • Entre las ventajas de las redes inalámbricas tenemos:
refleja la constante búsqueda de nuevas tecnologías en el • Dar movilidad
esfuerzo por mantener puntos de acceso de tal manera que • Instalar redes en sitios poco accesibles
se asegure el cubrimiento total y una funcionalidad • Evitar el cableado para crear o anexar una red
rentable las 24 horas del día. • Fácil y rápida instalación
• Flexibilidad
La tecnología WiMAX es bien conocida por reducir los • Menores costos
costos de la conexión inalámbrica, ya que es hasta 10 • Escalabilidad
veces más económica, permite conexiones de velocidades
1.1.1 Desarrollo de las Comunicaciones
similares al ADSL o al cable-módem, hasta una distancia
Desde la antigüedad siempre se ha tenido la necesidad de
de 50-60 km132, y es compatible con anteriores tecnologías
llevar la información desde un sitio a otro, ya fuese en esa
como Wi-Fi133 ; cuyo despliegue masifica otras época, por señales o un mensajero, con el paso de los años
tecnologías, como VoIP (llamadas de voz sobre el se fueron desarrollando los medios de transporte que
protocolo IP) y promueve el uso cada vez mayor del ayudaban a mejorar la velocidad, pero no fue hasta el
siglo XIX que se invento el telégrafo y que las
comunicaciones dieron un vuelco total al poder comunicar
dos puntos de forma instantánea, luego vino otro gran
R salto el teléfono que ya permitió establecer una
A
408
conversación por voz, y con el desarrollo practico de las
leyes del electromagnetismo se llevo a la realidad la radio,
la cual es una de las formas más importantes de trasmisión
de la información. El desarrollo de las comunicaciones de
radio, empezado por Marconi, De Forest, Tesla y otros a
principios del siglo pasado, pero cuyos fundamentos
teóricos fueron establecidos por Maxwell y Hertz en el
siglo diecinueve. Las primeras comunicaciones vía radio
fueron las del servicio telegráfico, por parte de Marconi
en 1896. La primera transmisión de voz vía radio se debe Figura 2. Evolución de las tecnologías de acceso
también al inventor italiano, en 1916. Marconi recibió el inalámbrico [20]
premio Nóbel de física en 1909 (compartido con Karl
Ferdinand Braun) por su desarrollo de la telegrafía
inalámbrica; en 1943, sin embargo, su patente de la radio 1.2 Definición de WIMAX
fue revocada en favor de Nikola Tesla. La creación del Este concepto es bien importante ya que será usado en
transistor, desarrollado en los laboratorios Bell en 1947 nuestro caso de estudio. WiMAX (Worldwide
por John Bardeen, Walter Brattain y William Shockley Interoperability for Microwave Access) es el nombre por
que es la base de toda la microelectrónica actual. Aunque el que se conoce al estándar tecnológico 802.16 de
también un desarrollo de gran impacto es el circuito comunicaciones inalámbricas de acceso en banda ancha.
integrado, llamado normalmente chip, patentado con el El estándar inalámbrico IEEE 802.16-2004 fue aprobado
nombre de circuito sólido en febrero de 1959. por el WiMAX Forum134 a mediados del año 2004 y en la
actualidad se encuentra en fase de adopción y definición
Esta asignación se tradujo a una mayor actividad en la comercial.
industria y la investigación de LAN (red inalámbrica de La buena acogida que está teniendo esta tecnología se está
alcance local) empezaba a enfocarse al mercado. Seis viendo respaldada por las mas de 100 organizaciones que
años más tarde, en 1991, se publicaban los primeros están trabajando en el desarrollo de la tecnología por
trabajos de LAN propiamente dicha, ya que según la ejemplo Intel está creando chips que serán el cerebro para
norma IEEE 802 solo se considera LAN a aquellas redes el 80% de ordenadores del mundo y Nokia y Siemens
que transmitan al menos a 1 Mbps. La red inalámbrica de están creando chipset para sacar nuevos móviles y PDAs
alcance local ya existía pero su introducción en el que implementen estas tecnologías.
mercado e implantación a nivel doméstico y laboral aun se
haría esperar unos años. Uno de los factores que supuso Este estándar aceptado en Diciembre del 2001, se basaba
un gran empuje al desarrollo de este tipo de red fue el en una sola portadora en la capa física y con
asentamiento de Laptops y PDA en el mercado, ya que multiplexación por división de frecuencia (TDM) en la
este tipo de producto portátil reclamaba más la necesidad capa de control de acceso al medio (MAC). El
de una red sin ataduras, sin cables [15]. inconveniente de este estándar es la utilización de una sola
portadora para la transmisión, y frecuencias de portadoras
extremadamente altas, hecho que limitaba a aplicaciones
de conectividad fija.
Con el tiempo el grupo de IEEE 802.16 produjo
subsecuentemente 802.16a como un arreglo al estándar
802.16 para permitir aplicaciones sin visión directa
(NLOS135) en la banda de 2GHz-11GHz, uso de múltiples
C
I (Responsible, Accountable, Consulted Informed
Figura 1. Estándares IEEE [21] para redes. - Responsable,Rinde cuentas, Consultado, Informado )
135
WEICK, Karl E. Sensemaking in Organizations. Thousand
Oaks: Sage, 1995.
También podemos observar en la siguiente figura la 135
El IDI combina 11 indicadores en un solo parámetro, que se
evolución que han tenido algunas tecnologías puede utilizar como comparador a escala mundial, regional y
inalámbricas. nacional, y para supervisar el desarrollo en el tiempo. Mide
el acceso, la utilización y los conocimientos de las TIC, y
comprende indicadores tales como hogares que disponen de
ordenador, número de abonados a Internet fija de banda ancha,
409
sub portadoras OFDM136, topologías punto-multipunto y gestión de carga.
en malla y una amplia variedad de canales con diferentes Simulador nivel de Enlace (Link level): protocolos nivel
anchos de banda. enlace y control de errores. Utilizan resultados del
Estas mejoras se reflejan en dos nuevos estándares o simulador de capa física o lo incluyen.
revisiones del estándar original IEEE 802.16a: el estándar Simulador capa física: cobertura, potencia, células,
IEEE 802.16-2004 conocido como WiMAX fijo y el análisis de obstáculos.
estándar IEEE 802.16e-2005 conocido como WiMAX Simulador protocolos: verificar, analizar y optimizar
móvil. Tanto una como la otra no requieren LOS dado que protocolos.
operan en bandas de frecuencias más bajas que la primera Simulador de terminal: simulador de aplicaciones.
variante de WiMAX 802.16. Específicos: gestión carga, gestión de recursos.
IEEE 802.16-2004 opera a la misma banda de frecuencia Generadores de escenarios.
del 802.16a y también utiliza OFDM para transmitir Otros: GIS (geographic information system)
múltiples símbolos usando 256 subportadoras. Simuladores integrados: con varias funciones de las
1.3 Simuladores anteriores.
Para la realización de este proyecto, se tomaron en cuenta Simuladores/emuladores Hardware: Sustituir un elemento
algunas de las principales herramientas que se utilizan de la red por el emulador para comprobar la funcionalidad
actualmente para la simulación del modelo y aplicaciones de los restantes elementos.
de una red WiMAX, con el fin de evaluar sus 1.3.3 Simuladores Para WiMAX
prestaciones, ventajas y desventajas. Para lo anterior, es En lo referente a WiMAX, encontramos que ya se ha
necesario aclarar el tipo de simuladores y sus objetivos. venido trabajando sobre simuladores comerciales y
1.3.1 Objetivos de un Simulador simuladores libres. Dentro de las herramientas que
En general un simulador debe tener como objetivos los incluyen módulos de WiMAX encontramos:
siguientes: ICS Telecom
Simplificar el proceso de desarrollo: Con herramientas NS
graficas, protocolos predefinidos, herramientas de análisis NCTU
y depuradores. Qualnet
Modelar conforme a los parámetros a medir OPNET Modeler
Ser escalable y configurable. A continuación describiremos de manera breve las
Diferenciar cuales son las simplificaciones del modelo y características de dos de las herramientas y su soporte
su alcance. para WiMAX.
Dar la posibilidad de definir distintos escenarios. 1.3.4 Selección de la herramienta de Simulación
Poseer una arquitectura abierta: Permitir el desarrollo de De las herramientas de simulación anteriormente
protocolos propios o especificaciones particulares. mencionadas, para el propósito de este trabajo se descarta
Optimizar la velocidad de simulación: Rendimiento. la opción de utilizar ICS Telecom, aunque es una
1.3.2 Tipos simuladores herramienta muy completa y potente; debido a que es de
Existen diversos tipos de simuladores, según de los carácter estrictamente comercial con versiones demo muy
parámetros que deseen modelar y analizar. Normalmente limitadas y cuyo licenciamiento es demasiado costoso. Por
existen combinaciones entre los diferentes tipos. otra parte, NCTUns, NS-3, QualNet, y OPNET Modeler
Simulador de Red (System Level): Analizar tráfico (estas dos últimas herramientas comerciales también) se
generado en la red, QoS handovers, control de admisión, ajustan mas a los propósitos de enseñanza; al ser software
libre o al poseer versiones educativas de las mismas.
Entonces, para el estudio y comprensión de WiMAX es
necesario seleccionar una herramienta de simulación que
y tasas de alfabetización permita un paradigma de diseño escalable y acorde con
135
WiMAX Forum® Industry Research Report – April 2009, los objetivos de simulación y del curso. Evaluando y
http://www.WiMAXforum.org/resources/research-dashboard comparando las características y prestaciones de NCTUns
135
Estándar IEEE 802.16 V 6.0, NS-3 V1.0, QualNet V 4.5 y OPNET Modeler V
135
Estándar IEEE 802.11
135 14.0.; se puede clasificar cada herramienta y todos los
WiMAX Forum es una asociación que reúne a fabricantes y
compañías del sector de las TIC con el objetivo de promocionar
parámetros de WiMAX implementados sobre éstas
la adopción del estándar 802.16 y desarrollar la 1.3.4.1 Implementación de funciones WiMAX
interoperabilidad entre los diferentes equipos. La siguiente tabla muestra las funciones WiMAX
135
No existe línea de vista entre el transmisor y el receptor implementadas en NCTUns V 6.0, NS-3 V1.0, QualNet V
(Non Line of Sight) 4.5 y OPNET Modeler V 14.0.
136
Orthogonal frequency Division Multiplexing
410
funcionamiento de este tipo de sistemas.
Tabla 1: Comparación de Funciones WiMAX La versión de MODELER contrario a IT GURU (la
implementadas en diferentes simuladores [24] distribución gratuita de OPNET) no presenta restricciones
sobre ninguno modelo; solamente aquellas de la versión
propia de OPNET que se trabaje. Sin embargo la licencia
educativa prohíbe la herramienta para uso comercial.
1.4.2 Características del modelo en OPNET
El modelo que posee OPNET Modeler 14.0 –
(Educational Version) para WiMAX son los siguientes:
411
estación usuaria o la estación base y handover)
Handoff forzado cuando es iniciado por la Mensajes Ranging ( códigos CDMA y
estación usuaria. configuración de Ranging)
Asociación Se puede especificar la estación base a la 1.4.3 Limitaciones del modelo
inicial entre cual se conecta una estación usuaria. Por Las siguientes características no han sido implementadas
(SS, Subscriber defecto las estaciones de usuario se para el modelo de WiMAX en Modeler 14.0 –
Station ) y la conectan a la estación base más cercana. A (Educational Version):
estación base medida que la estación usuaria se desplaza, Control de Potencia
(BS, Base el ranging inicial es usado para asociarse Configuración de Control adaptativo
Station) con una estación base. Handover asistido por red
Mecanismos de Ranging iniciado periódicamente por la estación base.
solicitud y
asignación de Para la asignación de ancho de banda se 1.5 E-Learning
ancho de banda utiliza la solicitud directa o el modo GPSS. Es un sistema de educación a distancia en el que se integra
Existen dos métodos para el modelar la el uso de las tecnologías de la información y otros
perdida de paquetes: elementos pedagógicos (didácticos) para la formación,
Cuando el modelado de la capa física está capacitación y enseñanza de los usuarios o estudiantes en
habilitado, el modelo percibe los paquetes línea. Utiliza herramientas y medios diversos como
perdidos a causa de los efectos de éstos Internet, intranets, producciones multimedia (Textos,
sobre la capa física. imágenes, audio, video, etc.), entre otros. Literalmente e-
learning es aprendizaje con medios electrónicos:
Modelado de la Cuando el modulo de fragmentación está
enseñanza dirigida por la tecnología.
pérdida de habilitado, es posible configurar la estación
En la tarea de elaborar un curso en línea se involucran los
paquetes. usuaria para dejar caer un cierto porcentaje
siguientes roles: diseñador del curso, el programador de la
de PDU‘s para una conexión o flujo dado.
plataforma y el tutor del curso.
Solamente uno de los dos métodos se puede
usar durante una simulación.
El atributo que aparece como modo de
eficiencia de WiMAX determina cual
método es usado.
El modelo incluye la siguiente ayuda para
ARQ, un mecanismo de retransmisión que
reside en la capa MAC de WiMAX:
Capacidad para permitir ARQ para los
flujos de servicios individuales en los nudos Figura 7. Niveles de relación en el diseño de un curso
Solicitud de de estación usuaria. virtual [25]
Retransmisión Apoyo por conexión para las conexiones de
Automática rtPS, nrtPS y BE.
(ARQ) Capacidad para permitir la entrega en orden
de SDU‘s.
Capacidad para permitir cabeceras CRC-32
para flujos de servicios individuales. CRC-
32 es aplicado cuando ARQ es modelado
en un flujo de servicios.
Servicios Los siguientes servicios programados son
Programados. soportados: UGS; ertPS; rtPS; nrtPS y BE.
Control de El modelo permite configurar un perfil de Figura 8. Elementos de los ambientes virtuales de
Radio Enlace. control estático (Burst) para cada conexión. aprendizaje [25]
802.16e MAC PDU
Gestión de mensajes para 802.16e El diseño de un curso en línea consiste en la elaboración
(mensajes DSA, solicitudes de ancho de de objetos virtuales de aprendizaje e informativos con el
Mensajes MAC banda y MAP‘s) objetivo de promover y facilitar los procesos de
Mensajes ARQ (retroalimentación, descarte enseñanza. Es responsable tanto el diseñador, como el
y reajuste) programador y el tutor del curso, en relación con los
Mensajes de movilidad (anuncio de vecinos requerimientos del estudiante.
412
1.5.1 Ventajas que se encontraron libros, artículos, resúmenes y textos
Dentro de las ventajas, las más mencionadas son: completos del estándar fijo y móvil de WiMAX; los
Pone a disposición de los alumnos un amplio volumen de cuales se revisaron y estudiaron (Marco teórico). Se
información. revisaron las prestaciones del software a utilizar
Facilita la actualización de la información y de los (Familiarización del Modelo WiMAX en OPNET). Se
contenidos. evaluaron las opciones para desarrollar una aplicación en
Flexibiliza la información, independientemente del la plataforma Moodle de la Universidad Distrital
espacio y el tiempo en el cual se encuentren el profesor y (Familiarización con estándares E-learning y con LMS).
el estudiante.
2.1.1 Análisis de la información recopilada
Permite la deslocalización del conocimiento.
En esta fase se realizó un módulo de introducción a la
Facilita la autonomía del estudiante.
herramienta y del modelo de WiMAX OPNET, a partir de
Propicia una formación ―just in time y just for me‖.
la documentación de ayuda del software y material de
Ofrece diferentes herramientas de comunicación
implementación de redes sobre éste (laboratorios y
sincrónica y asincrónica para los estudiantes y para los
presentaciones, Understanding WiMAX Model Internals
profesores.
and Interfaces. OPNET Technologies, 2007).
Favorece una formación multimedia.
Facilita una formación grupal y colaborativa. 2.1.2 Diseño
Favorece la interactividad en diferentes ámbitos: con la Una vez elaborado el marco teórico y estudiado el
información, con el profesor y entre los alumnos. estándar 802.16-2004 se definió y elaboró lo siguiente:
Facilita el uso de los materiales, los objetos de
aprendizaje, en diferentes cursos. 2.1.3 Objetivos:
• Permite que en los servidores pueda quedar registrada la Crear una introducción sobre generalidades de redes y
actividad realizada por los estudiantes. radios enlaces.
Exponer la capa física de WiMAX y su característica
1.5.2 Desventajas de la herramienta principal en modulación y codificación adaptativa y
Requiere más inversión de tiempo por parte del profesor. OFDM.
Precisa unas mínimas competencias tecnológicas por parte Exponer la capa MAC y la implementación de QoS en
del profesor y de los estudiantes. diferentes niveles.
Requiere que los estudiantes tengan habilidades para el
aprendizaje autónomo. 2.1.4 Contenidos:
Puede disminuir la calidad de la formación si no se da una Diseño de Interfaz
ratio adecuada profesor-alumno. Para la incorporación del curso e-learning en el sistema de
Requiere más trabajo que la convencional. gestión de aprendizaje (Learning Management System,
Se encuentra con la resistencia al cambio del sistema LMS) Moodle, se seleccionó la herramienta Courselab
tradicional. (software libre). Ya que ésta permite el desarrollo de
Impone soledad y ausencia de referencias físicas. objetos de aprendizaje y el empaquetamiento tipo Scorm
Depende de una conexión a Internet, y que ésta sea para una rápida implementación sobre un LMS.
además rápida.
Tiene profesorado poco formado.
Supone problemas de seguridad y además de
autentificación por parte del estudiante.
No hay experiencia en su utilización.
Los objetos informativos son recursos digitales con el
valor agregado de que cuentan con una descripción
detallada (metadatos) de lo que contienen y como usarlos
en un contexto educativo. [17]
2. DISEÑO DEL MODELO DE CURSO
El desarrollo del proyecto se llevo a cabo en las siguientes
etapas:
2.1 Recolección de información
Se realizó un estudio de las diferentes tecnologías de
acceso de banda ancha inalámbricas, evaluando los
estándares definidos para estas, ventajas y desventajas
(Marco teórico). Se realizó una búsqueda electrónica en la
413
Figura 9. Ejemplo de contenido tipo Courselab de cursos como este en diferentes escenarios y/o
asignaturas.
Realizar una propuesta formal para la adquisición de
2.1.5 Actividades de aprendizaje software licenciado o libre, con soporte para la
Como actividades de aprendizaje se desarrollaron guías de investigación o la enseñanza en redes, dado que esto
laboratorio implementadas en el curso, con las cuales se permite la contextualización de la teoría con escenarios
lleva al estudiante a que alcance los objetivos propuestos. reales.
Al final de cada modulo se propusieron unas pequeñas
pruebas de conocimiento, que permiten evaluar la lectura 4. REFERENCIAS
y compresión de quien tome el curso. [15] Anurag Kumar, D. Manjunath, Joy Kuri. Wireless
Además cada laboratorio consta de una ayuda multimedia Networking.
anexa para la realización de los mismos. [16] Bluetooth. [En línea
http://spanish.bluetooth.com/Bluetooth/Technology/
Works/Compare/#8.
[17] Broadband Wireless Access with WiMAX/802.16:
Current Performance Benchmarks and Future
Potential. J.G.Andrews. 2005.
[18] Chang, X. Network Simulation with OPNET,
Proceedings of the 1999 Winter. 1999.
[19] Ergen, Mustafa. Mobile Broadband Including
WiMAX and LTE. s.l. : Springer, 2009.
[20] Forum, WIMAX. Fixed, nomadic, portable and
mobile applications for 802.16-2004 and 802.16e
WiMAX networks. 2005.
[21] Forum, WiMAX. WiMAX's technology for LOS and
NLOS environments.
[22] Golshan, Reza. Fixed and Mobile WiMAX
Overview. s.l. : Fujitsu, 2006.
[23] IEEE. IEEE standard 802.16-2004. 2004.
[24] Ilyas, Syed Ahson Mohammad. WiMAX Standars
and security. s.l. : CRC Press, 2008.
[25] J. G.Andrews, A.Ghosh and R.Muhamed.
Fundamentals Of WiMAX. Understanding
Broadband Wireless Access. s.l. : Prentice Hall, June
2007.
[26] Kumar, Amitabh. Mobile Broadcasting with
WiMAX: Principles, Technology, and Applications.
2008.
[27] Kwang Cheng Chen, J. Roberto B. de Marca.
WiMAX Mobile. s.l. : Wiley.
[28] Ltd., WebSoft. http://www.courselab.com/. [En
línea] 2009.
Figura 10. Vista previa módulos [29] Maestrosdelweb. [En línea]
http://www.maestrosdelweb.com/principiantes/
3. CONCLUSIONES Y TRABAJO evolucion-de-las-redes-inalambricas.
FUTURO [30] N. Davis, S. Ransbottom, and D. Hamilton. Teaching
La elaboración de objetos de aprendizaje sugiere la Computer Networks. s.l. : Ada Letters, 1998. vol.
creación de un esquema más robusto en cuanto a módulos XVII, pp. 104-110.
estadísticos y de evaluación. Lo cual permite que el [31] Nacional, Ministerio de Educación.
presente trabajo pueda ser tomado como base para la http://www.colombiaaprende.edu.co. Enlínea
creación de cursos que contengan estos módulos, los 2010.
cuales exigen mayor tiempo y unas bases pedagógicas más [32] OFDM (Orthogonal Frequency Division
fuertes. Multiplexing). Alicia Hinostroza C., Camilo Medina
Generar el espacio que promueva este tipo de proyectos L., Sandra Vásquez R. Bogotá : s.n., 2007.
en la universidad, a través de la utilización y complemento [33] OPNET. http://www.opnet.com/. [En línea]
414
[34] Pareek, Deepack. WiMAX taking Wireless to the Modeling. National Chiao Tung University, Taiwan :
MAX. s.n.
[35] Pietrosemoli, Alberto Escudero Pascual y Ermanno. [39] Soto, Silvia Elena Salas. Diseño Del Curso En Línea:
WiMAX y Soluciones no Estándar. Trabajo Interdisciplinario . s.l. : Universidad de Costa
[36] Resolución 2064. Comunicaciones, Ministerio de. Rica.
2005. [40] Subir Kumar Sarkar, T G Basavaraju, C
[37] Shah, Deepti Chandra- Shreyas. QoS in Puttamadappa. Ad Hoc Movile Wireless Networks.
WiMAX,2008. 2008. [41] Technologies, OPNET. WiMAX Consortium Model
[38] Shiang-Ming Huang, Ya-Chin Sung, Shie-Yuan Version 2, Software Design Document. 2005.
Wang. NCTUns Simulation Tool for WiMAX [42]
415
416
El proceso de testing y la implementación de la herramienta MANTIS
BUGTRACKER en el proceso
417
tomando como base un número finito de casos de prueba
que tendrán su campo de acción en diferentes escenarios
que evaluaran su resultado. CERTIFICACION PRUEBAS
Otra definición del proceso de testing es ―Las pruebas de
software es el proceso utilizado para calcular la calidad de
software desarrollado. Las pruebas de software son un
proceso, o una serie de procesos, diseñados para asegurar
que el código del ordenador realice las funciones para las
cuales fue diseñado y que éste no realice funciones no
planeadas. El software debería ser fiable y constante, sin
ofrecer sorpresas a los usuarios.‖ [2]
2.2.2 Planificación
En la figura 1 se muestran las etapas del proceso de
pruebas en el tiempo.
El objetivo de este paso es planificar el proyecto de
Testing, definir de forma estructurada el donde, cómo y
6.1 Tipos De Pruebas cuando se realizarán las pruebas, estableciendo el alcance
de las mismas.
―El testing puede probar la presencia de errores pero no la Se ejecuta el diseño de los casos de prueba a partir de la
ausencia de ellos‖ [3] especificación del producto los cuales serán la guía
Las pruebas están definidas en tres etapas: pruebas de detallada para un determinado escenario o funcionalidad a
desarrollo e ingeniería, pruebas de aseguramiento de validar.
calidad internas y pruebas con usuarios reales [4].
6.2 Los 7 Pasos En Una Etapa 2.2.3 Ejecución Casos De Prueba
418
además de evidenciar las falencias inherentes al desarrollo, prueba implica una nueva versión de uno o más
se identifiquen posibles escenarios de mejora y los puntos componentes del sistema [6].
débiles sobre el producto de software. En esta etapa En este paso se certifica que la corrección de las incidencias
también se realiza la labor de configuración del entorno reportadas, no afecte el correcto funcionamiento de
cuyo objetivo es el de establecer un ambiente optimo de de software; que no se generen nuevas incidencias ya que en
pruebas instalando las herramientas necesarias y el software muchas ocasiones la solución de una, es la causante de
a probar en la versión correspondiente a cada ciclo de nuevas incidencias. Las pruebas de regresión permiten dar
prueba. parte de estabilidad sobre un módulo específico o en la
totalidad del software, ya que permiten perfeccionar el
2.2.4 Generación Incidencias cumplimiento real del flujo del programa. Este paso se debe
repetir iterativamente desde el paso 3 cuantas veces se crea
―El objetivo principal de las pruebas es descubrir fracasos necesario hasta cumplir con la especificación requerida en
de software, de modo que los defectos puedan ser el documento.
descubiertos y corregidos. Esto es una búsqueda no trivial.
Las pruebas no pueden establecer que un producto funciona 2.2.7 Certificación De Las Pruebas
correctamente en todas las condiciones, pero puede
establecer que éste no funciona correctamente en ―El proceso de pruebas es una investigación que provee a
condiciones específicas.‖ [5] quien la realiza información acerca de la calidad de un
producto o servicio bajo prueba‖ [7]
En este paso se listan y registran las fallas encontradas
después de la ejecución de los casos de prueba. Se deben En este paso se da el parte final del estado del software ya
discriminar las incidencias de acuerdo al impacto funcional sea positivo o negativo. Generalmente se toma como el
en el software dando prioridad a aquellas en las cuales el concepto soporte de la calidad en el producto software, ya
flujo normal del aplicativo se vea interrumpido que se espera que al final de los siete pasos el producto se
abruptamente. Se recomienda no dar tanta prioridad a las encuentre depurado y cumpliendo con lo especificado en el
incidencias que no interrumpan el flujo y que se encuentren documento de requerimientos.
en la especificación del producto ya que son fallos a nivel
de forma que pueden ser fácilmente corregidos.
2.3 Definición Etapas De Las Pruebas
Se deben analizar muy bien las incidencias generadas, ya
que en muchas ocasiones una incidencia que parece sencilla
y sin mayor importancia puede tener un gran impacto
funcional en el software. Un valor agregado de este paso es
la generación de mejoras sobre el producto software, este
tipo de análisis, aunque no es de fallo, es de vital
importancia para el proyecto al permitir realizar una labor
proactiva sobre el funcionamiento a futuro de la aplicación.
419
a un nivel no tan general del sistema, evaluando si la forma
en la que se implemento la solución a un determinado
requerimiento fue la más acertada en rendimiento,
adaptabilidad y escalabilidad a futuro en el software.
Las pruebas en esta etapa no solo determinan el correcto
funcionamiento del módulo implementado por un
determinado programador, también le permiten al mismo,
evaluar su trabajo y retroalimentar su experiencia
identificando nuevas técnicas de solución a un determinado
problema.
420
Tester desarrollado en PHP y requiere de una base de datos.
Aunque se puede adaptar prácticamente a cualquier motor
de base de datos, la más recomendada para la ejecución de
Es el encargado de ejecutar los casos de prueba, reporta los Mantis es mysql la cual también es de distribución libre.
resultados obtenidos en la ejecución de los casos. Mantis se aplica principalmente a empresas que están
surgiendo y que no cuenten con un gran presupuesto,
2.4.3 Etapa 3 aunque se puede evidenciar en la práctica que muchas
empresas ya establecidas implementan la herramienta por
Para la etapa 3 el rol asignado es el cliente. su fiabilidad y reducción de costos.
Entre las características generales que se pueden ver están:
Cliente
-Permisos de usuario por roles (administrator, viewer,
reportes, updater…).
Es la persona que necesita el producto es la más interesada
en la calidad del mismo, es el punto más objetivo a nivel de - Interfaz gráfica sencilla.
negocio ya que conoce las necesidades y el impacto que
tendría el funcionamiento incorrecto de algún modulo en el -Categorías dentro de cada proyecto, lo que permite
producto final. manejar los distintos tipos de actividades/intereses (interfaz
Gráfica, funcionalidad, etc) [10].
2.5 Herramientas De Documentación De
Pruebas 2.5.2 Mantis Y Su Integración Con El Proceso De
Pruebas
Actualmente se han desarrollado diferentes herramientas
que apoyan el proceso de testing, orientadas principalmente
a salvaguardar la documentación que soporta el proceso;
estas herramientas permiten administrar y soportar un
proceso de pruebas en cualquiera de sus etapas para dar
mayor confiabilidad y control.
Aunque existen muchas herramientas para este propósito
en su mayoría presentan un común denominador, el costo.
El costo es un factor que afecta considerablemente a una
empresa en cualquiera de sus áreas y como es bien sabido
toda empresa busca reducir sus costos sin afectar la calidad
de los productos que genera. Como resultado de esta
necesidad ha surgido una contraparte para estas
herramientas cuyo costo es poco accesible, son las
herramientas desarrolladas bajo licencia GNU[8] y que
permiten su libre utilización suprimiendo no solo el factor
costo, sino también la imposibilidad de adaptar la
herramienta a las necesidades de la empresa; un ejemplo es En la figura 5 se ilustra la integración de la
la herramienta Mantis [9]. funcionalidad presente en la herramienta Mantis con los
pasos de cada etapa en el proceso de pruebas.
2.5.1 Mantis
A continuación se explica la forma en la cual Mantis se
Mantis es una herramienta de gestión de incidencias (o bug integra con la parte operativa del proceso de pruebas que se
trucker en inglés) de código abierto. describió anteriormente.
Permite llevar un control sobre cada proyecto que se está
desarrollando, también llevar el registro en el tiempo de las Creación De Proyecto
diferentes incidencias o bugs del desarrollo. Gracias a que
es un sistema web permite ser consultado en cualquier
Como se vio previamente, cada proyecto de desarrollo
momento y lugar eliminando la dependencia de estar en el
requiere la implementación de un proceso de pruebas que
lugar de trabajo para verificar el estado de una solicitud.
se adaptara al mismo. Para solventar esta necesidad, Mantis
Sirve para llevar un control completo de cada proyecto y
permite la creación de múltiples proyectos, brindando la
mantener el historial de cada incidencia en el tiempo; está
posibilidad de realizar procesos de pruebas en forma
421
simultánea sin afectar los tiempos del cronograma. Gracias entrega de un producto software, esta certificación debe
a esta posibilidad, cada evaluación de software puede ser tener bases demostrables que permitan apoyar el resultado.
configurada de forma autónoma con características Mantis, provee la funcionalidad de generar reportes de las
particulares tales como responsables, tiempos de incidencias que contiene. Además de ser el repositorio de
incidencias y flujo de solución de las mismas. las diferentes incidencias generadas, provee información
del estado de las pruebas en cualquier punto del proceso; no
Registro De Incidencias solo en la parte final se pueden generar estos reportes.
o Informador
El tener las incidencias asociadas a un caso de prueba
específico, permite que la realización de las pruebas de
regresión sea un proceso más sencillo. La reducción de Este tipo de usuario puede consultar y registrar incidencias.
tiempos en las pruebas de regresión con la ayuda de mantis Es idóneo para asignar a clientes que tengan más
se ve reflejada por los siguientes aspectos: conocimiento del proceso de desarrollo o pruebas de
- Notificación automática a la persona que reporto software. Este usuario permite conocer las dudas o posibles
la incidencia una vez cambie de estado la misma. requerimientos de mejora que un usuario solicita al
- Replica del error de forma ágil al tener el flujo del observar el proceso de pruebas además de crear una vía más
error presente en la incidencia. de retroalimentación por parte del cliente.
- En caso de presentarse un nuevo escenario de falla Este usuario no puede cambiar el estado de las incidencias
en la réplica del flujo, se puede notificar reportadas, esto asegura la integridad de los datos pre-
nuevamente en la misma incidencia y se cambia el existentes.
estado de la misma, esto evita que se cree una
nueva incidencia. o Actualizador
Certificación De Las Pruebas Este tipo de usuario posee propiedades de consulta, reporte
y modificación de las incidencias. Al ser un usuario que
La certificación de un proceso de pruebas es el aval de puede alterar la integridad de la información, se restringe a
422
que solo pueda modificar las incidencias que fueron
reportadas por él. Es un usuario que se asigna Mantis apoya el proceso multiusuario. Este proceso permite
principalmente a los tester del grupo de pruebas. El un mayor aprovechamiento de la herramienta ya que provee
actualizador aunque puede modificar las incidencias solo se múltiples perfiles dependiendo de la función a desempeñar,
puede pasar a determinados estados. por cada uno de los usuarios; permite el registro simultaneo
Como valor agregado se tienen los reportes detallados para de incidencias y provee una consulta que permite evidenciar
cada uno de los usuarios que tengan este tipo de usuario; es el estado de las mismas (No Asignadas, Resueltas,
una ventaja ya que permite realizar mediciones de Monitoreadas, Reportadas y Modificadas); manejo de
productividad, avance del proceso y efectividad en las diferentes proyectos en simultaneo no solo registrando
pruebas ejecutadas. incidencias, sino también generando un reporte detallado
con la posibilidad de visualizar la información requerida
o Desarrollador por medio de filtros que facilitan su búsqueda.
De igual forma Mantis permite definir flujos de procesos
para cada uno de los proyectos permitiendo parametrizar
Este usuario contiene la funcionalidad del usuario
cada uno de acuerdo a la planeación establecida.
modificador, la única diferencia son los estados a los cuales
puede cambiar las incidencias.
Pruebas Con Usuarios Reales
o Manager
Mantis permite una comunicación directa con el usuario
Es un usuario que puede modificar las incidencias final al permitir que él mismo realice las pruebas desde su
asociadas a su proyecto, tiene la potestad de reasignar lugar de trabajo sin necesidad de un acompañamiento
recursos y de extraer reportes específicos. Se asigna a los presencial del responsable del desarrollo.
líderes de proyecto o lideres de pruebas. La implementación de notificaciones vía Mail asegura una
pronta comunicación de incidencias reportadas,
optimizando los tiempos de respuesta por parte del
o Administrador responsable de la asignación.
La fácil utilización de la herramienta permite que el usuario
Puede modificar todas las propiedades del aplicativo sin no requiera de un gran plan de capacitación para su
restricción. Aunque no hace parte del proceso de pruebas, utilización, ni deba conocer en detalle el proceso de
la persona con este usuario es parte fundamental del pruebas implementado; basta con la indicación de cómo
proceso al configurar la aplicación a la necesidad del reportar y consultar lo reportado, en un caso especifico se
proceso. agrega la explicación de cómo generar los reportes en caso
de requerirlo. La utilización de la herramienta permite un
2.5.3 Mantis En Relacion A Las Etapas Del Proceso proceso más transparente en los tiempos de cronograma al
De Pruebas permitir que el usuario verifique el tiempo de pruebas
empleado, de esta forma se distribuye la responsabilidad de
cumplimiento entre el responsable del desarrollo y el
La herramienta puede fácilmente adaptarse a cualquiera de
cliente.
las tres etapas del proceso, ya que cuenta con los elementos
requeridos para la implementación de cualquiera de ellas.
7. CONCLUSIONES
Etapa De Pruebas De Desarrollo E
Ingeniería La implementación de Mantis en un proceso de
pruebas no tiene un alto grado de complejidad,
por el contrario es de fácil utilización y gran
La herramienta acompaña el proceso de pruebas unitarias solides.
siendo una etapa de un solo usuario. El tipo usuario
desarrollador provee las funcionalidades requeridas para No importa lo estructurado que sea un proceso de
que el responsable del desarrollo pueda documentar las pruebas, siempre debe cumplir con las tres etapas
pruebas realizadas sobre el modulo implementado. En caso o escenarios de ejecución (programador, internas y
de ser necesario el aplicativo permite la parametrización de funcionales), y sus resultados deben ser soportados
reportes para que este tipo de usuario pueda generarlos. siempre; en este punto el uso de herramientas de
registro de incidencias dan fiabilidad a los
resultados.
Etapa Pruebas De Aseguramiento De
Calidad Interna Mantis al ser una herramienta de distribución libre,
423
no presenta un diseño pobre y de uso acotado, por [5] Kaner, Cem; Falk, Jack and Nguyen, Hung Quoc
el contrario cuenta con una gran robustez y (1999). Testing Computer Software, 2nd Ed.. New
soporte. York, et al: John Wiley and Sons, Inc.. pp. 480 pages.
La definición de roles en un proceso de pruebas ISBN 0-471-35846-0.
permite identificar los responsables de las
actividades en el mismo; Mantis apoya esta [6] Black R., Managing the Testing Process, 2nd Edition.
directriz al permitir la integración de cada uno de Rex Black. Editorial Wiley,
los actores del proceso de pruebas de acuerdo a las
funciones que se le asignen. [7] Exploratory Testing, Cem Kaner, Florida Institute of
El proceso pruebas se presenta como uno de los Technology, Quality Assurance Institute Worldwide
pilares de la calidad en los productos de software, Annual Software Testing Conference, Orlando, FL,
al proveer control, retroalimentación y November 2006
confiabilidad durante el proceso de desarrollo de
un software. [8] James Hacker.GNU General Public License, version 2.
Mantis no es dirigida de forma directa a empresas www.gnu.org. http://www.gnu.org/licenses/old-
en gestación o de poca trayectoria; cuenta con la licenses/gpl-2.0.html. 01/06(2009). Accedido el 30 de
solides requerida para que su implementación sea Junio de 2010
exitosa en cualquier modelo de negocio que
maneje un proceso de pruebas. [9] MantisBT Team . mantis .www.mantisbt.org.
El uso de la herramienta de gestión de incidencias http://www.mantisbt.org/ Accedido el 30 de Mayo de
Mantis es de gran utilidad en la adquisición de 2010
madures de un proceso de pruebas.
La relación costo/beneficio es un importante [10] MantisBT Team . Mantis Bug Tracker Administration
beneficio que brinda la herramienta Mantis a la Guide. .www.mantisbt.org.
empresa que la implementa gracias a su http://docs.mantisbt.org/master/en/administration_guid
distribución libre. e.html Accedido el 30 de Mayo de 2010
Mantis es una herramienta de gran utilidad al
presentarse una evaluación de auditoría, al ser la [11] Tran, Eushiuan (1999).
base en la cual se puede demostrar la ejecución de Verification/Validation/Certification". in Koopman, P..
un proceso de pruebas para un software evaluado. Topics in Dependable Embedded Systems. USA:
Carnegie Mellon University.
http://www.ece.cmu.edu/~koopman/des_s99/verificatio
8. REFERENCIAS Y CITACIONES. n/index.html. Retrieved 2008-01-13.
[1] ITtoolbox Role: IT Professional, Quality. Software [12] Savenkov, Roman (2008). How to Become a Software
Testing Process. it.toolbox.com. Tester. Roman Savenkov Consulting. p. 159. ISBN
http://it.toolbox.com/wiki/index.php/Software_Testing 978-0-615-23372-7.
_Process 28/01(2009). Accedido el 13 de Junio de
2010 [13] Exforsys inc. Life Cycle of Testing Process.
[2] Wikipedia. Pruebas de software . es.wikipedia.org. www.exforsys.com.
http://es.wikipedia.org/wiki/Pruebas_de_software http://www.exforsys.com/tutorials/testing/life-cycle-of-
03/06(2010). Accedido el 14 de Junio de 2010 testing-process.html.
424
Aproximación de un modelo unificado para la integración de
herramientas de Gestión de Configuración de Software
425
hoy la base de la gran mayoría de sistemas SCM. 3. METODOLOGÍA
También en los años 70 se introdujo el concepto de A lo largo del tiempo se han publicado una gran cantidad
―Change set‖ o conjunto de cambios que consiste en de artículos en base a la evolución, los conceptos, las
nombrar una compilación exitosa con una etiqueta, si hay metodologías y las funcionalidades de la SCM. Para tener
un cambio posterior, se puede establecer que es lo nuevo un referente conceptual, de autores y de instituciones se
que hay que compilar y generar así una nueva etiqueta [7], inicia una revisión sistemática que tiene como fin
para poder trabajar sobre los cambios incrementales. identificar que trabajos investigativos y estándares definen
La técnica de ―change set‖ abrió posibilidades que van más las prácticas de la SCM y en base a la información
allá del versionamiento conocido hasta el momento: encontrada, se espera realizar un modelo que permita
versionamiento orientado al cambio (deltas)[8]. Los sistemas integrar las diversas capacidades de una herramienta o un
―change set‖ puros no se implementaron en este momento solución (conjunto de herramientas) de SCM.
por problemas en la nomenclatura y en la compilación. Para el protocolo de la revisión sistemática se empleo la
En los años 80, la SCM se enfoco en la programación: plantilla presentada en [16] y en [17]. La pregunta de
versionado y construcción (building). El primer sistema que investigación que se planteo es: ¿Qué aproximaciones
representó la funcionalidad de SCM fue un sistema de existen en la SCM y cuáles ofrecen un enfoque orientado a
archivos (conocido con un file system) y el foco principal la integración de herramientas que soporten el proceso de
fue el control de archivos. El primer producto comercial SCM?. La lista de palabras clave para la investigación
serio fue DSEE [9]. DSEE introdujo el concepto de fueron: Software Configuration Management, SCM, SCM
modelado de sistema (antecesor de ADL – Architecture roadmap, SCM trends, CMMI Nivel II, Evolution of a
Description Language). Varias herramientas de SCM de SCM, Software Configuration Management Patterns,
hoy en día, no dejan de ser una capa superior de un sistema research SCM, IEEE STD 828-1998, SWBOK, ISO/IEC
de archivos. 12207, modeling for SCM Systems, state of the art SCM,
El concepto de Espacio de trabajo(workspace) y el control distributed configuration management, models for SCM,
del trabajo cooperativo lo introdujo NSE[10]; luego Adele revision control systems.
introdujo un producto especializado en modelado con Una vez que tenía las palabras clave, se procede con la
configuración automática de construcción (building) [11], y elaboración y depuración de ecuaciones de búsqueda y la
Aides de Camp(ahora TRUE software) introdujo el utilización de los conectores lógicos AND y OR, a demás
concepto de Conjunto de cambios (Change set)[12], de hacer búsquedas en español e inglés. A continuación se
concepto que no se implementó en la década de los 70. presenta un ejemplo de ecuaciones de búsqueda que se
En los años 90 la SCM se enfocó en la programación: emplearon en el estudio:
soporte al proceso y la ingeniería concurrente. En esta Software configuration management roadmap
década apareció el primer producto real de SCM. Estos Software configuration manager roadmap
sistemas eran mucho mejores, ofrecían usar una base de Gestión de configuración de software roadmap
datos relacional pero todavía bajo el concepto de control de SCM trends
archivos, proveían soporte al espacio de trabajo
SCM tendencias
(workspace) pero no daban soporte al proceso de
Las ecuaciones de búsqueda se van depurando y se van
construcción (built-in). En esta generación apareció
registrando en la medida que el estudio iba avanzando. El
ClearCase[13] (el sucesor de DSEE) que introdujo el
listado de las ecuaciones de búsqueda se iba depurando (en
concepto de un sistema de archivos virtual. Continuus[14] y
términos de resultados obtenidos por relevancia,
Adele introducen el soporte explícito al proceso [15].
importancia y cantidad) en un buscador multicultural cómo
A mediados de los 90‘s, el soporte al proceso se ha
es el caso de Google©, Yahoo© y Bing©. Al tener el
adicionado y los productos han madurado. Este periodo vio
listado de ecuaciones de búsqueda, se emplea su contenido
la consagración de SCM, como una tecnología madura,
en buscadores escializados:
segura y esencial para el desarrollo de software de forma
Science@direct, en el apartado de ―Computer Science‖.
satisfactoria.
Wiley InterScience, en el apartado de ―Computer Science‖.
Muchos productos de SCM están basados en núcleos
IEEE Digital library.
pequeños y mecanismos, tales como el versionamiento, el
ACM Digital library.
modelamiento del producto, la composición, la
Y en libros especializados en la Ingeniería de Software.
construcción (building) y la re-construcción (re-building),
Los resultados se fueron indexando y registrando en un
el soporte al workspace y el soporte al desarrollo.
gestor de referencias bibliográficas, en este caso fue
Hoy en día, un sistema típico de SCM intenta proveer
Reference Manager Professional© Edition Version 12.
servicios en algunas de las siguientes áreas: administración
De la información obtenida, se obtiene un marco
de un repositorio de componentes, Ayuda o soporte a
conceptual que apoya y/o argumenta el modelo propuesto.
ingenieros en sus actividades usuales y el soporte y control
usuales y el soporte y control del proceso.
del proceso.
426
4. METODOLOGÍA procesos y prácticas relacionadas con esto. En CMMI, hay
Diferentes tipos de capacidades de una herramienta son una práctica genérica (2.6 – Gestión de configuraciones)
necesarios para ayudar a soportar actividades de SCM, tales que está enfocada en SCM. Adicionalmente, CMMI define
como [18]: una librería de SCM, peticiones de cambio de la gestión de configuración cómo un área de ayuda al
software y autorización de procedimientos, productos de proceso en el nivel de madurez 2. En [23] el proceso de
trabajo (elementos como código, diagramas, documentos), Gestión de Configuración es un soporte al ciclo de vida del
tareas de administración de cambio, reportes del estado de proceso, y su propósito es establecer y mantener la
configuración de software, auditoria de configuración de integridad de todos los productos de trabajo de un proceso
software, documentación de administración y rastreo de o un proyecto y hacerlos disponibles para las áreas o partes
software, realizar la construcción de software (building), interesadas[22].
administrar y rastrear la publicación de software y su Observando en [23],[20],[18] y en libros cómo [24], las
entrega (release). actividades del proceso de SCM pueden ser resumidas
Dependiendo de la situación, estas capacidades de las cómo:
herramientas pueden estar disponibles con la combinación Implementación del proceso de SCM: un plan podría ser
de herramientas manuales con herramientas automatizadas desarrollado describiendo: las actividades de Gestión de
que proveen algunas capacidades de SCM. Este escenario Configuración; procedimientos y programación para
conduce o direcciona hacia un importante requerimiento de realizar estas actividades; establecer roles en la
las herramientas de SCM: la interoperabilidad. De hecho, organización para realizar estas actividades y las relaciones
en general, cómo el uso de herramientas de software para la entre áreas, tales como la relación entre el área de
ayuda o soporte a los desarrollos ha evolucionado, las desarrollo y el área de mantenimiento. El plan será
capacidades de las herramientas de software para documentado e implementado[23].
interoperar se ha convertido en un campo cada vez más Identificación de Configuración de Software: se identifican
importante careciendo de un modelo común que permita los elementos a ser controlados (Software Configuration
seguir un lineamiento de trabajo ordenado. Por lo anterior Items – SCIs), se establecen esquemas de identificación
se ha encontrado la necesidad de plantear un modelo que para ítems y sus versiones, y se establecen herramientas y
plasme las diversas funcionalidades mínimas de una técnicas para ser usadas en la adquisición y gestión de los
herramienta o una integración de herramientas. ítems a controlar[18].
Una especie de interoperabilidad puede ser alcanzada por Control de Versiones: combina procedimientos y
los programas que permiten la comunicación de una herramientas en orden para administrar diferentes versiones
herramienta específica con otra. Pero esta aproximación de SCI‘s que son creadas durante el proceso de
presenta problemas: el número de herramientas incrementa software[24].
y la información empieza a ser más compleja, esto es más Control del cambio: corresponde con la administración de
difícil para los desarrolladores de software en proporcionar cambios durante el ciclo de vida del software[18]. Un
traductores (plugins) entre cada par de herramientas de proceso de gestión del Cambio puede establecer la
software que necesitan intercambiar información[19]. inclusión de actividades para: (i) peticiones de cambio; (II)
Los obstáculos de la interoperabilidad surgen del hecho de evaluar la petición del cambio; (iii) check out; (iv) ejecutar
que las herramientas son creadas independientemente, y no el cambio; (v) revisar el cambio y (vi) check in de todos los
comparten el mismo idioma conceptual para la terminología elementos modificados.
usada que describe el contexto de SCM. Diferentes Auditoria de la Configuración: revisar, entre otras cosas: si
términos pueden empezar a ser usados para representar el el cambio especificado en la petición ha sido hecho, y si
mismo concepto. Sin una definición explícita en los alguna información adicional ha sido incorporada; si una
términos involucrados, esta es una dificultad para ver cómo revisión técnica se llevó a cabo para evaluar una
estos conceptos en una herramienta corresponden a otros en corrección; si los estándares organizacionales han sido
la otra herramienta. aplicados correctamente; si los SCI‘s en cuestión han sido
De acuerdo con CMMI [20], el propósito de SCM es correctamente actualizados[24].
establecer y mantener la integridad de los productos de Reporte del Estado de la Configuración: Es el registro y
trabajo usando la identificación de configuración, el control reporte de la información necesaria para la gestión efectiva
de configuración, el reporte y la auditoria de la de la configuración del software[18]. Este reporte incluye
configuración. Las prácticas de SCM han puesto una información sobre los SCI‘s y los cambios hechos sobre
directriz de cómo se construyen y liberan productos, y se ellos, para responder a las preguntas como: ¿Qué ha
identifican y registran cambios[21]. sucedido?, ¿Quién lo hizo? ¿Cuándo ocurrió? ¿Quién más
La importancia de SCM es muy conocida. Por ejemplo, así se verían afectados?[24].
sucedió con los estándares y modelos de calidad, tales Los ítems de Software evolucionan a medida que avanza un
como CMMI [20] y ISO/IEC 12207[22], la definición de proyecto de software. En este proceso en curso, las
versiones de un SCI se almacenan para realizar un
427
seguimiento de las diferencias entre el punto de inicio y el formalmente revisadas y acordadas, que posteriormente
estado actual que tiene un SCI. Una versión de ítem de sirve como la base del desarrollo futuro o de una entrega, y
software es una identificación particular y un ítem que puede ser cambiada únicamente a través de un
especificado. Se puede considerar como un estado de un procedimiento de control de cambio. Cómo un producto
ítem en evolución[18]. Para cada versión se tiene un evoluciona, las BaseLines importantes pueden ser usadas
identificador único. para controlar las evoluciones[20]. En otras palabras, una
Una revisión es una nueva versión de un ítem que está BaseLine es un conjunto de SCIs formalmente designados y
intentando reemplazar una versión vieja del ítem. Una fijados en un tiempo específico durante el ciclo de vida del
variante es una nueva versión de un ítem que será software[18].
adicionado a la configuración sin reemplazar la versión Un artefacto puede depender de algún otro, por ejemplo,
anterior[18]. De esta forma, podemos tener diferentes líneas una especificación de requerimiento puede depender de un
de desarrollo, agrupando un conjunto de versiones con una diagrama de caso), y lo mismo aplica para el
meta particular. A veces, tiene que existir más de una línea correspondiente SCI. Por tanto, cuando un cambio de una
o flujo de desarrollo para soportar, por ejemplo, una versión de un CI se solicita, se debe realizar un análisis para
personalización de un producto o la solución a un falló observar posibles impactos sobre las versiones de otros
dado. Diferentes líneas o flujos de desarrollo son llamados SCIs. Un Gestor de Configuración deberá analizar si un
también ―streams‖ o ―branch‖. cambio se deberá hacer, y ver las versiones que se debe
En un entorno de SCM, los streams son agrupados en involucrar[18]. En una acción de reserva (check out), se
repositorios. Un repositorio es un conjunto de mecanismos genera una copia de cada versión solicitada. Una vez que
y estructuras de datos que permiten a los equipos de las copias cambian, ellas podrán ser incorporadas (check in)
software administrar cambios de una forma efectiva[24]. en el repositorio. El Gestor de Configuración deberá
Generalmente, las organizaciones crean diferentes evaluar los cambios y de acuerdo a su decisión, una nueva
repositorios para diferentes propósitos (un repositorio para versión será creada.
el código de programación, otro relacionado con los 5. RESULTADOS OBTENIDOS
contratos y acuerdos, otro para las directrices El modelo propuesto plasma un modelado conceptual que
organizacionales, etc.). cubre las definiciones que están bajo la SCM.
Cuando se tiene un SCI o un conjunto de SCIs alcanzan un El modelo presentado en la Figura 1 agrupa los conceptos
punto de madurez deseado o un punto importante se ha que se deben tener en cuenta en el momento de realizar con
logrado, una BaseLine o línea base es creada. Las herramientas un cubrimiento de todas las actividades que
BaseLine‘s proveen una base estable para continuar la propone la SCM.
evolución de SCI‘s[20]. Acorde con CMMI una BaseLine
es un conjunto de versiones de SCI que pueden ser
428
Figura 1. Modelo conceptual unificado para la integración de herramientas de SCM.
429
proceso de desarrollo, se reduce la dependencia de las 1999, p. 792.
personas, se disminuye el costo de mantenimiento, se [6] L. G. Alan. 1978. "The evolution of a Source Code
establece una forma sistemática de resolver las Control System," SIGSOFT Softw. Eng. Notes, vol.
requisiciones de cambios. 3, no. 5, pp. 122-125.
7. CONCLUSIONES [7] W. F. Tichy. 1982. "Design, Implementation, and
Se ha identificado diferentes tipos de capacidades que una Evaluation of a Revision Control System," Tokyo,
herramienta de SCM debe contener, y que son necesarios Japan.
para ayudar a soportar actividades de SCM, como [18]: una [8] J. Estublier. 1988. "Configuration Management: The
librería de SCM, peticiones de cambio de software y Notion and the Tools," Grassau, Germany.
autorización de procedimientos, productos de trabajo [9] A. Lie, R. Conradi, T. M. Didriksen, E.-A. '.
(elementos: código, diagramas, documentos), tareas de Karlsson, S. O. Hallsteinsen, and P. Holager. 1989.
administración de cambio, reportes del estado de "Change Oriented Versioning in a Software
configuración de software, auditoria de configuración de Engineering Database," Princeton, New Jersey.
software, documentación de administración y rastreo de [10] D. B. Leblang and Jr. G. D. McLean. 1985.
software, realizar la compilación y construcción de "Configuration Management for Large-Scale
software (building), administrar y rastrear la publicación Software Development Efforts," Harwichport,
de software y su entrega (release). Massachusetts.
El modelo propuesto integra una serie de actividades que [11] D.Ford and d. L. van. 1989. "A network-based
se presentan a lo largo del ciclo de vida de un proyecto de development environment for Ada," in Proceedings
software y sus inter-relaciones, con el fin de extrapolarlo of the conference on Tri-Ada '89: Ada technology in
con herramientas que ayuden a la ejecución o realización context: application, development, and deployment
de las actividades. Para este contexto no se tuvo en cuenta Pittsburgh, Pennsylvania, United States: ACM. pp.
las características técnicas de las herramientas ni si eran 204-209.
de la rama del software libre o propietario. [12] J. Estublier. 1985. "A Configuration Manager: The
Para un trabajo futuro, con el modelo propuesto, se puede Adele Data Base of Programs," Harwichport,
trabajar en mejorar el modelo general y evolucionarlo a Massachusetts.
un planteamiento específico, de esta forma se puede [13] S. Dart. 1991. "Concepts in Configuration
comprobar cómo la SCM puede cubrir un amplio dominio Management Systems," Software Engineering
de ALM. Institute,1991.
También se pueden definir estudios que evalúen diferentes [14] D. B. Leblang. 1994. "The CM Challenge:
herramientas que realizan las actividades de SCM, a Configuration Management That Works," Baffins
demás se puede establecer que tipo de herramientas Lane, Chichester, West Sussex PO19 1UD, England:
permiten interrelacionarse con otras y evaluar las John Wiley and Sons, Ltd..
capacidades de integración en términos de eficiencia, [15] M. Cagan and A. Wright. 1995. "Untangling
eficacia, rendimiento, almacenamiento, capacidad de Configuration Management," in Lecture Notes in
cómputo, consumo de recursos cómo espacio en disco, Computer Science Springer-Verlag.
memoria y cpu. [16] E. Jacky, D. Samir, and A. Mahfoud. 1997."High
Level Process Modeling for SCM Systems," in
8. REFERENCES Proceedings of the SCM-7 Workshop on System
[1] J. Estublier. 2000, "Software Configuration Configuration Management Springer-Verlag, pp. 81-
Management: A Roadmap," Dassault Systèmes / 97.
LSR, Grenoble University: John Wiley, pp. 2-11. [17] J. Biolchini, P. G. Mian, A. C. C. Natali, and G. H.
[2] D. Whitgift. 1991. Methods and Tools for Software Travassos. 2005. "Systematic Review in Software
Configuration Management. West Sussex, England: Engineering. RT-ES679/05," Universidade Federal
John Wiley & Sons Ltd., 1991 do Rio de Janeiro Program de Engenharia de
[3] D. Whitgift, Methods and Tools for Software Sistemas e Computaçion,RT-ES679/05.
Configuration Management. West Sussex, England: [18] S. Mark and N. Mahmood. 2007. "Experiences using
John Wiley & Sons Ltd.. systematic review guidelines," J. Syst. Softw., vol. 80,
[4] D. Leblang. 1997. "Managing the software no. 9, pp. 1425-1437.
development Process with ClearGuide," in Software [19] IEEE. 2004. "SWEBOK - Guide to the Software
Configuration Management, 1235 ed. R. Conradi, Ed. Engineering Body of Knowledge,". P. Bourque, A.
Springer Berlin / Heidelberg, pp. 66-80. Abran, and R. Dupuis, Eds.
[5] J. Estublier and J. Estublier, "Distributed Objects for [20] C. Schlenoff, M. Gruninger, F. Tissot, J. Valois, T.
Concurrent Engineering," in System Configuration Creek Road, J. Lubell, and J. Lee. 1999. "The
Management, 1675 ed Springer Berlin / Heidelberg, Process Specification Language (PSL) Overview and
430
Version 1.0 Specification. [23] ISO/IEC, "ISO/IEC 12207. 2002. Amendment 1,
[21] SEI, 2006. CMMI for Development Version 1.2, Information Technology - Software lifecycle
CMU/SEI-2006-TR-008 Software Engineering processes".
Institute. [24] ISO/IEC, "ISO/IEC 12207. 1995. Information
[22] S. Berczuk, B. Appleton, and Brown Kyle. 2002. Technology - Software lifecycle processes‖.
"Software Configuration Management Patterns: [25] R. Pressman. 2001. Ingeniería del Software. Un
Effective Teamwork, Pratical Integration,", 1 ed enfoque práctico, 5 ed 2002, pp. 1-601
Addison-Wesley Professional. [26] .
431
432
Modelo de aprendizaje organizacional para la gestión del conocimiento:
MAO-G
433
información que permita evaluar si los objetivos de su conocimiento adquirido en la labor organizacional, y al
labor se están cumpliendo y comparar sus comentarios volver a la reunión con nuevas experiencias con respecto
con los que recibimos de semejantes. al aprendizaje obtenido y a su aplicación. Cómo
Nos provee, además, imágenes de la labor que se complementaron lo aprendido y la descripción de
desempeña vista desde un punto de vista de un cambios experimentados. Al ahondar bajo la superficie
semejante y sirve para evaluar constantemente el de cualquier sub-mundo y intentar descubrir los
curso del aprendizaje y desempeño. Para que se cumplan procesos inconscientes y los modelos relacionados con
los objetivos se requiere una honesta reflexión sobre las el control que atrapan a la gente en un modo de
funciones, metodología, y propuestas a mejorar. existencia insatisfactorio y predefinido, comenzamos a
El pensamiento y compartir reflexivo le permite al plantearnos cuestiones internas sobre los sucesos del
individuo narrar lo que está viviendo en el centro de mundo que nos rodea y analizar sobre el método sobre el
labores. cual se desarrollan estos sucesos.
1.2 Pensamientos y Percepciones Ahondar implica descubrir en el comportamiento
Es interesante una socialización reflexiva del humano, el comportamiento organizacional en cada uno
individuo sobre la experiencia que se está adquiriendo de los sub-mundos o grupos funcionales que componen
en el lugar de trabajo, sobre el trabajo que se le ha la organización.
asignado y sus expectativas. Las experiencias de los miembros de MAO-G, explican
Sobre qué específicamente ha ampliado los conocimientos de modo general, experiencias ocurridas con respecto
adquiridos y qué ha constituido una barrera para el al tema propuesto en cada reunión y como hicieron para
aprendizaje. Se debe alentar al miembro de MAO-G a hacer frente con los recursos que tenían a la mano. Y
que proponga, en las reuniones que para este fin se como lo afrontarían ahora con los recursos que tienen y
planificarán , qué se podría hacer para mejorar el si el Modelo de Aprendizaje Organizacional les ha
aprendizaje. De estas reflexiones, es bueno conservar contribuido a mejorar su calidad de vida en la
registros para poder utilizarlas en la retroalimentación con institución.
las líneas de acción adecuadas para la toma de decisiones Dentro de los grupos funcionales se viven intereses en
y se debe propiciar un ambiente de confianza y libertad de común, que es de lo que se tratarán las reuniones de
expresión basados en las tradiciones y los conceptos. MAO-G se socializarán experiencias de sus miembros
con respecto al tema propuesto para el mes que se leerá de
1.3 Autoevaluación la documentación explicita quince minutos antes de la
Esta surge como resultado de una reflexión honesta de reunión. Luego de socializarlas, se combinarán con el
cada individuo que labora en la organización con respecto conocimiento explicito que reposa en la base de
a cómo se desempeña en esta y cómo debería hacerlo. conocimiento y que está disponible en cada reunión, y
Sería conveniente resaltar algunas de las preguntas se debaten las interpretaciones individuales sobre el
propuestas para lograr una reflexión orientada a las tema., para llegar a acuerdos y hacer nuevos aportes.
funciones que el funcionario desempeña: Qué talentos se Ningún camino para la obtención del conocimiento en
poseen, Qué talentos se podrían mejorar, Cuál es la lo que respecta a los seres humanos es el ―absoluto‖,
percepción de los propios talentos y habilidadescomo es por esto que decidimos proponer este híbrido entre
profesional del trabajo desempeñado, Qué talentos se muchos de los caminos señalados por diversos autores
han podido percibir de los compañeros de trabajo, Cuáles como lo ha sido el modelo de aprendizaje
de estos talentos le gustaría incorporar para sí, Cuáles Organizacional de las cinco disciplinas de Peter Senge,
no, Cómo creen que los demás compañeros de trabajo el modelo SECI de Nonaka y Takeuchi, El modelo de
perciben el trabajo que se desempeña y que imagen Alcohólicos Anónimos de Bill Wilson, todo esto
como persona se proyecta, por qué , Cómo se siente el visualizado bajo la perspectiva del enfoque sistémico.
individuo con respecto al trabajo que desempeña y Es necesario un estudio cuidadoso de la Organización de
porqué, Muchos autores [2] proponen utilizar las manera local y de todo el personal que labora en ella, su
metáforas vivientes para tratar de entender la cultura, y el entorno legal en el que se mueve. Puesto que
organización y con ellos estamos de acuerdo, puesto hoy en día las Organizaciones se constituyen en su
que una organización se compone de seres vivientes los mayor proporción con el sistema de contratación de
cuales viven inmersos en sub-mundos dentro de esta y servicios de personal lo cual constituye una debilidad en
resuelven sus problemas acudiendo a ellos y viendo la los objetivos de aprendizaje de esta, cuando no se
misma realidad con los ojos que los grupos particulares cuenta con un Modelo flexible y de alta rotación del
en la organización les han enseñado a ver. personal. Lo que ha funcionado en el pasado, no
Los miembros asistirán a reuniones de MAO-G con necesariamente puede seguir siendo en el presente el
regularidad, para estar en contacto con otros miembros mejor plan en el presente, especialmente después de estar
y para aprender de ellos y como aplicar mejor el sujetos una dinámica tan alta como la de los seres
434
humanos y el conocimiento adquirido por ellos. Lo aprendizaje.
mismo sucede con las tecnologías de la información y MISIÓN
las telecomunicaciones, cuando a estas alturas, la Impulsados por el deseo de la supervivencia del
obsolescencia de ellas se ve extendida tan solo a tres conocimiento en un mundo tan dinámico, solo tenemos
años. una alta misión que cumplir: llevar el MODELO DE
APRENDIZAJE ORGANIZACIONAL MAO-G a los
OBJETIVOS DE MAO-G individuos, Organizaciones y comunidades que ignoran
Adoptar el servicio como una filosofía de vida fructífera que aún el conocimiento tiene una salvación. El logro de
que nos impulsa, como personas o entidades, a ayudar a esta misión se puede alcanzar mediante la práctica de un
los demás. Culturizar las personas en esta vocación sencillo programa que consta de doce pasos para el
interna que nos compromete con nosotros mismos a ser dominio personal, doce tradiciones para la supervivencia
útiles y por ende y felices mediante la ayuda de los grupos y doce conceptos para el servicio mundial
suplementaria de las necesidades del otro, sus de Aprendizaje que aseguran el funcionamiento
requerimientos, sus expectativas. armónico y eficaz de la estructura del servicio
Construir el Conocimiento Superior que constituirá la VALORES
obra más completa de consulta puesto que será la A ceptación
sumatoria de los aportes colectivos más valiosos del ser P rudencia
humano, codificados, entendibles y transmisibles E spíritu de Servicio
provistos por la observación, indagación, determinación R espeto
y suplencia de las necesidades emanadas de la voz T olerancia
colectiva. U nidad
MAO-G entiende el servicio al como nuestra razón de R eflexión
ser. Los ciudadanos y ciudadanas son el eje de la gestión A mor
pública y todos y cada uno de nuestros esfuerzos deben Nuestros valores solo deberán resumirse en dos
estar dirigidos a satisfacer sus necesidades y garantizar palabras: AMOR, SERVICIO
su bienestar individual y colectivo.
Construir una visión compartida donde todas las
1.4 Habilidades y Aptitudes deseadas
personas involucradas en la Organización aporten para
construcción del conocimiento superior que se de los servidores de MAO-G:
sustentará con el aporte individual soportado con las
TIC‘s. Amabilidad y Cortesía, Sensibilidad, Comprensión,
Un modelo de formación basado en la auto reflexión y el Tolerancia, Paciencia, Dinamismo, Razonamiento,
inventario personal de saberes experimentados que se persuasión, Consideración , Autocontrol, Creatividad.
deben compartir y transmitir sin reserva y que
incorporados al conocimiento colectivo, se transmitirán IDENTIDAD
mediante recursos físicos, tecnológicos, espirituales etc.,
con el acompañamiento continuo del talento humano de
la organización que favorecerá el proceso de interacción
entre sus miembros. Tendrá un alto componente
narrativo a modo de autobiografía o relatos de
experiencias laborales adquiridas en la aplicación del
conocimiento explícito en relación con los temas
específicos que para cada reunión se programarán con
anticipación por la junta de servidores de cada grupo Ilustración 1 [5] Logo de MAO-G
435
arista con la práctica de los Doce pasos , su arista basadas en la experiencia vivida de muchos de los
izquierda representa la Unidad, que es la condición modelos de gestión del conocimiento como el modelo
necesaria para que un grupo perdure y por ende la SECI, la Quinta Disciplina, Organizaciones Como
comunidad de MAO-G. su fundamento son las Doce Metáforas, Modelo de formación basado en la reflexión,
tradiciones. Y el componente derecho del triángulo es modelo A.A. Todos estos basados en la
el Servicio Integral cuya representación me indica el investigación concienzuda y experiencia práctica,
cierre preciso del triángulo cuya arista es indispensable interiorización y explicitación del conocimiento de los
en el equilibrio que se deben tener de los tres legados y su individuos quienes componen la organización.
fundamentación se encuentra en los Doce conceptos para He aquí los doce pasos:
el Servicio ntegral de Aprendizajeen donde se resalta la Admitimos que no podíamos comprenderlo todo,
metodología para obtener la armonía y resolver conflictos recordarlo todo, trasmitirlo todo que nuestra capacidad
que sin una herramienta como esta, sería muy difícil era limitada y nuestro conocimiento se había vuelto
pretender permanecer, participar y pertenecer a una perecedero
comunidad como la de MAO-G. Llegamos a creer que un Conocimiento Superior al de
PRINCIPIOS nosotros mismos podría devolvernos el entendimiento .
Cuando los principiantes cruzan el umbral del MAO-G, Decidimos poner nuestra buena voluntad al servicio
queremos que se sientan respaldados por el del Conocimiento Superior, entendido este como el
Conocimiento superior que empezarán a experimentar emanado del espíritu de la apertura reflexiva del
una vez decidan entregar lo mejor de sí para su colectivo.
construcción. Y esto solo es posible en forma continua si Sin miedo hicimos un minucioso inventario intelectual
permitimos que el conocimiento se transmita como se lo , moral y ético de nosotros mismos.
hará con el recién llegado cuyo aporte al conocimiento Admitimos ante nosotros mismos, y ante otro ser
colectivo también es muy importante para MAO-G humano, la naturaleza exacta de nuestras reservas
como grupo. cognitivas .
Los principios serán los pilares fundamentales sobre los Estuvimos enteramente dispuestos a dejar que el
que girará el modelo y son: Dominio Personal, Unidad y Conocimiento Superior nos liberase de nuestras
Servicio Integral reservas.
1.5 Dominio Personal Humildemente decidimos vincularnos al
Conocimiento Superior derivado de la apertura reflexiva.
Este principio puede considerarse como la disciplina que Hicimos una lista de todas aquellas personas o entidades a
permite aclarar y ahondar la visión personal, quienes habíamos perjudicado con nuestra reserva y
concentrar energía, desarrollar paciencia y ver la estuvimos dispuestos a reparar el daño que les causamos.
realidad objetivamente. El deseo y la capacidad de Reparamos directamente a cuantos nos fue posible el
aprender de una organización no puede ser mayor que el daño causado, excepto cuando el hacerlo implicaba
de sus miembros. Es la lucha diaria por un nivel especial perjuicio para ellos o para otros.
de destreza y enriquecimiento espiritual el cual se Continuamos haciendo nuestro inventario personal y
materializa con la percepción de las fuerzas que cuando nos equivocábamos lo admitíamos
subyacen en la lógica del cambio y trabajar con ellas inmediatamente.
en lugar de resistirlas. Buscamos a través reflexión , la indagación, el
Para comenzar a aplicar este pilar fundamentales de pensamiento sistémico y la comunicación mejorar
MAO-G personal se trabajará activamente en una serie nuestro contacto con el Espíritu delConocimiento
de pasos( Doce )[5], los cuales se irán realizando Superior buscando la fortaleza para mantenernos
periódicamente y conducirá al individuo al vinculados a él .
mejoramiento personal no solo en el aspecto intelectual Habiendo obtenido un despertar espiritual como resultado
sino espiritual. de estos pasos, tratamos de llevar el mensaje a los
Los doce pasos son un conjunto de principios de compañeros relegados y de practicar estos principios
naturaleza espiritual que, si se adoptan como una forma en todos nuestros asuntos.
de vivir el conocimiento en la organización, pueden
liberar al individuo ocultista y tener una visión más los "Doce Pasos" representan un modo de ―vivificar el
amplia de la forma como se puede ser útil y feliz, que conocimiento‖, concepto totalmente nuevo para la
podrá compartir, alimentar, acrecentar y transformarse mayoría de los funcionarios, pero muchos de los
en un ser íntegro. Los "Doce Pasos" son el núcleo del miembros considerarán que los Doce Pasos serán para
programa de MAO-G . para el crecimiento personal del ellos una necesidad práctica.
individuo. No son solo abstracciones teóricas; están El espíritu de la apertura reflexiva:
La apertura reflexiva es un proceso mental del ser
436
humano el cual se enriquece mediante la reflexión, la Decía que los problemas convergentes tendían a una
indagación y el pensamiento sistémico. Esto misma solución: es decir que cuanto más inteligencia se
representa un despertar espiritual individual, mediante la aplique para estudiarlos, mas se dirigen las soluciones a
interacción con los demás. Es poder trasladar los una sola. Decía también que los problemas divergentes
actos inconscientes al consciente y realizar una actuación no tenían una solución correcta. Lo anterior debido a
diferente no ya en función del individuo sino del que podría haber muchas soluciones, o soluciones
colectivo. contradictorias y que la dificultad de la solución no
Peter Senge, en la Quinta Disciplina, cita al autor radicaba en los expertos consultados para esta sino en la
O‘Brien, quien identifica este espíritu como ―el espíritu naturaleza del problema. Cuando recordamos que el
del amor‖ y quien aclara que no se refiere a la palabra aprendizaje organizacional no se da como resultado de
amor romántico en el contexto de los negocios y la una serie de procesos aislados sino como una relación
administración sino al tipo de amor que subyace en la totalitaria en la cual se incluyen fenómenos intrínsecos
apertura. del ser humano como lo es su inconsciente y su
El amor se resalta como las intencionalidades: El consciente. Estos fenómenos muchas veces parecen
servicio mutuo, la voluntad de ser vulnerable en el transparentes a la organización que tiene una serie de
contexto de ese servicio, El compromiso pleno e reglamentaciones, de funciones y normas
incondicional con la ―realización‖ del otro, para que ese determinísticas que pasan por alto el espíritu de las
otro pueda ser todo lo que puede y desea ser. Podría personas que desempeñan las labores y que éste es en
verse desde el punto de vista de la construcción de una gran medida el que mejora el desempeño y el bienestar
fortaleza a partir de la propia debilidad. del ser humano con relación a su papel en la empresa.
Senge en su cita a O‘Brian escribe: ―Puedo practicar Resultados esperados en la aplicación de los doce pasos :
todos los pasos analíticos hacia la apertura sin que sea Admitir la impotencia individual Aprender a ver con
suficiente. Aunque tengamos la disposición espiritual claridad la realidad actual.
fundamental, no logramos nada sin la aptitud. Pero si Interiorizar la importancia del semejante.
desarrollamos la aptitud sin la disposición espiritual, eso Concentrarse cómo llegamos desde hasta.
tampoco funciona‖[3] Los doce pasos están escritos en la Compromiso con la verdad.
cuarta persona del plural y en pasado puesto que el Conectarse con el mundo espiritual.
individuo, cuando decide ingresar al modelo MAO-G, Comprometerse con la totalidad.
deja de funcionar como una rueda suelta para pasar a ser Liberación para crear los resultados que de veras
parte de una estructura colectiva donde no tiene sentido deseamos, aprendizaje generativo y esperado para la
realizar cualquier paso aisladamente, aunque la finalidad gente.
de los pasos es la consecución de una espiritualidad
individual que pueda integrarse de manera efectiva a la 1.6 Unidad
comunidad ; el sentido de aceptación e ingreso se
encuentra en el la aceptación del espíritu colectivo y es Son ciertos principios de orientación para el manejo de
por esta razón que está propuesta en tiempo pasado. los grupos que fomentarán su vitalidad y servicio. Es el
No se avanzará al un paso superior, sin haber alcanzado el resultado de conocimientos ganados con dificultad. Es
primero. muy importante el ver que la marcha del grupo lleve a la
Si el individuo, miembro de MAO-G decidiese no supervivencia y al servicio continuo. Las Doce
practicar los pasos, pertenecerá a la comunidad pero no Tradiciones son la orientación de valor que nos puede
descubrirá las bondades del crecimiento que le promete el evitar muchos problemas, permitiendo a los grupos
Conocimiento Superior trabajar juntos en unidad y armonía.
El objetivo de realizar estos pasos es sencillo. Es La doce Tradiciones[5] de MAO-G, se aplican a la vida
descubrir la naturaleza exacta de las fuerzas que de la Comunidad del conocimiento por sí misma.
subyacen en el interior del individuo y que impiden el Resumen de los medios por los que MAO-G mantiene su
crecimiento personal en el ámbito del aprendizaje. Una unidad y se relaciona con el individuo y con el mundo a
vez realizados estos pasos de manera honesta se podrá su alrededor, la forma en que vive y se desarrolla.
identificar el punto exacto de apalancamiento en los Las Doce Tradiciones de MAO-G:
círculos viciosos reforzadores que entorpecen el Nuestro bienestar común debe tener la preferencia; el
crecimiento del individuo y por ende de la crecimiento Personal depende de la unidad de MAO-G.
organización. En la Quinta Disciplina, Senge cita al Para el propósito de nuestro grupo sólo existe una
Economista inglés E.F.Shumacher conocido autor de Lo autoridad fundamental: CONOCIMIENTO SUPERIOR
pequeño es bello, y argumenta que en uno de sus libros tal como se manifieste en la conciencia colectiva de
que hay fundamentalmente dos tipos de problemas: nuestros miembros. Nuestros líderes no son más que
―problemas convergentes y problemas divergentes.
437
servidores de confianza. No gobiernan. principal y la razón de la existencia de MAO-G. Es por
El único requisito para ser miembro de MAO-G es querer esto por lo que más que un conjunto de principios,
aprender es una organización de funcionarios en acción.
Cada grupo debe ser autónomo, excepto en asuntos que El Servicio Integral de Aprendizaje es todo lo que nos
afecten a otros grupos o al Modelo de Aprendizaje ayuda a llegar a un semejante que se encuentra en la
Organizacional para la Gestión del Conocimiento MAO- organización y que se encuentra alejado del Modelo de
GC, considerado como un todo. Aprendizaje Organizacional, extendiéndose desde el
Cada grupo tiene un solo objetivo primordial: llevar el mismo duodécimo paso hasta una taza de café. Y a la
mensaje al miembro de la organización que aún está Oficina de Servicios de Aprendizaje para lo que ese
relegado. refiere a actividades interinstitucionales o nacionales[8].
Un grupo de MAO-GC . nunca debe respaldar, financiar Los servicios incluyen lugares de reunión, cooperación
o prestar el nombre de MAO-GC a ninguna entidad con otras entidades, comités intergrupales, unidades
allegada o empresa ajena, para evitar que los problemas funcionales y demás agrupaciones que integrarán el
de dinero, propiedad y prestigio nos desvíen de nuestro Modelo. Significan
objetivo primordial. folletos, revistas, libros, Objetos y piezas comunicativas
Todo grupo de MAO-G debe mantenerse a sí mismo, virtuales, una buena publicidad de todo lo posible,
negándose a recibir contribuciones ajenas. logística para eventos especiales como foros,
MAO-G . nunca tendrá carácter profesional, pero congresos, convenciones. Requieren Comités y
nuestros centros de servicio pueden emplear Conferencias y la contribución voluntaria de los
trabajadores especiales. miembros del Modelo.
MAO-G . como tal nunca debe ser organizada; pero Los conceptos[11] abrigan una serie de principios que
podemos crear juntas o comités de servicio que sean han de ser una base para evitar cometer sucesivas
directamente responsables ante aquellos a quienes sirven. equivocaciones en la organización de manera que si se
MAO-G . no tiene opinión acerca de asuntos ajenos a toma un camino alterno en la dirección de los grupos,
sus actividades; por consiguiente, su nombre nunca estos conceptos serán un camino seguro de regreso al
debe mezclarse en polémicas públicas. balance satisfactorio, que sin estos, podrían haber
Nuestra política de relaciones públicas se basa más bien muchas dificultades. En estos conceptos se plasmarán el
en la atracción y promoción que en la obligación ; Derecho de Decisión que da a nuestros directores de
necesitamos mantener siempre nuestro principio de servicio una libertad discrecional; el Derecho de
invitación y buena voluntad para pertenecer . El Participación, que da a cada servidor la posibilidad de
reconocimiento de autoría y las fuentes de bibliográficas votar en la medida de su responsabilidad y su
y de conocimiento deberán citarse para preservar el participación garantiza que cada junta o comité, posea
aporte histórico a nuestra base de conocimiento. siempre los elementos, talentos y capacidades que
El respeto a los derechos es la base fundamental de todas aseguren su funcionamiento; el Derecho de apelación
nuestras Tradiciones, recordándonos siempre anteponer protege y anima la opinión de las minorías y el Derecho
el reconocimiento de Las Doce Tradiciones de MAO-G de petición da la seguridad de que las denuncias de las
De todos los estudios de relaciones humanas una injusticias serán oídas y solucionadas
pregunta constante ha sido el funcionamiento del ser apropiadamente. Estos principios generales pueden ser
humano en la sociedad y su evolución como parte usados con buenos resultados a través de toda la
integrante de un todo y el funcionamiento de esta estructura de MAO-G.
―sociedad‖ como unidad. En los Servicios Integrales de Aprendizaje, se han
Estos principios, en su mayor parte, se han tomado de los analizado diversos tipos de estructuras como la
campos de la medicina, la sicología y la religión, cuyas autoritaria, dónde un grupo o una persona se coloca con
investigaciones a través de los años nos arrojaron una autoridad desmedida sobre otros y la democrática
valiosísimos aportes en el comportamiento del ser que se base en controlar y equilibrar para evitar que la
humano en la comunidad y sus necesidades, autoridad se desborde. Debido a nuestra naturaleza de
evoluciones, deseos reprimidos, culturas, etc. Aunque sistema suave, compuesto por humanos y que nuestra
algunas de las ideas que tuvieron una importancia propensión a imponernos por la fuerza, es natural e
decisiva fueron tomados de modelos como el modelo A.A. imperativo que los conceptos de servicios estén basados
y SECI, Reflexivo y Quinta Disciplina. en el sistema de ―controlar y equilibrar‖.
Estos principios también están basados en la
Servicio Integral De Aprendizaje naturaleza de la psiquis cuyo esbozo en metáforas
analizadas por Gareth Morgan[2] y extraídas del
Nuestro duodécimo paso[5], el de llevar el mensaje, es súmmum de investigaciones de diversos sicoanalistas
el servicio básico de nuestro modelo. Es la ayuda como Sigmmund Froyd, Carl Yung y otros estudioso del
438
comportamiento humano cuyos aportes demuestran la consideración al seleccionar la composición, los
tendencia aproximada a ciertos comportamientos méritos personales, los procedimientos de ingreso, los
proclives al poder, prestigio personal, ira, envidia, etc. derechos y los deberes asignados.»
Situaciones para nada favorables al aprendizaje sin un La Conferencia cumplirá con el espíritu de las
control interior para inclinaciones individualistas y Tradiciones de MAO-G, teniendo especial cuidado de
egoístas. que la Conferencia nunca se convierta en sede de
Los Once Conceptos para el Servicio Integral de peligrosa riqueza o poder; que fondos suficientes para su
Aprendizaje[8] funcionamiento, más una reserva adecuada, sean su
La responsabilidad final y la autoridad fundamental de prudente principio financiero; que ninguno de los
los Servicios de Integrales de Aprendizaje de MAO-G . miembros de la Conferencia sea colocado en una
deben residir siempre en la conciencia colectiva de toda posición de autoridad incondicional sobre ninguno de
nuestra Comunidad los otros; que todas las decisionesimportantes sean
La Conferencia de Servicios Integrales de Aprendizaje de alcanzadas por discusión, votación y siempre que sea
MAO-G. se convertirá, para casi todo propósito posible, por considerable unanimidad; que la
práctico, en la voz activa y la conciencia efectiva de toda Conferencia nunca debe realizar ninguna acción de
nuestra Comunidad en sus asuntos mundiales gobierno autoritaria, y que como El Modelo de
Para asegurar una dirección eficaz, debemos dotar a Aprendizaje Organizacional, al cual sirve, la Conferencia
cada uno de los elementos de MAO-G. (la Conferencia, la en sí misma siempre permanecerá democrática en
Junta de Servicios Integrales de Aprendizaje, las pensamiento y en acción
corporaciones de servicios, personal directivo, comités y
ejecutivos) de un ―Derecho de Decisión‖ tradicional. Debemos evitar excesiva concentración de dinero o de
En todos los niveles de responsabilidad, debemos influencia personal en cualquier grupo o centro de
mantener un ―Derecho de Participación‖ tradicional, en servicio[1]. En cada nivel de servicio la autoridad debe
forma tal que permita la representación votante en ser igual a la responsabilidad. Esto para tener en
proporción razonable a la responsabilidad que cada nivel cuenta la apertura y el localismo del cual habla Senge.
deba asumir. [3]
Debe prevalecer en toda nuestra estructura un ―Derecho
de Apelación‖ tradicional, asegurándonos así que la 2. ESTRUCTURA DE MAO-G
opinión de la minoría será oída, y que las peticiones de En MAO-G no deberá haber gobernantes, tampoco una
rectificación de los agravios personales serán autoridad absoluta, excepto aquella que se manifiesta en
consideradas cuidadosamente. la ―conciencia colectiva del grupo MAO-G‖ la cual se
La Conferencia reconoce que la iniciativa principal y la comunicará por medio de la Conferencia y su estructura.
responsabilidad activa en la mayoría de los asuntos de Aquí es donde sigue la línea de acción del grupo MAO-
Servicios Integrales de Aprendizaje deben ser ejercidas G hacia MAO-G como un todo. La tradición Ocho y
por los Custodios miembros de la Conferencia cuando nueve, sugieren que podemos establecer centros de
actúan como la Junta de Servicios Generales. servicio, juntas de servicio y comités, directamente
Los Custodios son los principales planificadores de la responsables ante aquellos a quienes sirven[7].
política y finanzas generales. Tienen supervisión El plan de la Conferencia es la estructura que orienta la
directa de las entidades de servicio constantemente dirección de MAO-G, asegurando en esta forma que
activas e incorporadas separadamente, y ejercen esta pueda escucharse la voz de la conciencia colectiva de
función por medio de su facultad para elegir a todos los grupos, así sea en representación de una gran mayoría
los directores de aquellas entidades. o de una minoría. La estructura de la Conferencia se
Para nuestro funcionamiento y seguridad futuros, se estableció como una garantía para que el servicio de
hace indispensable una buena dirección de servicio en nuestra comunidad de conocimiento continúe
todos los niveles. La dirección primordial de Servicios funcionando bajo todas las condiciones.
Integrales de Aprendizaje, que en primera instancia será
ejercida por su fundadora, debe necesariamente ser 2.1 Servicios Integrales de Aprendizaje
asumida por los Custodios El recién llegado a MAO-G aprecia rápidamente la
A cada responsabilidad de servicio debe corresponder importancia del trabajo del Paso Doce, que sirve a la vez
una autoridad de servicio equivalente, quedando para incrementar el conocimiento y la apertura a quien lo
siempre bien definido el alcance de dicha autoridad. otorga y de quien lo recibe. Luego se da cuenta de
Los Custodios siempre deberán contar con la ayuda de que dicha labor se amplía para incluir las oficinas de
comités, directores de las áreas de servicio, ejecutivos, intergrupos y los comités de servicio institucionales.
personal de oficina y asesores que sean los mejores Finalmente se llega a los servicios de Aprendizaje.
posibles. Deberán por lo tanto prestar especial Se utiliza el término ―Servicios Integrales de
439
Aprendizaje[5]‖para designar todas aquellas actividades columunidad
ejecutadas por los comités de área, delegados,
custodios y el personal de la Oficina de Servicios de En la ilustración No. 3, se muestra como fluye la
Aprendizaje (OSA) dentro del marco de la estructura de la información desde el Grupo de Mao-G en La
conferencia. Generalmente tales actividades benefician Estructura de toda la comunidad.
a la comunidad como un todo. Casi siempre se encuadran
dentro de la característica Unidad de MAO-G que
permite el buen funcionamiento de los grupos mediante
el reflejo de las tradiciones.
Cada uno de los seres humanos le debe el conocimiento
al interés y al esfuerzo de otra persona que de una u otra
manera lo ha transmitido. Aunque hubiéramos obtenido
el conocimiento que poseemos por nosotros mismos,
solamente nos ha sido posible acortar el camino en su
descubrimiento, gracias a muchas personas que han
garantizado su transmisión mediante diversos medios.
Primeramente por medio de jeroglíficos, pasando por la
creación de los alfabetos para la escritura en papiros,
pergaminos, libros, etc., de generación en generación,
hasta llegar a lo que hoy conocemos como el
computador, el internet y finalmente las redes sociales.
Este antecedente, deberá ser un pilar sobre el cual
nosotros construyamos la sociedad en la que todos los
miembros sean verdaderamente hermanos por una
misma causa ―La supervivencia del conocimiento‖cada
uno con una deuda de gratitud para el otro. Este
conocimiento que hoy hemos adquirido, se lo
debemos a quienes el día de ayer pusieron un grano de Ilustración 3 [5]Cómo encaja un grupo MAO-G en la
arena en su construcción. Deberemos comunidad
comprometernos con garantizarle la transmisión
enriquecida con la experiencia al individuo que llegará
mañana a la organización.
La ilustración No 2 Muestra la estructura Interna de un
grupo y como se conecta con toda la comunidad:
MEDIOS DE PROPAGACIÓN
2.2 Canal Presencial
Estará integrado por puntos de servicio de aprendizaje
personalizado donde los funcionarios de la institución
podrán acceder a los servicios de información y
capacitación, realizar las reuniones propias de MAO-
G, acopiar y gestionar literatura, realizar
seminarios, congresos y demás. Allí podrán vincularse
a los programas de Aprendizaje y capacitación ofrecidos
por la Administración Institucional en un mismo espacio
físico.
440
La institución podrá instalar diferentes tipos de puntos reuniones intergrupales, en los lugares de trabajo, en los
de atención de acuerdo a las necesidades y expectativas puntos de servicio, y será una filosofía del miembro de
de los usuarios (Biblioteca, Salón de Inducción y re MAO-G independientemente de que su compañero esté
inducción, Salón de capacitación en TICS, Sala de o no en un grupo, invitándole a pertenecer e
Estructuración y Socialización, etc.) informándole de los lugares físicos y electrónicos donde
podrá vincularse. De esta forma se practicará el paso
doce y por ende se propagará la filosofía del servicio.
Este acompañamiento, será dado inicialmente de manera
voluntaria a como bienvenida y posteriormente se
instará al recién llegado que busque el padrino con el
cual se sentirá más cómodo, para compartir información
y conocimientos afines como parte del trabajo en
equipo.
Se recordará al que llega que solo se garantiza la vida
del conocimiento en la medida en que el individuo
comparta lo que aprende.
441
las entidades distritales y nacionales con presencia en la
Red, a través de teléfono fijo, celular, Chat y correo
electrónico, las 24 horas del día de domingo a domingo.
Se deberá, asignar una línea especial para los puntos de
servicios de aprendizaje personalizados MAO-G
Se contará con una oficina o call center donde se
administra la información al público, publicaciones,
coordinación de foros y el directorio telefónico y
ubicación de los grupos para llegar más fácil a la
población. Igualmente se deberá establecer estrategias
de atención especializada para la atención del aprendizaje
de población discapacitada.
2.6 Productos y/o servicios
442
localidades traducidos en bienestar para la comunidad tiempo queda mucha información por complementar y
vecina. profundizar en la explicación de los pasos las
tradiciones y los conceptos utilizados en la
2.7 Abreviaturas y Acrónimos metodología propuesta para el funcionamiento del
MAO-G: Modelo de Aprendizaje Organizacional para la modelo.
Gestión del Conocimiento y la información.
RGC: Representante de Gestión del Conocimiento. 4. AGRADECIMIENTOS
OVA‘S : Objetos Virtuales de Aprendizaje[9]. Angel María Fonseca Correa, ingeniero de Sistemas y
OSA: Oficina de Servicios de Aprendizaje Líder del Sistema Integrado de gestión del Hospital Vista
CSA: Conferencia de Servicios de Aprendizaje Hermosa y coordinador del convenio interinstitucional
Hospital Vista Hermosa I Nivel ESE- Universidad
3. CONCLUSIONES Distrital Francisco José de Caldas ESE por sus aportes
El presente trabajo, se realizó con una concienzuda y cognitivos y bibliográficos en el direccionamiento
extensa investigación de muchos de los modelos de estratégico del proyecto .
aprendizaje organizacional cuya base fundamental es la Rubén Darío Pérez Torres, Ingeniero de sistemas,
experiencia del individuo en la organización. Las investigador de la Universidad Distrital , por sus
diferentes perspectivas de la organización vistas con un valiosos aportes académicos e investigativos.
enfoque sistémico, nos proveen unos pensamientos más Humberto Bocanegra Leal, Ingeniero de Sistemas y
flexibles, sobre las realidades de estas aunque menos coordinador del área de sistemas del Hospital Vista
complejos de lo que son las organizaciones y por este Hermosa ESE, por la transferencia de conocimiento
motivo, se brinda una herramienta en la cual se vea al experimental y dedicación de tiempo.
ser humano no ya como un recurso en la organización Johana Rodríguez, Ingeniera de Sistemas y coordinadora
sino como un ser poseedor de talentos que se encuentran del Sistema Integrado de Gestión del Hospital Vista
en su parte racional y espiritual, que una vez Hermosa I nivel ESE, por su aporte en la documentación
mezclados con lo material y esta metodología, se espera necesaria especializada para la realización del proyecto.
que sea de beneficio para el crecimiento individual y Luis Emilio Montenegro, Ingeniero de Sistemas y co-
por ende el organizacional, en aras de poder construir director del trabajo de grado, por su orientación y
una verdadera organización inteligente. El acercamiento apoyo durante la realización del proyecto.
que se tuvo del pensamiento crítico de las metáforas de José E. ex delegado y miembro de la comunidad de
las organizaciones, nos animan a entender y comprender Alcohólicos Anónimos por sus aportes en
los múltiples significados de las situaciones y a conocimiento y difusión de la estructura y los principios
confrontar y dirigir las contradicciones y las paradojas. de A.A.
En lugar de pretender ignorarlas o pensar que no existen. Agradecimiento especial a la Dra. Nohora Velasquez,
El punto más importante es que la forma humana de ver el Jefe de Gestión Pública y Autocontrol del HospitalVista
mundo está limitada y en la medida en que se amplíe ese Hermosa I nivel ESE por la colaboración y apoyo
campo visual con la visión colectiva de los grupos, durante la realización del proyecto y la integración del
podremos comprender y complementar las capacidades Modelo de Aprendizaje Organizacional (MAO-G) al
del ser humano para recibir aprendizaje y transmitir Sistema Integrado de Gestión del Hospital Vista
conocimiento. En la mayoría de organizaciones exitosas, Hermosa SIG-AGA.
se aprecia el conocimiento como una joya invaluable en Esmit Torres Monrras, Gerente del Hospital Vista
aras de propender por la innovación y el desarrollo y Hermosa I nivel ESE por apoyar la investigación e
el mayor secreto que ellas explotan y con las que ganan integración de la universidad con la organización en la
ventajas competitivas es el conocimiento del personal que búsqueda del conocimiento que mejore cada vez las
labora en ellas. Es por este motivo que se hizo una condiciones de vida de la comunidad de Ciudad Bolívar
integración de muchos de los modelos propuestos con A la Universidad Distrital Francisco José de Caldas,
énfasis en la investigación- acción, teniendo como Bogotá, Colombia por formar profesionales de alta
herramienta fundamental las tecnologías de la calidad y competitividad.
información y las telecomunicaciones en la Al Alcalde Mayor de Bogotá Samuel Moreno Rojas, por
implementación de la plataforma de educación virtual liderar políticas de integración de la academia con la
Moodle como mecanismo propicio para la gestión del organización.
conocimiento. El presente Modelo de Aprendizaje 5. REFERENCIAS
Organizacional MAO-G pretende servir como base para [1] Ideas tomadas del la metodología de Alcohólicos
posteriores trabajos sobre Aprendizaje Organizacional y Anónimos, en su libro Alcohólicos Anónimos escrito
Gestión del conocimiento puesto que por razones de por BILL W impreso por A.A.World Services Inc. ®
443
ed. 1969. Innovation. 11(7/8):833‐845. 1996 .
[2] MORGAN GARETH, Imágenes de la [7] A.A. World Services Inc®.,El grupo de A.A. ..donde
Organización, ed. Alfaomega Grupo Editor todo empieza. Como funciona un grupo Como
S.A.,1998. ponerse en marcha.
[3] SENGE M. PETER, La quinta Disciplina, [8] Conceptos adaptados del libro ―Manual de
Ediciones Garnica S.A., ed 2005. Servicios de A.A. y Doce Conceptos Para el Servicio
[4] Fundación LAMS Integración entre LAMS y Mundial, A.A. World Services Inc®‖ con el permiso
Moodle, [En Línea], [consulta: 4 de febrero de 2010]. escrito de la Oficina de Servicios Generales de A.A.
Disponible en: Colombia.
<http://lamsfoundation.org/integration/moodle/> [9] Universidad Nacional A distancia, Objetos Virtuales
[5] BUITRAGO, Girlesa María, Trabajo de grado de Aprendizaje , [consulta:10 de marzo de 2010].
Analisis, Diseño, Desarrollo E Implementación Disponible en : <http://www.unad.edu.co/redovas/>
Del Prototipo De Modelo De Capacitación Y [10] HOSPITAL VISTA HERMOSA, [En línea]
Aprendizaje para el Hospital Vista Hermosa Nivel I [consulta:10 de julio de 2010]. Disponible en: <
E.S.E A travésDel Uso De La Plataforma De http://www.hospitalvistahermosa.gov.co> Educación
Aprendizaje Electrónico Moodle2010. al Hospital o en la intranet del HVH ip
[6] NONAKA, I. and TAKEUCHI, H.―ATheory of <197.9.100.240/server/moodle>
Organizational Knowledge Creation‖. International [11] BILL W. Manual de Servicios de A.A. y Doce
Journal of Technology Management,Special Issue Conceptos Para el Servicio Mundial, A.A. World
of Unlearning and Learning for Technological Services Inc®., ed 2002.
444
Ecosistema de Conocimiento Regional para la Ciudad-Región de
Manizales y Caldas, Colombia
RESUMEN 1. INTRODUCCIÓN
La ciudadanía en la sociedad de la información y del Los diversos planes para el desarrollo de la Sociedad de la
conocimiento debe apropiarse socialmente de las Información y del Conocimiento en Colombia, tanto
tecnologías digitales para avanzar en el desarrollo nacionales como regionales, han estado orientados a
sustentable de su territorio, aprovechando la generar un adecuado uso de las tecnologías informáticas
infraestructura y dimensiones de los territorios digitales. para contribuir al éxito de un modelo de crecimiento
Este articulo presenta los resultados finales de una económico basado en el incremento de la competitividad
investigación doctoral sobre un modelo de desarrollo y la productividad, la promoción de la igualdad social y
basado en conocimiento, específicamente se presenta la regional, la inclusión digital y la mejora del bienestar y la
arquitectura e instancias de un ecosistema de calidad de vida de los ciudadanos. Si las sociedades del
conocimiento regional para generar y gestionar agendas conocimiento incluyen dimensiones de transformación
y accionespara la innovación y los emprendimientos social, cultural, económica, política e institucional como
socio-productivos basados en conocimiento. una perspectiva más pluralista y desarrolladora
(Waheed, 2003), la ciudad digital y de conocimiento debe
abarcar estas dimensiones para propiciar no solo su
Palabras clave: Ecosistema de conocimiento, crecimiento económico sino también para empoderar y
agentes de conocimiento, sistema de capitales, desarrollartodos los sectores de su sociedad.
activos de conocimiento. Los conceptos de ciudad digital y de ciudad de
conocimiento se complementan cuandohacen referencia
a la infraestructura en tecnologías de la información y
ABSTRACT comunicación, a los servicios digitales para la comunidad
Citizenship in the information society and knowledge como una extensión de la prestación de los servicios
must be socially appropriate digitaltechnologies to sociales; el concepto de conocimiento también tiene que
advance the sustainable development of its territory, using ver con competencias para gestionar conocimiento a
the infrastructure and dimensions of digital territories. nivel ciudadano, colectivo e inter-organizacional, con la
This paper presents the final results of a doctoral study a capacidad de auto-conocerse a nivel local para potenciarse
model of development based on knowledge, specifically a nivel global.
show the architecture and instances of an ecosystem of Un ecosistema de conocimiento regional tiene que ver con
regional knowledge to create and manage agendas and gestión tecnológica, gestión delconocimiento y gestión
actionsfor innovation and socio-productive ventures based social para promover procesos innovadores en las
on knowledge. administraciones públicas, para extender el uso de las
tecnologías digitales a la educación, la sanidad, lacultura
Keywords: Ecosystem of knowledge, y el bienestar social; para aprovechar la infraestructura de
knowledge agents, system of capital, los territorios digitales.
knowledge assets. El ecosistema de conocimiento es un medio para
incrementar en la ciudadanía la adopción y uso de los
servicios digitales, la participación en redes sociales, las
comunidades virtuales, la utilización de la identidad
445
digital para el ciber-comercio, la ciber-salud, la ciber- validar los componentes del ecosistema.
ciencia, los ciber-negocios, la ciber-educacion, la ciber-
agricultura, el ciber-gobierno y el ciber-empleo. El 2. EL ECOSISTEMA DE
ecosistema considera también la seguridad de la
información entre la ciudadanía y las organizaciones, en
CONOCIMIENTO REGIONAL
procura de genera una mayor confianza en la adopción y La propuesta del modelo de desarrollo basado en
uso de las tecnologías informáticas. El adecuado uso que conocimiento, está fundada en un ecosistema de
se le dé al ecosistema permitirá potenciar la aplicación conocimiento regional (figura 2) conformado por el
de las tecnologías digitales al sistema educativo y sistema social de capitales y sus activos de conocimiento,
formativo, generando contenidos y actividades que por los agentes de conocimiento sociales
posibiliten innovar y emprender, como elementos claves (familia,comunidad, ciudadano, organización) y en paras
al uso creativo y productivo de las tecnologías digitales. las regiones (natural, geográfica, administrativa, en red).
Incluso el ecosistema busca que las tecnologías El ecosistema de conocimiento de la ciudad-región esta
informáticas sean un instrumento clave para un cimentado en ontologías y agentes (Figura 3). Los
crecimiento equilibrado desde la mirada medioambiental. agentes del portal se refieren a los dominios: agentes
sociales de conocimiento, sistema de capitales, agendas
de actuación, activos de conocimiento y regiones
(gobernanza y agenda de actuación). Los agentes
computacionales propuestos para el ecosistema de
conocimiento son: agente activador de conocimiento,
agente de gestión,agente de participación, agente de
relaciones y agente de recolección y filtro de datos; todos
estos agentes acorde a la búsqueda e indagación semántica
planteada por (Lizhen, Zhifeng,& Kemin, 2010).
METODOLOGÍA DESARROLLADA
Las estructuras propuestas para los componentes del Figura 2. Componentes del ecosistema de conocimiento
ecosistema son el resultado de un proceso de IAP, como regional
un método de investigación de carácter eminentemente
cualitativo,con la participación de la comunidad y su
capacidad para orientar la trasformación de su entorno u
organización, en procura de una mejor calidad de
vida de sus miembros y participantes. El postulado
fundamental de la investigación-acción-participación es
que el conocimiento de la realidad del objeto de estudio
(ciudad-región digital y de conocimiento) es en sí mismo
un proceso de trasformación a través de la superación de
los conflictos y contradicciones del investigador, del
grupo participativo y del problema y objeto de estudio.
El proceso IAP se realizo con la participación de personas
y actores la provincia de Caldas Colombia, en un trabajo
por sub-regiones. En la figura 1, se presentan las etapas
Figura 3. Arquitectura ontológica y de multi-agentes
seguidas en el proceso, todo este ciclo permitió definir y
para el ecosistema de conocimiento
446
Las ontologías de método, tarea, aplicación y dominio (HICSS), 2010 43rd Hawaii International
acorde a (Rajendran & Iyakutti, 2009) e (Isaza, Castillo, Conference, (págs. 1-10). Honolulo.
& Lopez, 2010) se aplican a los agentes sociales de [13] Isaza, G., Castillo, A., & Lopez, M. (2010). Towards
conocimiento,los capitales y las regiones, para generar los Ontology-Based Intelligent Model for Intrusion
dominios de los activos del conocimiento y las agendas Detection and Prevention. Journal of Information
de actuación. De esta manera el ecosistema le permite Assurance and Security (JIAS) ,1554-1560.
al ciudadano informarse, comunicarse, colaborar, [14] Lizhen, L., Zhifeng, D., & Kemin, X. (2010).
coordinar actuaciones y gestionar el conocimiento de la Ontology of General Concept for Semantic
ciudad-región (figura 4). Las observaciones de las Searching. the Computer Modeling and Simulation,
experiencias de otras localidades o ciudades-regiones se ICCMS '10. Hainan, China.
plasman a través de relaciones resultado de perspectivas [15] López, M., & Joyanes, L. (2010). Knowledge
de observación como: pertinencia (acción de los agentes Based Development Model. European Conference
sociales en el portal), multi dimensionalidad (activos de Knowledge Management 2010. Oporto: Academic
conocimiento), flexibilidad (tratamiento a toda la Conferences Limited.
información del sistema de capitales de cada ciudad- [16] Lopez, M., Joyanes, L., & Gustavo, I. (2009).
región) y sentido evolutivo (gestión del tiempo y de las Ontology for Knowledge Management in a Local
relevanciassemánticas). Community. The IEEE Latin-American Conference
Las prestaciones de un portal de conocimiento para al on Communications - WorkShop.Medellin: IEEE.
ciudadano, le permiten: obtener servicios, motivarse para [17] Rajendran, B., & Iyakutti, K. (2009). Socio-
participar, usar el portal para administrar y generar contextual model of knowledge sharing among user
contenidos; informarse, validar lo que está pasando en la assisting agents. Intelligence and Security
ciudad-región y actuar como gestor de conocimiento; Informatics, 2009. ISI '09. IEEE International
colaborar, aprender y tener soporte alrededor de la gestión Conference. Dallas.
del conocimiento local y regional (Lopez, Joyanes, & [18] Secretaría de Estado de Telecomunicaciones y para la
Gustavo, 2009), (Barbagallo, De Nicola, & Missikoff, Sociedad de la Información. (30 de 04 de 2010). Plan
2010). Avanza. Recuperado el 11 de 08 de 2010, de
www.planavanza.es:
3. REFERENCIAS BIBLIOGRÁFICAS http://www.planavanza.es/InformacionGeneral/Estrat
egia2011/Documents/Estrategia_2011-2015_PA2.pdf
[12] Barbagallo, A., De Nicola, A., & Missikoff, M. [19] Waheed, A. (2003). Towards Knowledge Societies.
(2010). eGovernment Ontologies: Social Participation Paris: Publicaciones Unesco - World of Science.
in Building and Evolution. IEEE, System Sciences
447
448
Tecnologias Web 2.0 integradas al modelo organizacional de creación
de conocimiento.
449
ambientes virtuales, y la formación de grupos de interés, 2. MODELO DE CREACION Y
para la participación, colaboración, creación y CONVERSIÓN DE CONOCIMIENTO DE
transferencias de todo tipos de contenido, desde un
mensajes simple, conversaciones, video, audio, hasta NONAKA Y TAKEUCHI
complejos documentos, donde dicho contenido, constituye La gestión del conocimiento, acorde con definición
una expresión del conocimiento de cada participante y su aportada por [3], es el proceso sistemático de buscar,
aportación para la formación del capital de conocimiento organizar, filtrar y presentar la información con el
de la comunidad o grupo, visible y localizable por todos objetivo de mejorar la comprensión de las personas en un
sus miembros, constituyéndose de esta forma en área específica de interés. En este mismo orden de ideas,
herramientas de gestión del conocimiento [10]. Marwick [11], la define como el conjunto de acciones
Herramientas como los wikis, blogs y foros de discusión, sistemáticas y disciplinadas que una organización puede
como tecnologías conversacionales, facilitan los procesos realizar para obtener el mayor valor posible del
de creación y almacenamiento de conocimiento, a través conocimiento disponible en ella. Donde, el conocimiento
de foros de debate donde los participantes contribuyen incluye tanto las experiencias como la comprensión que
con preguntas y respuestas, o a través de blogs, las personas de la organización tienen acerca de los
caracterizados por procesos de narración y discusión, o artefactos de información, tales como, documentos e
por medio de Wikis de colaboración mediante escritos informes, disponibles tanto internos como externos a la
[17]. organización. Por lo que la gestión efectiva del
En este sentido, estas plataformas abiertas de conocimiento organizacional requiere normalmente de
participación se convierten en herramientas tecnológicas iniciativas organizacionales, sociales y estratégicas, junto
facilitadoras que favorecen la interacción dinámica entre al despliegue, en la mayoría de los casos, de las
el conocimiento tácito y explicito en las organizaciones, a tecnologías apropiadas. Siendo el uso de las tecnologías
través de procesos de Socialización, Exteriorización, Web 2.0 el centro de este artículo, para estructurar la
Combinación e Interiorización del conocimiento, acorde discusión acerca de las mismas, es útil clasificarlas en
con el modelo de creación y conversión de conocimiento relación con los conceptos de conocimiento tácito y
de Nonaka [12], en el cual partiendo de las experiencias explicito, presentados por Polanyi [14] y utilizados por
de cada usuario se desarrolla un proceso de aprendizaje Nonaka para formular una teoría acerca del aprendizaje
que permite incrementar el nivel de conocimiento tanto organizacional que se centra en las formas de conversión
individual como organizacional, lo cual de manera entre conocimiento tácito y explicito. El conocimiento
implícita se relaciona con el uso de herramientas y tácito, es el conocimiento personal, el cual se deriva de las
mecanismos de soporte que facilitan la captura, experiencias de trabajo, emocionales, vivenciales, know-
validación, almacenamiento, difusión y transferencias para how, las habilidades, creencias y valores. El conocimiento
hacerlo persistente y lograr su reutilización. En este tácito es accionable y el más valioso, clave para la
contexto, las tecnologías Web 2.0 ofrecen mecanismos creación de nuevo conocimiento, a través de su
como: el etiquetado, categorizaciones no estructurada a movilización y conversión [12]. Por su parte, el
través de folksonomias, marcadores sociales, filtrado conocimiento explicito, se refiere al conocimiento que
colaborativo, difusión selectiva, y herramientas de está codificado y es transmisible a través de algún sistema
colaboración tanto sincronas como asíncronas que actúan de lenguaje formal. Dentro de esta categoría se encuentran
como repositorios de contenidos cargados de los documentos, reportes, audio, video, memos, mensajes,
conocimientos, las cuales soportadas sobre el uso de bases presentaciones, diseños, especificaciones, simulaciones,
de datos como tecnologías base, permiten el entre otras, teniendo como objeto principal comunicarlo a
almacenamiento de dicho conocimiento clasificado y otras personas. Siendo ambas formas de conocimientos
categorizado en forma colectiva, facilitando su acceso y importantes para la eficiencia de las organizaciones, el
compresión [5]. En este orden de ideas, el objetivo de este objetivo de la gestión del conocimiento, en toda
artículo es ofrecer un enfoque representativo de la forma organización, es apoyarse en el uso de las tecnologías para
como las tecnologías Web 2.0 integradas al desarrollo de lograr capturar o explicitar el conocimiento tácito
los procesos del negocio sirven de herramientas residente en las personas, para hacerlo persistente y lograr
facilitadoras de los procesos de gestión del conocimiento su difusión y reutilización. Lo expresado anteriormente
y evaluar su actual y potencial contribución a los procesos conlleva a enfocarse en los procesos de conversión del
básicos de creación y distribución del conocimiento en las conocimiento entre sus formas tácito y explicito. En este
organizaciones. contexto, el aprendizaje organizacional tiene lugar en la
medida que los individuos participan en estos procesos,
con sus conocimientos compartidos, articulados y puestos
a disposición de los demás. La creación de nuevo
conocimiento se lleva a cabo a través de los procesos de
450
combinación e internalización, produciéndose de esta clasificar para formar bases de datos y producir nuevo
forma una reutilización y aprendizaje del conocimiento conocimiento explícito. Se crea, con la combinación, el
disponible. Como se puede observar en la figura 1, los conocimiento sistémico, soportado en el uso de las
procesos por medio de los cuales el conocimiento es tecnologías para la gestión y búsqueda de colecciones de
transformado en y entre formas utilizables por las conocimiento explicito.
personas son los siguientes: - Interiorización (Explícito a Tácito): Indica incorporar
- Socialización (Tácito a Tácito): En este proceso se el conocimiento explícito en conocimiento tácito,
comparten experiencia con el fin de adquirir conocimiento verbalizar y diagramar en documentos, manuales o
tácito a través de modelos mentales compartidos bien sea historias orales.Se incorpora en las bases de conocimiento
por conversaciones, documentos, entrenamiento practico, tácito de los miembros de la organización en la forma de
manuales y tradiciones que añade el conocimiento modelos mentales compartidos o prácticas de trabajo.
novedoso a la base colectiva que posee la organización Generando como contenido conocimiento operacional.
[16]. Para ser efectiva esta formación compartida o Una actividad típica de esta fase es la lectura y estudio de
comunicación de conocimiento tácito debe tener lugar documentos desde diferentes bases de datos. Estos
entre personas que comparten una misma cultura y pueden procesos no se producen en forma aislada, el trabajo en
trabajar juntos de manera efectiva. De esta forma el equipo en combinación con diferentes situaciones propias
compartir conocimiento tácito se asocia a las ideas de del negocio, la interacción entre los empleados para la
comunidades y colaboración. Un ejemplo típico en el que resolución de problemas, el desarrollo de tareas y
se comparte conocimiento tácito es a través de la proyectos en conjunto, permiten la creación de
descripción y discusión de experiencias en equipo [3]. conocimiento tanto tácito como explícito inherente al
trabajo. A través de la interacción con otros, el
Socialización Exteriorización (Tácito conocimiento tácito es internalizado y distribuido. Si bien
(Tácito-Tácito) los individuos, como lo son los empleados, experimentan
Explícito)
cada uno de estos procesos desde una perspectiva
Reuniones y Diálogos en grupo,
organizacional de gestión del conocimiento, el mayor
discusiones en grupo. preguntas
valor se genera durante el proceso de combinación, ya que
y respuestas
se genera nuevo conocimiento, que será difundido e
Interiorización Combinación (Explícito internalizado o aprendido por otros empleados, para
(Explícito Tácito ) Explícito) formar nuevas experiencias y conocimiento tácito, que
Aprender a partir de Reportes, resumen de bases puede a su vez ser compartido.
informes, lectura de de datos, prototipos,
documentos de diversas planos, 3. LA WEB 2.0 COMO
fuentes modelos, diagramas,
TECNOLOGIAS PARA LA GESTION DEL
Software
Figura 1. Procesos de conversión del conocimiento CONOCIMIENTO
entre tácito y explícito. Fuente: Adaptado a partir de Las tecnologías Web 2.0, soportadas sobre sus principios
[Nonaka y Takeuchi, 1999] intrínsecos de colaboración y participación, y enfocadas
hacia el elemento humano, facilitan la conformación de
Externalización (Tácito a Explicito): Es la actividad redes de colaboración entre individuos, las cuales se
esencial en la creación del conocimiento, es la conversión sustenta sobre una arquitectura de participación como es
del conocimiento tácito en explícito, adopta la forma de la Web, donde la estructura reticular que soporta la
metáforas, analogías, hipótesis, modelos, creación de misma, se potencia en la medida que más personas la
conceptos a través de la deducción e inducción, utilizan. Esta arquitectura es construida alrededor de las
integrándolo en la cultura de la organización. Por su personas y no de las tecnologías [13]. En esta arquitectura
naturaleza el conocimiento tácito es difícil de explicitar, de participación, juega un papel muy importante el
por lo general se logra a través de la conceptualización y concepto de intercreatividad, propiciando los mecanismos
en ultima instancia articulación en colaboración con otras necesarios para que toda la comunidad pueda aportar sus
personas, a través del dialogo en equipo en sesiones de conocimientos al producto desarrollado, de forma que la
preguntas y respuestas [11]. Web no solo permita encontrar cualquier información o
documento sino que permita crearlo fácilmente, permita
- Combinación (Explícito a Explícito): La combinación no solo interactuar con otras personas, sino crear y
de distintos cuerpos de conocimiento explícito: resolver problemas en conjunto [1].
documentos, conversaciones, reuniones, e-mail, por medio La idea de una arquitectura de participación se basa en el
de la educación o formación, a través de redes de principio de que las nuevas tecnologías potencian el
comunicación, se puede categorizar, confrontar y
451
intercambio y la colaboración entre los usuarios, marcadores sociales
reflejando el gran potencial colaborativo que esta tras el -Redifusión de
uso de las mismas. Construyéndose de esta forma, un contenidos(RSS, ATOM
espacio para compartir el conocimiento entre personas a /Google reader, bloglines,
través de redes de colaboración reciprocas. Por otro lado, netvibes, Oddpost )
esta arquitectura provee de innumerables herramientas e Interiorización Combinación (Explícito
instrumentos de cooperación que promueven la formación (Explícito Tácito ) Explícito)
de espacios abiertos a la colaboración y a la inteligencia
colectiva. Sobre la base de usar la Web como plataforma, -Podcasting (songbirdnest, -Búsquedas de Textos
aprovechando la inteligencia colectiva, el uso de los talkr, Odeo, Podomatic) -OPEN APIs, SOAP/REST
ambientes y tecnologías de colaboración tanto sincronas -Videocasting (YouTube, -Redes P2P.
(audio/video conferencia, mensajería instantánea, mundos dalealplay, sclipo, blinkx )
-Plataformas para el
virtuales) como asíncronas (wikis, blogs, plataformas de -Diapositivas online (Slidedesarrollo de Mashup.
microblogging, foros de discusión, sistemas de Share) -Filtrado colaborativo
podcastisng, videocasting, Redes sociales etc), apoyan la -E-learning (E-Learning-Herramientas de
creación de grupos de colaboración virtual que facilitan la Community 2.0) colaboración asíncrona
resolución de problemas en equipos, permitiendo la -Blogs, wikis, videoblogs, -Tags/folksonomias,
creación y compartición de conocimientos sobre un fotoblogs. marcadores sociales -
modelo de muchos a muchos [17].Que utiliza el Sindicación y agregación
ciberespacio como área de almacenamiento, etiquetado y de contenidos (RSS,
categorizado en forma colectiva, lo cual logra que la ATOM, JSON/ Google
información y las actividades sean altamente visibles, de reader, bloglines, netvibes,
fácil recuperación y acceso por parte de toda la Oddpost )
comunidad, proporcionando de esta forma beneficios Figura 2. Tecnologías Web 2.0 integradas a la
tanto individuales como grupales [5]. transformación del conocimiento. Fuente: Elaboración
propia tomando como base el modelo de creación
conversión de conocimiento de Nonaka y Takeuchi
4. TECNOLOGIAS WEB 2.0 [Nonaka y Takeuchi, 1999].
INTEGRADAS A LOS PROCESOS DE
CONVERSIÓN DEL CONOCIMIENTO El uso de las tecnologías en la Gestión del Conocimiento
Las tecnologías Web 2.0, caracterizadas por enfocarse en no es nuevo, el elemento innovador lo constituye la
el elemento humano como fuente de información y magnitud y escala de colaboración y participación en los
conocimientos, pueden ser utilizadas como herramientas procesos de captura, almacenamiento, clasificación,
de apoyo durante el desarrollo de las cuatro fases del validación y difusión, hechas posibles a través del soporte
modelo de creación y conversión de Nonaka, permitiendo de las tecnologías Web 2.0. Soluciones de colaboración y
la transferencia del conocimiento tácito de forma de distribución del conocimiento que permiten el
eficiente, su validación colectiva y consigo su desarrollo de conferencias en línea, sesiones en mundos
representación en forma explícita para su virtuales, foros de discusión, integración a blogs y wikis
almacenamiento, difusión y reutilización. Figura 2, para la validación de conocimientos, en donde toda la
muestra un resumen de relación de las tecnologías Web información necesaria para que cada empleado realice su
2.0 que pueden aplicarse para facilitar los procesos de trabajo se encuentra disponible en línea, fácilmente
conversión del conocimiento. localizable y reutilizable como resultado de la
clasificación y validación colectiva, basada en categorías
Socialización generada por los propios usuarios acorde a temas o áreas
Exteriorización (Tácito
de trabajo afines. En este sentido, es importante señalar
(Tácito-Tácito) Explícito) que los problemas de Gestión del Conocimiento no se
Herramientas de Redes P2P solucionan solo con el despliegue de una solución
colaboración -Herramientas de tecnológica. El mayor obstáculo, acorde con informe
sincronas(Chat, colaboración realizado por la consultora CapGemini [2], lo constituye
video/audio conferencias asíncrona(blogs, wikis, el cambio de cultura organizacional. El papel de
VoIP y pizarras videocasting, podcasting, las tecnologías es actuar como facilitadores para romper
compartidas) -Mundos foros de discusión) las barreras de tiempo y espacio y permitir que grandes
virtuales (Second life, -Plataformas para cantidades de conocimiento explícito puedan conservarse
Kaneva, OLIVE) microblogging. y estar disponibles en el momento preciso para los
-Tags, folksonomias, miembros de la organización e intercambiar información
452
entre sí, sin necesidad de reunirse cara a cara, lo cual sin empleado la posibilidad de ejercer la autoría,
la ayuda de herramientas tecnológicas sería inviable [9]. convirtiéndose tanto en autor como consumidor de
En este sentido, como elemento innovar las nuevas contenido, aprovechando de esta forma la inteligencia
tecnologías introducen cambios en la cultura colectiva para darle voz al empleado y favorecer de esta
comunicacional de la organización a través de plataformas forma la generación de ideas y desarrollo de propuestas
más abiertas y flexibles para el intercambio masivo de [4], con la posibilidad en caso de fallo de regresar a
información, lo cual funciona como elemento motivador versiones anteriores, ya que todas las versiones del
para la interacción personal, dinamizando la puesta a proyecto o trabajo quedan almacenadas en la plataforma,
disposición de conocimientos. convirtiéndose de esta forma en una memoria histórica de
En este contexto, el desarrollo de los procesos de la empresa [18]. Por su parte los blogs (Blogspirit,
conversión del conocimiento así como el modelo asociado Blogger, Wordpress, Blogalia, IBM Lotus Connection),
de los procesos inherentes de captura, validación, permite dotar a sus expertos de una herramienta para
clasificación,almacenamiento, difusión y transferencia difundir y acumular su conocimiento, haciéndolos visibles
(ver figura 3), son enfocados desde el punto de vista de a toda la organización y mejorando consigo la
las aportaciones que integran los mecanismos, cooperación. Estas herramientas permiten enlazar
aplicaciones y herramientas ofrecidos por las tecnologías documentos relacionados con proyectos o actividades,
Web 2.0, tal como se detallan a continuación: ofreciendo un registro de información importante
Tácito a Tácito ordenada cronológicamente, incluyendo documentos de
El intercambio de experiencias constituye la base para la los diferentes cambios o sucesos del desarrollo del
formación y distribución de conocimiento tácito. En este proyecto de trabajo, agregados por los miembros del
sentido, el ambiente creado por el software social en los grupo. Los cuales pueden seleccionar ser notificados de
espacios virtuales de la World Wide Web, facilitan el los cambios o actualizaciones agregadas al blog, sirviendo
establecimiento de relaciones de comunicación e de memoria de proyectos de trabajo, para ser utilizado en
intercambio de ideas, a través de conversaciones entre los el entrenamiento de nuevos miembros o como base para
miembros de grupos de colaboración, compartiendo proyectos relacionados [5].
experiencias, valores, emociones en torno a una situación Acorde con lo expresado anteriormente y considerando
o tema objeto de conversación. Las herramientas de que el proceso de socialización se realiza en reuniones
colaboración síncronas permiten el establecimiento de cara a cara entre los miembros de grupos, la combinación
espacios virtuales que facilitan el trabajo en grupo, la de wikis y blogs con tecnologías de colaboración
solución a problemas y la generación e intercambio de sincronas como: NetMeeting, audio/video conferencias
conocimientos, soportado sobre la realización de sobre protocolo VoIP (Skype, Google Talk, LiveMeeting,
reuniones en tiempo real, y el intercambio de TooMeeting Conference, WebEx etc.),soportados tanto
experiencias, documentos y material relevante para el sobre plataforma Web como en redes P2P, permiten el
trabajo, entre personas geográficamente distantes, desarrollo de actividades de formación, intercambio de
reduciendo de esta forma barreras geográfica y costos. Por experiencias, reuniones, las cuales apoyadas con
su parte, las herramientas de colaboración asíncrona, tales anotaciones en pizarras compartidas (Ej.:Doodleboard),
como: Wikis, blogs y foros de discusión, van servir de presentaciones de podcast y videocast, uso de mensajería
soporte para el establecimiento de diálogos y discusiones, instantánea (Gabbly,
sesiones de preguntas y respuestas entre los miembros de
la comunidad o grupo, que van a permitir consensuar,
validar, conceptualizar y clasificar el conocimiento
disponible producto de las transferencias de conocimiento
cara a cara en reuniones virtuales y a su vez servir de
repositorio compartido. En este orden de ideas, las Wikis
(MediaWiki, WikiSpace,Twiki, SocialText ,IBM Lotus
Quickr ), como herramientas colaborativas de groupware,
son consideradas tecnologías base para soluciones de
gestión del conocimiento, sirviendo de fuente y soporte
para la producción colectiva y permitiendo de esta forma
el almacenamiento de información y conocimiento útil
relacionado con experiencias, solución de problemas,
buenas prácticas e ideas inherentes al desarrollo
colaborativo de los procesos del negocio [15]. Este tipo
de herramientas permite romper las barreras tanto
personales como organizacionales, ofreciéndole a cada
453
Figura 3. Procesos de Gestión del conocimiento es consensuado y perfeccionado a través de diálogos,
inherentes a la Creación y Conversión del reflexiones y análisis; desarrollados a través de debates y
conocimiento en el espacio virtual. Fuente: discusiones, llevadas a cabo entre integrantes de grupos
Elaboración propia. de interés, haciendo uso de tecnologías de colaboración
asíncrona como: foros de discusión, blogs y wikis.
Geesee), permite la discusiones y distribución de Tecnologías que han cambiado el modelo de conversación
documentos en tiempo real entre miembros de grupos en la Web, añadiendo naturalidad e informalidad a la
colaborativos virtuales. En esta misma línea, dicho comunicación corporativa tanto oral como escrita,
intercambios de ideas y experiencias para la solución de permitiendo un intercambio de experiencias más abierto y
problemas y procesos de formación pueden ser por tanto una exteriorización más efectiva del
desarrollados de forma análoga con la creación de conocimiento individual [6]. El conocimiento explicito
comunidades en mundos virtuales como Second Life, capturado al ser clasificado en forma colectiva y asociado
Kaneva u OLIVE, en donde los empleados son para ello tags alusivos ala temática, se generan metadatos
representados por medio de avatares que interactúan para que facilitan la recuperación de los conocimientos
solucionar problemas relacionados con los procesos, disponibles en el repositorio compartido, producto de la
generación de nuevas ideas, desarrollo de proyectos etc., agrupación ó categorización de temas, opiniones o
permitiendo de una forma más eficiente la realización de resultados se, generan folksonomias asociadas con la
reuniones, incorporando la utilización de video información o conocimiento disponible y asociado a cada
conferencias y la mensajería instantánea, de forma participante, la cual se distribuye a través de enlaces en
simultánea, lo cual facilita la comunicación y transferencia cuentas compartidas por el grupo, en marcadores sociales
de conocimiento tácito, generando como resultado un o social bookmarking (Ej.: del.icio.us, stumleupon,
conocimiento contextuado el cual será validado o connotea, Blinklist etc.) o en forma selectiva a través de
confrontado a través de diálogos y discusiones entre canales de difusión (RSS, ATOM, JSOM), que a través de
miembros de comunidades o grupos agregadores rastrean las fuentes seleccionadas y recopilan
En un mismo contexto, los procesos de localización tanto las actualizaciones, de tal forma que todos los miembros
de especialistas por área de trabajo como de interesados del grupo cuenten con la información o conocimiento
en algún tópico o temas relacionados con el trabajo del manejado y almacenado en forma dinámica tanto en los
grupo, es apoyado sobre la estructura de enlaces y foros de discusión, blogs y wikis, relacionados con el
folksonomias asociadas al contenido del sitio. Estos tema en discusión. Todo esto conlleva al establecimiento
mecanismos permiten ordenar y categorizar los recursos y de relaciones más formales y rigurosas entre los
el conocimiento disponible, tal como es utilizado por los conceptos, conformando de esta forma un cuerpo de
miembros del grupo, asociándole a cada recurso una o conocimiento coherente y consistente en relación a los
varios tags que van a permitir clasificar y agrupar por tema o problema tratados, donde dicho cuerpo de
temas, permitiendo la identificación de la información que conocimiento además de estar almacenado en
cada grupo maneja y la asociada a cada participante. documentos(Google Docs, Google Spreadsheets, Zoho,
Mediante búsquedas simples basadas en la folksonomia de Edocr, etc.), puede estar complementado con archivos
tags, se identifican las etiquetas asociadas a cada perfil de videoscast, podcast o imágenes (fotos, graficas),
usuario y la cantidad y calidad de las contribuciones de almacenados directamente en el sitio Web o a través de
cada miembro de la comunidad. Por lo que los enlaces a plataformas de distribución, tales como:
colaboradores efectivos sobre un tema de interés son YouTube, Google Video for Business, Talkr, Odeo,
reconocidos por los propios miembros del grupo como Podomatic, Castpost, Slide Share, flickr, Picasa,
autoridades en el área utilizando como métrica los Panoramio, Redes P2P para localización y descarga de
comentarios positivos relacionados con sus aportaciones y archivos (Gnutella, BitTorrent, Napster, etc.), para su
la cantidad de enlaces ó referencias, mientras que los consulta y recuperación con miras a su aplicación en
gustos o intereses de cada usuario son identificados a situaciones o problemas similares, o tomados como base
través del contenido de las consultas realizadas. para generar nuevo conocimiento. En este mismo orden de
ideas, el uso del microblogging en el entorno empresarial,
a través del desarrollo de plataformas con funciones
similares a Twitter, para la comunicación corporativa
Tácito a Explícito interna, tales como: SocialText Signals, SocialCast,
A partir del conocimiento tácito producto de la CubeTree, Communote, ESME, Laconica, Ididwork,
verbalización y formalización de las ideas compartidas OraTweet de Oracle, Present.ly, Wordpress 2, Yammer,
entre las personas, como resultado de procesos de etc., con la incorporación de regulaciones y políticas de
socialización, se crean conceptos presentados en forma de integración orientadas al ámbito corporativo, tales como:
textos, formulas, algoritmos etc. El conocimiento explicito Búsqueda y análisis de la mensajería, control de acceso
454
multinivel por grupos para controlar el flujo de complejidad y facilitando la recuperación de todo tipo de
información sensible y su distribución a publico contenidos. En este mismo orden de ideas, el proceso de
especifico. Se convierte en otro mecanismo para la recuperación de información o de conocimiento, puede
validación de la información y conocimiento explicitado, requerir el desarrollo de mashup, que haciendo uso de las
con acceso tanto desde el escritorio como desde APIs abiertas, los feeds (RSS, ATOM) y servicios Webs
dispositivos móviles [8]. basados en SOAP ó REST, permitan la integración de
datos de diferentes fuentes y crear de esta forma una
Explícito a Explícito nueva fuente de datos que sirva de base para generar
Sin duda alguna la fase con mayor apoyo tecnológico es la nuevo conocimiento. En esta área existe una gran gama de
fase de combinación del conocimiento, ya que para su aplicaciones que van desde plataformas para el
desarrollo requiere de herramientas de búsqueda y ensamblaje de widgets, dirigidas a usuarios finales hasta
recuperación que permitan ubicar el conocimiento que aplicaciones de remezcla dirigida a profesionales de IT
servirá de base para generar nuevo conocimiento. Una de [7]. Entre estas plataformas de remezcla para generar
las características fundamentales de las tecnologías Web nuevo conocimiento se pueden utilizar: DreamFace
2.0, es la de complementar la capacidad de búsqueda de Mashup Kits, Intel Mash Maker,Presto de JackBe, Lotus
las aplicaciones Web con los sistemas de categorización, mashup, Mashery, Serena mashup Exchange.
en donde el usuario incorpora palabras que describen los Una vez recuperadas las fuentes de información o
datos. Los tags o etiquetas, reflejan la estructura y conocimientos, éstos pueden ser combinados o
relaciones de información que los empleados realmente relacionados, produciendo de esta forma conocimientos
utilizan, en vez de asimilar otro tipo de categorización novedosos e innovadores, expresados a través de nuevos
impuesta. Generándose de esta forma un nuevo sistema artículos, actualización o modificación de contenidos,
para la búsqueda y recuperación de los recursos. documentos, programas, imágenes, videos, audio, link
etc., en relación con un tema existente o con la creación
Adicionalmente, el uso de aplicaciones P2P tales como: de nuevos temas. La conversión del conocimiento logrado
Gnutella, BitTorrent, Napster, etc., permiten la a través de este proceso es muy importante ya que se
realización de búsquedas distribuidas de contenidos entre realiza una reutilización y conversión del conocimiento
todos los clientes que conforman la red, quienes a su vez existente, conectando distintos cuerpos de conocimiento,
son servidores con motores de búsqueda incorporados, de áreas o temas incluso distintos, o de encontrar nuevas
permitiendo búsquedas de forma más sofisticadas. Todo aplicaciones a algo ya conocido. Este nuevo conocimiento
lo anterior convierte los contenidos de cada usuario en es categorizado, confrontado y clasificado para formar
información visible, consultable y accesible en el tiempo, parte del repositorio compartido de conocimiento.
disponible a todos los miembros del grupo, permitiendo
que los conocimiento explícitos, producto de procesos de Explícito a Tácito
externalización, capturados y almacenados en repositorios El conocimiento explicito formalizado, creado a través de
de conocimiento compartidos como wikis y blogs, puedan los procesos de exteriorización y combinación, es
ser recuperados de forma eficiente, haciendo uso de almacenado y clasificado, generando folksonomias y
búsquedas basadas en folksonomias, tags y marcadores marcadores sociales, que colabora con su compresión y
sociales, en donde tomando en cuenta elecciones aplicabilidad, en base a un contexto, aunado al
anteriores del participante asociadas a su perfil o consultas descubrimiento de relaciones entre diferentes cuerpos de
realizadas por otros participantes, se ofrecen contenidos conocimientos y conceptos, facilitándose de esta forma el
personalizados (filtradocolaborativo), de tal forma que, aprendizaje y la difusión selectiva a través de los canales
siguiendo la estructura de enlaces se pueda llegar a la de redifusión o feeds (RSS, ATOM), evitando la
fuente de información, enlazando aplicaciones como: infoxicación generadas por el gran volumen y gran
oficina 2.0 (Zoho, Google Docs, Google Spreadsheets), variedad de fuentes, recibiéndose solo el contenido
plataformas de video( YouTube, Sclipo),plataformas para seleccionado. Por otro lado, al cuerpo de conocimientos
imágenes (Flikr, picasa o panoramio),podcast(Talkr), disponibles se puede acceder, utilizando para ello la
diapositiva (Slide Share), etc.Desde otro punto de vista, a estructura de enlaces ó a través de búsquedas textuales en
través de los mecanismos de suscripciones y el área, incrementándose de esta forma la capacidad de
notificaciones, utilizando las tecnologías de feeds tales acceder y descargar todo tipo de material relacionado
como RSS y ATOM, se permite la suscripción tanto con formación o capacitación sobre determinados
acontenidos de interés, de los cuales se recibe temas a través de archivos de audio, video ó
notificaciones de contenidos actualizados, ofreciéndose de presentaciones de diapositivas almacenados en
esta forma una difusión selectiva, lo cual permite filtrar la plataformas de distribución tales como: Talkr, YouTube,
enorme cantidad de datos, búsquedas y categorizaciones Slide Share, etc.,acceder a cursos de formación en línea
que se puedan generar a nivel corporativo, reduciendo la (E-Learning Community), consultar las experiencias
455
almacenadas en blogs y wikis producto de la ejecución de puedan formar a sus colegas integrantes del grupo en el
los proceso y discusiones realizadas, relacionadas con: uso y aplicación de las herramientas de forma más
técnicas aplicadas para resolver fallas en equipos, eficiente e informal.
experiencias de otros participantes ante problemas Integrar a los jefes de procesos a los grupos de
similares, manuales de operación de equipos, repositorio colaboración, para motivar a sus empleados a participar a
de proyectos anteriores, sugerencias de buenas practicas través de la práctica con el ejemplo, estableciendo las
para la realización de tareas, etc., con el propósito de ser herramientas Web 2.0 como soporte a la comunicación y
aprendidos por los integrantes del grupo e integrado a los permitiendo la creación de ambientes libres de
procesos del negocio, para la mejora o logro de la participación para la transferencia de información
eficiencia en el desarrollo del mismo, traduciéndose en asociada al desarrollo de los procesos.
disminución de errores y reducción de tiempo en la Integrar a la directiva a través de la comunicación por
ejecución de tareas. En el ámbito individual, cada persona parte de los jefes de proceso de los beneficios tanto
debe estudiar como el conjunto de conocimiento explicito personales como empresariales del uso de las tecnologías
colectivo y codificado, se relaciona con el cuerpo de Web 2.0 a través de los indicadores de medición presentes
conocimiento que ya posee; como integra el nuevo en el repositorio compartido de información y
conocimiento al que ya tiene. Desde el punto de vista conocimiento creado a través de la participación y
organizacional, implica que la empresa tiene que estudiar colaboración.
la manera como va a utilizar estos conocimientos nuevos
para que hagan parte de los procesos de negocios 6. CONCLUSIÓN
tradicionales y para que hagan parte de la cultura de la Las tecnologías Web 2.0 ofrecen una amplia gama de
organización, de sus saberes. La interiorización produce herramientas, mecanismos y aplicaciones que pueden ser
aprendizaje, lo cual es conocimiento integrado u utilizados para construir soluciones de Gestión del
operacional, pues está integrado a los demás saberes de conocimiento, como soporte a las fases de creación de
los individuos y de la organización. conocimiento organizacional mediante el modelo de
Nonaka, el cual divide los procesos de creación del
5. ESTRATEGIAS DE INTEGRACION conocimiento en cuatro categorías: Socialización (
En la búsqueda de una implantación exitosa enfocadas a la formación de conocimiento tácito y su comunicación),
comunicación interna de la organización como soporte al Externalización (formación de conocimiento explícito a
desarrollo de los procesos, se proponen las siguientes partir del conocimiento tácito),Combinación (uso del
estrategias que permitirán fomentar la creación de grupos conocimiento explícito), Internalización o aprendizaje
de colaboración efectiva en el espacio virtual, asociados al (creación de nuevo conocimiento tácito del conocimiento
desarrollo de las actividades del negocio: explícito). En este contexto, el valor de este modelo en el
Seleccionar procesos para la implementación en donde la contexto actual es que se focaliza en el conocimiento
comunicación tanto síncrona como asíncrona sea tácito y por tanto en las personas y en el uso que estas
fundamental para el funcionamiento del proceso. hacen de las tecnologías Web 2.0 para utilizar dicho
Establecer dominios de trabajo en base a proyectos, tareas conocimiento durante tres de las cuatro fases del modelo.
o actividades realizadas en común. Los cuatro procesos del modelo de Gestión de
Identificar las necesidades de información y conocimiento conocimiento de Nonaka son importantes. Su objetivo es
a compartir o transferir como parte del desarrollo de fomentar la creación de conocimiento organizacional,
tareas, actividades o proyectos ejecutados en forma apoyadas por el uso de las tecnologías Web 2.0. Entre los
colaborativa. aportes más significativos de la Web 2.0, para el
Implementar herramienta de soporte a la comunicación y desarrollo de los procesos de creación y conversión del
de trabajo colaborativo a través de la combinación de conocimiento, se encuentran las audio/video conferencias
wikis con la implementación de blogs, foros de discusión, sobre protocolo VoIP y los mundos virtuales,
mensajería instantánea, enlace a plataformas de incorporando chat y pizarras compartidas, permitiendo el
videocasting, podcasting, microblogging, mundos intercambio de mensajes y documentación de forma
virtuales y videoconferencias VoIP. simultánea, lo cual fomenta el uso de conocimiento tácito
Fomentar la creación de grupos de colaboración virtual, y favorece su captura. Por su parte, los mundos virtuales
acorde a los dominios de trabajo, iniciando con los ofrecen un nuevo modelo de comunicación que favorece
empleados más participativos, abiertos e influyentes, para la generación de ideas y solución a problemas, mediante
actuar como líderes de grupos que ayuden a difundir y simulaciones de situaciones propias del negocio e
fomentar el uso de las herramientas de colaboración en el interacción entre empleados geográficamente distantes,
grupo como soporte al trabajo diario. con una marcada reducción en cuanto a tiempo y costos
Capacitar a líderes como formadores de tal forma que de inversión necesarios.
456
Por otro lado, este nuevo modelo de comunicación Unfolding Saga of Blogs, Twitter, Friendfeed, and
corporativa, ofrece una forma no estructurada y menos Social Sites‖. [En línea:]
formal de comunicación, actuando como elemento http://web2.socialcomputingjournal.com
motivador para la interacción personal y eficaz para el [26] [Consultado 25 05 09]
intercambio de conocimiento explícito en la organización. [27] Hinchcliffe, D (2008b) ―Mashups turn into an
El uso de tags ó etiquetas creadas por cada usuario y la industry as offerings mature‖. [En
generación de folksonomias relacionadas con el área de línea:]http://blogs.zdnet.com/Hinchcliffe/?p=174
trabajo, para clasificar y categorizar la información en [Consultado 25 06 09]
forma colectiva, aunado a su publicación en marcadores [28] Hinchciffe, D. (2009). ―Twitter in your intranet: 17
sociales, ofrece una novedosa estrategia para la microblogging tools for business‖. [En línea
localización y recuperación de los recursos de en:]http://blogs.zdnet.com/Hinchcliffe/?p=414
conocimiento disponibles. La identificación de los tópicos [Consultado 05 07 09]
de consulta o referencias realizadas por cada grupo, [29] Joyanes, L., et al.(2002) ―Un paso hacia los modelos
ofreciendo una nueva forma para la localización de de Gestión del conocimiento desde un enfoque de
expertos, así como de personas interesadas por procesos‖, Libro de Actas de CISIC 2002 (I
discusiones sobre un área específica, apoyándose en los Congreso Internacional de Sociedad de la
temas consultados, la cantidad y calidad de las Información), McGraw-Hill, Madrid, pp. 235-242.
aportaciones realizadas y en la cantidad de referencias o [30] Lévy, Pierre. (2003). ―Le futur Web
link al mismo. En este mismo contexto, el conocimiento exprimeral‘intelligence collective de l‘humanité‖.
almacenado en el repositorio compartido se hace fácil de Journal duNet.[En línea
comprender gracias a los metadatos generados en forma en:]http://www.journaldunet.com/itws/it_plevy.shtml
colectiva, que añaden valor al contenido, ofreciendo [Consultado 10 03 09]
ventajas para un aprendizaje efectivo. Por su parte la fácil [31] Marwick, A.(2001), ―Knowledge Management
compresión del contenido asociado a cada recurso technology‖, IBM Systems Journal, Vol. 40, Nº. 4.
disponible, favorece la asociación entre diferentes cuerpos 2001.
de conocimiento y por ende la generación de nuevo [32] Nonaka I. y Takeuchi H. (1999) La organización
conocimiento. creadora del conocimiento, Editorial Oxford Press,
México DF.
7. REFERENCIAS [33] O‘Reilly, T. (2005). ―Qué es web 2.0: patrones del
[20] Berners-Lee, T. (2000). Tejiendo la red. El inventor diseño y modelos de negocio para la siguiente
del World Wide Web nos descubre su origen. Siglo generación del software‖. Traducción Equipo de
XXI. Madrid. (online) Boletín Sociedad de la Información de Telefónica.
http://news.bbc.co.uk/1/hi/technology/ 4132752.stm [En
[Consultado 10 03 09] línea]:http://sociedaddelainformacion.telefonica.es/js
[21] CapGemini (2004). ‖Estudio sobre la Gestión del p/articulos/detalle.jsp?elem=2146 [Consultado 21 06
Conocimiento y Competitividad en España‖. Informe 09].
elaborado por la consultora CapGemini en [34] Polanyi, M.(1996).‖The Tacit Dimension‖. Editorial
colaboración con IESE. (online) Routleged & Kegan Paul.
http://www.es.capgemini.com/recursos/news/el_67_p [35] Rangaswami, M. R. (2006). ―The birth of Enterprise
or_ciento_de_las_empresas_espaolas_realizan_proye 2.0‖.[En línea en:]
ctos_de_gestin_del_conocimiento [Consultado 26 06 http://sandhill.com/opinion/editorial.php?id=98 [
09] Consultado 08 06 09]
[22] Davenport, T. Y L. Prusak.(2000), ―Working [36] Sanguino, R. (2003). ―La Gestión del conocimiento.
Knowledge: How Organizations Manage What they Su importancia como recurso estratégico para la
Know‖, Boston, MA: Harvard Business School Press. organización‖, [en línea en:]
[23] Gaudin, S. (2007). Rivals face off in Enterprise 2.0 http://www.5campus.org/leccion/km [Consultado 22
debate. [En línea en:] 06 09]
http://www.informationweek.com/news/showArticle.j [37] Wagner, C. and Bolloju, N. (2005). Supporting
html?articleID=199905148 [Consultado 15 06 09] knowledge management in organisations with
[24] Grudin, J. (2006) ―Enterprise Knowledge conversational technologies: Discussion
Management and Emerging Technologies‖. forums,Weblogs, and Wikis, Editorial preface‖,
Proceedings of the 39th Hawaii International Journal of Database Management, vol.16, no.2, pp. 1.
Conference on System Sciences. [38] West, J., and West, M (2009).Using Wikis for online
[25] Hinchcliffe, D (2008a) ―Endless Conversation: The Collaboration.First Edition. Editorial Jossey-Bass,
San Francisco. USA.
457
458
459